Tecnología

Líderes de la industria advierten sobre los riesgos existenciales de la inteligencia artificial, igual de peligrosa que las pandemias

Un grupo destacado de líderes de la industria ha emitido una advertencia contundente, señalando que la tecnología de inteligencia artificial (IA) que están desarrollando podría convertirse algún día en una amenaza existencial para la humanidad. Según ellos, la IA debe ser considerada un riesgo social de igual magnitud que las pandemias y las guerras nucleares.

La declaración, publicada por el Centro para la Seguridad de la IA, una organización sin fines de lucro, consta de una sola frase que deja claro el mensaje: «Mitigar el riesgo de extinción de la inteligencia artificial debería ser una prioridad mundial junto a otros riesgos a escala social, como las pandemias y las guerras nucleares». Esta carta abierta ha sido firmada por más de 350 ejecutivos, investigadores e ingenieros que trabajan en el campo de la inteligencia artificial.

Entre los firmantes se encuentran destacados ejecutivos de tres de las principales empresas de IA: Sam Altman, director ejecutivo de OpenAI; Demis Hassabis, director ejecutivo de Google DeepMind, y Dario Amodei, director ejecutivo de Anthropic. También se sumaron Geoffrey Hinton y Yoshua Bengio, dos de los tres investigadores galardonados con el Premio Turing por su trabajo pionero en redes neuronales, quienes a menudo son considerados los «padrinos» del movimiento moderno de la inteligencia artificial. Otros destacados investigadores del campo también han agregado su firma a esta declaración.

Esta advertencia llega en un momento en el que la preocupación por los posibles perjuicios de la inteligencia artificial está en aumento. Los avances recientes en los modelos de lenguaje de gran escala, como los utilizados por ChatGPT y otros chatbots, han despertado el temor de que la IA pueda ser utilizada a gran escala para difundir desinformación y propaganda, o incluso para eliminar millones de puestos de trabajo.

Algunos expertos creen que, si no se toman medidas para frenar su desarrollo, la inteligencia artificial podría llegar a ser tan poderosa como para provocar trastornos a escala social en pocos años, aunque aún no se ha explicado claramente cómo ocurriría esto. Estos temores son compartidos por muchos líderes de la industria, quienes se encuentran en la inusual posición de argumentar que la tecnología que están desarrollando plantea graves riesgos y debe regularse de manera más estricta, a pesar de estar compitiendo entre sí para avanzar rápidamente en su desarrollo.

Recientemente, Altman, Hassabis y Amodei se reunieron con el presidente y la vicepresidenta de Estados Unidos, Joe Biden y Kamala Harris, para discutir la regulación de la inteligencia artificial. En su testimonio ante el Senado estadounidense posterior a la reunión, Altman advirtió que los riesgos de los sistemas avanzados de inteligencia artificial eran lo suficientemente serios como para justificar la intervención gubernamental, y solicitó una regulación más estricta para prevenir posibles daños.

Estas voces de la industria resaltan la necesidad de un enfoque cuidadoso y responsable en el desarrollo de la inteligencia artificial, reconociendo los riesgos inherentes y promoviendo una regulación adecuada para garantizar su uso beneficioso y seguro para la humanidad. La comunidad global enfrenta el desafío de equilibrar la innovación y el progreso tecnológico con la seguridad y la protección de nuestros valores y bienestar colectivo.

Publicaciones relacionadas

Botón volver arriba