PUBLICIDAD

El Paso

Enfrenta la humanidad ‘peligro de extinción’

Expertos en inteligencia artificial advierten sus riesgos: ‘es como una guerra nuclear’

Kevin Rose/The New York Times

miércoles, 31 mayo 2023 | 06:00

The New York Times | En la conferencia de prensa

PUBLICIDAD

Un grupo de líderes de la industria advirtió el martes que la tecnología de inteligencia artificial (IA) que estaban construyendo algún día podría representar una amenaza existencial para la humanidad y debería considerarse un riesgo social a la par de las pandemias y las guerras nucleares.

“Mitigar el riesgo de extinción que representa la IA debería ser una prioridad global junto con otros riesgos a escala social, como las pandemias y la guerra nuclear”, se lee en una declaración de una oración publicada por el Centro para la Seguridad de la IA, una organización sin fines de lucro. La carta abierta fue firmada por más de 350 ejecutivos, investigadores e ingenieros que trabajan en IA.

Los firmantes incluyen altos ejecutivos de tres de las principales empresas de inteligencia artificial: Sam Altman, director ejecutivo de OpenAI; Demis Hassabis, CEO de Google DeepMind; y Dario Amodei, CEO de Anthropic.

Geoffrey Hinton y Yoshua Bengio, dos de los tres investigadores que ganaron un Premio Turing por su trabajo pionero en redes neuronales y que a menudo se les considera “padrinos” del movimiento moderno de IA, firmaron la declaración, al igual que otros investigadores destacados en el campo. (El tercer ganador del Premio Turing, Yann LeCun, quien dirige los esfuerzos de investigación de IA de Meta, no había firmado hasta el martes).

La declaración llega en un momento de creciente preocupación por los daños potenciales de la IA. Los avances recientes en los llamados modelos de lenguaje extenso –el tipo de sistema de IA utilizado por ChatGPT y otros chatbots–, han generado temores de que la IA pronto podría usarse a gran escala para difundir información errónea y propaganda, o que podría eliminar millones de trabajos administrativos.

Con el tiempo, algunos creen que la IA podría volverse lo suficientemente poderosa como para crear trastornos a escala social en unos pocos años si no se hace nada para ralentizarla, aunque los investigadores a veces no llegan a explicar cómo sucedería eso.

Muchos líderes de la industria comparten estos temores, lo que los coloca en la posición inusual de argumentar que una tecnología que están construyendo –y, en muchos casos, están compitiendo furiosamente para construir más rápido que sus competidores–, presenta graves riesgos y debe ser regulada más estrictamente.

Este mes, Altman, Hassabis y Amodei se reunieron con el presidente Joe Biden y la vicepresidenta Kamala Harris para hablar sobre la regulación de la IA. En un testimonio en el Senado después de la reunión, Altman advirtió que los riesgos de los sistemas avanzados de IA eran lo suficientemente graves como para justificar la intervención del Gobierno y pidió la regulación de la IA por sus daños potenciales.

Dan Hendrycks, director ejecutivo del Center for AI Safety, dijo en una entrevista que la carta abierta representaba una “salida del armario” para algunos líderes de la industria que habían expresado su preocupación, pero sólo en privado, sobre los riesgos de la tecnología que estaban desarrollando. 

“Hay una idea errónea muy común, incluso en la comunidad de IA, de que sólo hay un puñado de fatalistas”, dijo Hendrycks. “Pero, de hecho, muchas personas en privado expresarían su preocupación por estas cosas”.

Algunos escépticos argumentan que la tecnología de IA aún es demasiado inmadura para representar una amenaza existencial. Cuando se trata de los sistemas de IA actuales, se preocupan más por los problemas a corto plazo, como las respuestas sesgadas e incorrectas, que por los peligros a más largo plazo.

Pero otros han argumentado que la IA está mejorando tan rápidamente que ya ha superado el rendimiento a nivel humano en algunas áreas y que pronto lo superará en otras. Dicen que la tecnología ha mostrado signos de habilidades y comprensión avanzadas, lo que genera temores de que la “inteligencia general artificial” o AGI, un tipo de IA que puede igualar o superar el rendimiento del nivel humano en una amplia variedad de tareas, puede no estar tan lejos.

En una publicación de blog la semana pasada, Altman y otros dos ejecutivos de OpenAI propusieron varias formas en que los poderosos sistemas de IA podrían administrarse de manera responsable. Hicieron un llamado a la cooperación entre los principales creadores de IA, más investigación técnica en modelos de lenguaje extenso y la formación de una organización internacional de seguridad de IA, similar a la Agencia Internacional de Energía Atómica, que busca controlar el uso de armas nucleares.

Altman también expresó su apoyo a las reglas que requerirían que los creadores de modelos de inteligencia artificial grandes y de vanguardia se registren para obtener una licencia emitida por el Gobierno.

En marzo, más de mil tecnólogos e investigadores firmaron otra carta abierta pidiendo una pausa de seis meses en el desarrollo de los modelos de IA más grandes, citando preocupaciones sobre “una carrera fuera de control para desarrollar y desplegar mentes digitales cada vez más poderosas”.

Esa carta, que fue organizada por otra organización sin fines de lucro centrada en la IA, Future of Life Institute, fue firmada por Elon Musk y otros líderes tecnológicos conocidos, pero no tenía muchas firmas de los principales laboratorios de IA.

La brevedad de la nueva declaración del Centro para la Seguridad de la IA (sólo 22 palabras) estaba destinada a unir a los expertos en IA que pueden estar en desacuerdo sobre la naturaleza de los riesgos específicos o los pasos para evitar que ocurran esos riesgos, pero que comparten preocupaciones generales sobre los poderosos sistemas de IA, dijo Hendrycks.

“No queríamos presionar por un menú muy grande de 30 posibles intervenciones”, dijo. “Cuando eso sucede, diluye el mensaje”.

La declaración se compartió inicialmente con algunos expertos en IA de alto perfil, incluido Hinton, quien renunció a su trabajo en Google este mes para poder hablar con más libertad, dijo, sobre los daños potenciales de la IA. Desde allí, se dirigió a varios de los principales laboratorios de IA, donde algunos empleados se registraron.

La urgencia de las advertencias de los líderes de IA ha aumentado a medida que millones de personas recurren a los chatbots de IA para entretenimiento, compañía y mayor productividad, y a medida que la tecnología subyacente mejora a un ritmo acelerado.

“Creo que si esta tecnología sale mal, puede resultar bastante mal”, dijo Altman al subcomité del Senado. “Queremos trabajar con el Gobierno para evitar que eso suceda”.

PUBLICIDAD

ENLACES PATROCINADOS

PUBLICIDAD

PUBLICIDAD

PUBLICIDAD

close
search