PUBLICIDAD
Estados Unidos
martes, 30 mayo 2023 | 12:04
PUBLICIDAD
Nueva York.- Un grupo de líderes de la industria advirtió este martes que la tecnología de inteligencia artificial que están construyendo podría representar algún día una amenaza existencial para la humanidad y debería considerarse un riesgo social a la par de las pandemias y las guerras nucleares.
“Mitigar el riesgo de extinción de la I.A. debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear”, se lee en una declaración de una oración publicada por el Centro para la Seguridad de la I.A., una organización sin fines de lucro. La carta abierta ha sido firmada por más de 350 ejecutivos, investigadores e ingenieros que trabajan en I.A.
Los firmantes incluyeron altos ejecutivos de tres de las principales empresas de inteligencia artificial: Sam Altman, director ejecutivo de OpenAI; Demis Hassabis, director ejecutivo de Google DeepMind; y Dario Amodei, director ejecutivo de Anthropic.
Geoffrey Hinton y Yoshua Bengio, dos de los tres investigadores que ganaron un Premio Turing por su trabajo pionero en redes neuronales y a menudo se les considera “padrinos” de la IA moderna, firmaron la declaración, al igual que otros destacados investigadores en el campo.
La declaración llega en un momento de creciente preocupación por los daños potenciales de la inteligencia artificial. Avances recientes en los llamados modelos de lenguaje, el tipo de I.A. utilizado por ChatGPT y otros chatbots, han generado temores de que la I.A. pronto podría usarse a gran escala para difundir información errónea y propaganda, o podría eliminar millones de trabajos administrativos.
PUBLICIDAD
ENLACES PATROCINADOS
PUBLICIDAD
PUBLICIDAD
PUBLICIDAD