PUBLICIDAD

Tecnología

Ingeniero de Google dice que su sistema de Inteligencia Artificial tiene conciencia

'Conversa como un niño de 7 u 8 años', afirmó el experto antes de ser suspendido por la compañía que negó sus declaraciones

The New York Times

lunes, 13 junio 2022 | 08:53

The New York Times

PUBLICIDAD

Nueva York.- Google suspendió a un ingeniero recientemente después de desestimar su afirmación de que su inteligencia artificial es inteligente y que ha cobrado conciencia propia, lo que reveló otro conflicto sobre la tecnología más avanzada de la compañía.

Blake Lemoine, ingeniero de software en inteligencia artificial de Google, dijo en una entrevista que fue suspendido este lunes. El departamento de recursos humanos de la empresa dijo que había violado la política de confidencialidad de Google. El día antes de su suspensión, dijo Lemoine, entregó documentos a la oficina de un senador de Estados Unidos, alegando que proporcionaban evidencia de que Google y su tecnología participaban en discriminación religiosa.

Google dijo que sus sistemas imitaban los intercambios conversacionales y podían hablar sobre diferentes temas, pero no tenían conciencia. “Nuestro equipo, incluidos especialistas en ética y tecnólogos, ha revisado las preocupaciones de Blake según nuestros principios de inteligencia artificial y le he informado que la evidencia no respalda sus afirmaciones”, dijo Brian Gabriel, un portavoz de Google, en un comunicado. “Algunos en la comunidad están considerando la posibilidad a largo plazo de una inteligencia artificial sensible o general, pero no tiene sentido hacerlo antropomorfizando los modelos conversacionales actuales, que no son sensibles”. The Washington Post fue el primero en informar sobre la suspensión de Lemoine.

Durante meses, Lemoine se peleó con los gerentes, ejecutivos y recursos humanos de Google por su sorprendente afirmación de que el modelo de lenguaje para aplicaciones de diálogo de la empresa, o LaMDA, tenía conciencia y alma. Google dice que cientos de sus investigadores e ingenieros han conversado con LaMDA, una herramienta interna, y llegaron a una conclusión diferente a la de Lemoine. La mayoría de los expertos creen que la industria está muy lejos de la sensibilidad informática.

Algunos investigadores han hecho afirmaciones optimistas acerca de que estas tecnologías pronto alcanzarán la conciencia, pero muchos otros se apresuran a descartar estas afirmaciones. “Si usaras estos sistemas, nunca dirías esas cosas”, dijo Emaad Khwaja, investigador de la Universidad de California, que está explorando tecnologías similares.

La organización de investigación de Google ha pasado los últimos años sumida en escándalos y controversias debido a sus avances en inteligencia artificial. Los científicos de la división y otros empleados se han peleado regularmente por cuestiones de tecnología y personal en episodios que a menudo se han extendido a la arena pública. En marzo, Google despidió a un investigador que había tratado de discrepar públicamente con el trabajo publicado de dos de sus colegas. Y los despidos de dos A.I. los investigadores de ética, Timnit Gebru y Margaret Mitchell, después de criticar los modelos de lenguaje de Google, han seguido ensombreciendo al grupo.

El ingeniero Lemoine, un veterano militar que se ha descrito a sí mismo como un sacerdote, un exconvicto y un investigador de Inteligencia Artificial, dijo a ejecutivos de Google de la talla de Kent Walker, presidente de asuntos globales, que creía que LaMDA era un niño de 7 u 8 años. Quería que la compañía buscara el consentimiento del programa de computadora antes de realizar experimentos con él. Sus afirmaciones se basaron en sus creencias religiosas, que dijo que el departamento de recursos humanos de la empresa discriminó.

“Han cuestionado repetidamente mi cordura”, dijo Lemoine. "Dijeron: '¿Ha sido revisado por un psiquiatra recientemente?'" En los meses previos a que lo pusieran en licencia administrativa, la compañía le había sugerido que tomara una licencia por salud mental.

Yann LeCun, el director de Inteligencia Artificial investigador en Meta y una figura clave en el auge de las redes neuronales, dijo en una entrevista esta semana que este tipo de sistemas no son lo suficientemente poderosos para alcanzar la verdadera inteligencia.

La tecnología de Google es lo que los científicos llaman una red neuronal, que es un sistema matemático que aprende habilidades mediante el análisis de grandes cantidades de datos. Al identificar patrones en miles de fotos de gatos, por ejemplo, puede aprender a reconocer a un gato.

En los últimos años, Google y otras empresas líderes han diseñado redes neuronales que aprendieron de enormes cantidades de prosa, incluidos miles de libros inéditos y artículos de Wikipedia. Estos "modelos de lenguaje grande" se pueden aplicar a muchas tareas. Pueden resumir artículos, responder preguntas, generar tweets e incluso escribir publicaciones de blog.

PUBLICIDAD

ENLACES PATROCINADOS

PUBLICIDAD

PUBLICIDAD

PUBLICIDAD

close
search