PUBLICIDAD

Tecnología

En la carrera por la IA, Microsoft y Google prefieren la velocidad a la precaución

Las empresas de tecnología alguna vez desconfiaron de lo que podría hacer alguna inteligencia artificial. Ahora la prioridad es hacerse con el control del próximo gran avance de la industria

The New York Times

viernes, 07 abril 2023 | 11:08

The New York Times

PUBLICIDAD

En marzo, dos empleados de Google, cuyo trabajo consiste en revisar los productos de inteligencia artificial de la empresa, intentaron evitar que Google lanzara un programa de inteligencia artificial chatbot. Creían que generaba declaraciones inexactas y peligrosas.

Diez meses antes, especialistas en ética y otros empleados plantearon preocupaciones similares en Microsoft. Escribieron en varios documentos que la tecnología de inteligencia artificial detrás de un chatbot podría inundar los grupos de Facebook con desinformación, degradar el pensamiento crítico y erosionar la base fáctica de la sociedad moderna.

Las empresas lanzaron sus chatbots de todos modos. Microsoft fue el primero, con un evento llamativo en febrero para revelar una inteligencia artificial chatbot integrada en su motor de búsqueda Bing. Google siguió unas seis semanas después con su propio chatbot, Bard.

Los movimientos agresivos de las empresas que normalmente tienen aversión al riesgo fueron impulsados por una carrera para controlar lo que podría ser el próximo gran avance de la industria tecnológica: la IA generativa, la nueva y poderosa tecnología que alimenta esos chatbots.

Esa competencia tomó un tono frenético en noviembre cuando OpenAI, una empresa nueva de San Francisco que trabaja con Microsoft, lanzó ChatGPT, un chatbot que ha capturado la imaginación del público y ahora tiene aproximadamente 100 millones de usuarios mensuales.

El sorprendente éxito de ChatGPT ha llevado a Microsoft y Google a estar dispuestos a asumir mayores riesgos con sus pautas éticas establecidas a lo largo de los años para garantizar que su tecnología no cause problemas sociales, según 15 empleados actuales y anteriores y documentos internos de las empresas.

La urgencia de construir con la nueva IA se cristalizó en un correo electrónico interno enviado el mes pasado por Sam Schillace, un ejecutivo de tecnología de Microsoft. Escribió en el correo electrónico, que fue visto por The New York Times, que fue un “error absolutamente fatal en este momento preocuparse por cosas que pueden arreglarse más tarde”.

Cuando la industria de la tecnología cambia repentinamente hacia un nuevo tipo de tecnología, la primera empresa en presentar un producto “es la ganadora a largo plazo simplemente porque empezó primero”, escribió. “A veces la diferencia se mide en semanas”.

La semana pasada, la tensión entre los que se preocupan y los que toman riesgos de la industria se manifestó públicamente cuando más de 1 mil investigadores y líderes de la industria, incluidos Elon Musk y el cofundador de Apple, Steve Wozniak, pidieron una pausa de seis meses en el desarrollo de la poderosa tecnología de IA. En una carta pública, dijeron que presentaba “riesgos profundos para la sociedad y la humanidad”.

Los reguladores ya están amenazando con intervenir. La Unión Europea propuso una legislación para regular la IA e Italia prohibió temporalmente ChatGPT la semana pasada. En Estados Unidos, el presidente Biden se convirtió este martes en el último funcionario en cuestionar la seguridad de las IA.

“Las empresas de tecnología tienen la responsabilidad de asegurarse de que sus productos sean seguros antes de hacerlos públicos”, dijo en la Casa Blanca. Cuando se le preguntó si la IA era peligrosa, dijo: “Está por verse. Podría ser."

PUBLICIDAD

ENLACES PATROCINADOS

PUBLICIDAD

PUBLICIDAD

PUBLICIDAD

close
search