PUBLICIDAD

Tecnología

Busca UE regular inteligencia artificial

El bloque de 27 naciones propuso las primeras reglas de inteligencia artificial del mundo occidental hace dos años

Associated Press

martes, 09 mayo 2023 | 15:50

Associated Press | El acelerado desarrollo de la inteligencia artificial tomó por sorpresa a funcionarios de la UE, que buscan regular estas tecnologías

PUBLICIDAD

Londres.-  El vertiginoso desarrollo de la inteligencia artificial ha deslumbrado a los usuarios al componer música, crear imágenes y escribir ensayos, al tiempo que genera temores sobre sus implicaciones .

Incluso los funcionarios de la Unión Europea (UE) que trabajaban en reglas innovadoras para controlar la tecnología emergente fueron tomados por sorpresa por el rápido ascenso de la IA.

El bloque de 27 naciones propuso las primeras reglas de inteligencia artificial del mundo occidental hace dos años, centrándose en controlar las aplicaciones riesgosas pero con un enfoque limitado.

Apenas se mencionaron los sistemas de inteligencia artificial de propósito general, como los chatbots. Los legisladores que trabajan en la Ley de IA consideraron incluirlos, pero no estaban seguros de cómo, o incluso si era necesario.

"Entonces el auge de ChatGPT explotó", dijo Dragos Tudorache, un miembro rumano del Parlamento Europeo que codirigió la medida.

"Si todavía había algunos que dudaban de si necesitamos algo, creo que la duda se desvaneció rápidamente".

El lanzamiento de ChatGPT el año pasado capturó la atención del mundo debido a su capacidad para generar respuestas similares a las humanas en función de lo que ha aprendido al escanear grandes cantidades de conocimiento en línea.

Con las preocupaciones emergentes, los legisladores europeos se movieron rápidamente en las últimas semanas para agregar lenguaje sobre los sistemas generales de IA, a medida que daban los toques finales a la legislación.

La Ley a la IA por parte de la UE podría convertirse en el estándar global de facto para la inteligencia artificial.

Las empresas y organizaciones podrían decidir que el tamaño del mercado único del bloque haría más fácil cumplir que desarrollar diferentes productos para diferentes regiones.

"Europa es el primer bloque regional en intentar regular significativamente la IA , lo cual es un gran desafío considerando la amplia gama de sistemas que puede cubrir el amplio término 'IA'", dijo Sarah Chander, asesora principal de políticas del grupo de derechos digitales EDRi.

Las autoridades de todo el mundo se esfuerzan por averiguar cómo controlar la tecnología en rápida evolución para garantizar que mejore la vida de las personas sin poner en peligro sus derechos o su seguridad.

Los reguladores están preocupados por los nuevos riesgos éticos y sociales que plantean ChatGPT y otros sistemas de inteligencia artificial de propósito general, que podrían transformar la vida cotidiana, desde el trabajo y la educación hasta los derechos de autor y la privacidad.

La Casa Blanca recientemente se reunió con los jefes de las empresas de tecnología que trabajan en IA, incluidos Microsoft, Google y el creador de ChatGPT, OpenAI, para discutir los riesgos de esta tecnología.

Mientras que la Comisión Federal de Comercio advirtió que no dudaría en tomar medidas enérgicas .

China ha emitido un proyecto de reglamento que exige evaluaciones de seguridad para cualquier producto que utilice sistemas de IA generativa como ChatGPT.

El organismo de control de la competencia de Reino Unido abrió una revisión del mercado de IA, mientras que Italia prohibió brevemente ChatGPT por una violación de la privacidad.

Se espera que las amplias regulaciones de la UE, que cubren a cualquier proveedor de servicios o productos de IA, sean aprobadas por un comité del Parlamento Europeo el jueves, y luego comiencen las negociaciones entre los 27 países miembros, el Parlamento y la Comisión ejecutiva de la UE.

Las reglas europeas que influyen en el resto del mundo, el llamado efecto Bruselas, se desarrollaron previamente después de que la UE reforzó la privacidad de los datos y ordenó cables comunes para cargar teléfonos, aunque tales esfuerzos han sido criticados por sofocar la innovación.

Las opiniones podrían ser diferentes esta vez. Los líderes tecnológicos, incluidos Elon Musk y el cofundador de Apple, Steve Wozniak, han pedido una pausa de seis meses para considerar los riesgos del desarrollo acelerado de este tipo de tecnologías.

Geoffrey Hinton, un científico informático conocido como el "padrino de la IA", y su compañero pionero de la IA, Yoshua Bengio, expresaron sus preocupaciones la semana pasada sobre el desarrollo descontrolado de la IA.

Tudorache dijo que tales advertencias muestran que la medida de la UE para comenzar a elaborar reglas de IA en 2021 fue la decisión correcta.

Google, que respondió a ChatGPT con su propio chatbot Bard y está implementando herramientas de inteligencia artificial, se negó a comentar. La compañía le ha dicho a la UE que "la IA es demasiado importante para no regularla".

Microsoft, un patrocinador de OpenAI , no respondió a una solicitud de comentarios. Ha acogido con beneplácito el esfuerzo de la UE como un paso importante "hacia que la IA confiable sea la norma en Europa y en todo el mundo".

Mira Murati, directora de tecnología de OpenAI, dijo en una entrevista el mes pasado que creía que los Gobiernos deberían involucrarse en la regulación de la tecnología de IA.

Pero cuando se le preguntó si algunas de las herramientas de OpenAI deberían clasificarse como de mayor riesgo, en el contexto de las normas europeas propuestas, dijo que es "muy matizado".

"Depende de dónde se aplica la tecnología", respondió, citando como ejemplo un caso de uso médico o caso de uso legal de muy alto riesgo versus una aplicación de contabilidad o publicidad.

El CEO de OpenAI, Sam Altman, planea paradas en Bruselas y otras ciudades europeas este mes en una gira mundial para hablar sobre la tecnología con usuarios y desarrolladores.

Las disposiciones añadidas recientemente a la Ley de IA de la UE requerirían que los modelos de IA "fundamentales" divulguen el material con derechos de autor utilizado para entrenar los sistemas, según un borrador parcial reciente de la legislación obtenido por The Associated Press.

Los modelos básicos, también conocidos como modelos de lenguaje extenso, son una subcategoría de IA de propósito general que incluye sistemas como ChatGPT.

Sus algoritmos están entrenados en grandes cantidades de información en línea, como publicaciones de blogs, libros digitales, artículos científicos y canciones pop.

"Tienes que hacer un esfuerzo significativo para documentar el material protegido por derechos de autor que usas en el entrenamiento del algoritmo, allanando el camino para que los artistas, escritores y otros creadores de contenido busquen reparación", dijo Tudorache.

Los funcionarios que redactan las regulaciones de IA tienen que equilibrar los riesgos que plantea la tecnología con los beneficios transformadores que promete.

Las grandes empresas de tecnología que desarrollan sistemas de inteligencia artificial y los Ministerios nacionales europeos que buscan implementarlos "están tratando de limitar el alcance de los reguladores", mientras que los grupos de la sociedad civil presionan para que haya más responsabilidad, dijo Chander de EDRi.

"Queremos más información sobre cómo se desarrollan estos sistemas, los niveles de recursos ambientales y económicos que se les asignan, pero también cómo y dónde se usan estos sistemas para que podamos desafiarlos de manera efectiva", agregó.

Según el enfoque basado en el riesgo de la UE, los usos de la IA que amenazan la seguridad o los derechos de las personas se enfrentan a controles estrictos.

Se espera que el reconocimiento facial remoto esté prohibido. También lo son los sistemas gubernamentales de "puntuación social" que juzgan a las personas en función de su comportamiento. El "raspado" indiscriminado de fotos de Internet utilizadas para la comparación biométrica y el reconocimiento facial también están prohibidos.

La vigilancia predictiva y la tecnología de reconocimiento de emociones, además de los usos terapéuticos o médicos, igual están descartadas.

Las infracciones pueden resultar en multas de hasta el 6 por ciento de los ingresos anuales globales de una empresa.

Incluso después de obtener la aprobación final, prevista para finales de año o principios de 2024 a más tardar, la Ley de IA no entrará en vigor de inmediato. Habrá un período de gracia para que las empresas y organizaciones averigüen cómo adoptar las nuevas reglas.

Es posible que la industria presione por más tiempo argumentando que la versión final de la Ley de IA va más allá que la propuesta original, dijo Frederico Oliveira Da Silva, oficial legal sénior del grupo europeo de consumidores BEUC.

Podrían argumentar que "en lugar de uno y medio o dos años, necesitamos dos o tres", dijo.

Señaló que ChatGPT se lanzó hace solo seis meses y ya ha presentado una serie de problemas y beneficios en ese tiempo.

"Si la Ley AI no entra en vigencia por completo durante años, ¿qué pasará en estos cuatro años?" Dijo Da Silva.

"Esa es realmente nuestra preocupación, y es por eso que les pedimos a las autoridades que estén al tanto, solo que realmente se concentren en esta tecnología".

PUBLICIDAD

ENLACES PATROCINADOS

PUBLICIDAD

PUBLICIDAD

PUBLICIDAD

close
search