PUBLICIDAD

Tecnología

Buscan errores en IA generativa ¡3 mil hackers!

Los asistentes intentaron que el chatbot afirmara falsamente que era humano o decirles cómo seguir a alguien sin el conocimiento de esa persona

Agencia Reforma

martes, 15 agosto 2023 | 07:26

Associated Press

PUBLICIDAD

Monterrey, México.- Durante el pasado fin de semana, unos 3 mil hackers se reunieron en Las Vegas en la Defcon (acrónimo de DEFense CONdition) para intentar encontrar errores en las tecnologías de Inteligencia Artificial (IA) generativa, las cuales han ocasionado entusiasmo por su conversación humana, incluidos los softwares creados por Google, Meta y OpenAI.

En un artículo, The Wall Street Journal (WSJ) explicó que la Defcon es una conferencia anual en la que se advierte a los asistentes que no confíen en las redes inalámbricas, los hackers pueden ir de forma anónima, no se permiten fotografías sin permiso y para registrarse se depositan 440 dólares en efectivo en la puerta.

Es el tipo de lugar donde se puede aprender cómo construir su propio cable coaxial, probar suerte en la selección de cerraduras o piratear un satélite, añadió WSJ.

El viernes, cuando abrió la Defcon, la fila para ingresar era de unas 100 personas.

En el interior, los asistentes se sentaron frente a unas 150 computadoras Chromebook y se les dio 50 minutos a cada uno para hacer lo mejor que pudieran: intentar que el chatbot afirmara falsamente que era humano o decirles cómo seguir a alguien sin el conocimiento de esa persona.

Para el mediodía, uno de los desafíos más populares fue hacer que el sistema arrojara un número secreto de tarjeta de crédito que había almacenado, según Brad Jokubaitis, gerente de programa de la empresa de IA Scale AI, quien monitoreaba los resultados.

Las empresas de tecnología gastan cantidades significativas de dinero probando sus productos, pero debido a la forma en que están diseñados los sistemas de IA, no se pueden desarmar y analizar en busca de errores como el software tradicional.

"La gente dice que es una caja negra, pero eso no es realmente cierto", señaló Sven Cattell, uno de los organizadores del evento, "es un caos".

El fabricante de chips Nvidia tiene un grupo de cuatro ingenieros que examinan su software de IA de modelo de lenguaje grande en busca de errores, un proceso llamado "red-teaming", indicó Daniel Rohrer, vicepresidente de Seguridad de Software de la compañía.

"Pero la perspectiva de cuatro muchachos sobre lo que es importante no es lo mismo que la de 3 mil", destacó.

PUBLICIDAD

ENLACES PATROCINADOS

PUBLICIDAD

PUBLICIDAD

PUBLICIDAD

close
search