Economia

Google pone freno ético a inteligencia artificial

Agencias

2018-06-07

Ya en el siglo XX, el escritor de ciencia ficción Isaac Asimov había incluido en sus historias las famosas 3 leyes de la robótica, que invariablemente se programaban en los cerebros positrónicos de los seres artificiales que poblaban sus historias.
Esas leyes servirían de freno a los robots, para que no se salieran de control y se rebelaran contra la humanidad que los creo. Hoy, el futuro nos ha alcanzado y las empresas que desarrollan inteligencia artificial comienzan a incluir, al menos en sus estatutos, algunos lineamientos para que no haya peligro al momento de trabajar con la inteligencia artificial (I.A.).
Google prometió que no utilizará la I.A. en aplicaciones relacionadas con armas o espionaje, como parte de una nueva serie de principios diseñados para determinar su uso.
El director general Sundar Pichai presentó los principios en los que Google se compromete a crear aplicaciones de inteligencia artificial que sean “socialmente benéficas”, que eviten la creación o el refuerzo de prejuicios y sean responsables con la población.
El anuncio se dio después de que Google reportó la decisión de no renovar un contrato con el Pentágono en el que su tecnología de inteligencia artificial ayudaba a analizar las grabaciones de drones.
Su asistente de voz o la forma en la que Google Fotos categoriza las imágenes dependiendo de lo que aparece en ellas, es ya parte de la oferta cotidiana de la firma; sin embargo, la compañía confirmó que su apuesta por el futuro radica en esta tecnología y que es necesario poner estándares para su uso adecuado a través de algunos principios, publicó Expansión. A continuación se enumeran:

1- Por el bien social
Tomarán en cuenta el impacto social y económico de cualquier desarrollo y procederán a implementar nuevas tecnologías en sitios o ambientes en donde el riesgo sea menor que el beneficio.

2- Evitar reforzar o crear sesgos injustos
Buscarán evitar que la tecnología refuerce o cree sesgos de opinión o que refleje juicios que puedan causar algún impacto negativo en la sociedad, particularmente relacionado a características de raza, etnia, género, nacionalidad, estrato social, orientación sexual, habilidades o inclinaciones políticas y religiosas.

3- Construir y probar para la seguridad
En términos de seguridad, la firma se comprometió a desarrollar AI en línea con principios que pongan por encima la seguridad de los usuarios, y aclaró que en casos en los que sea apropiado se harán pruebas de los desarrollos en ambientes controlados.

4- Rendir cuentas
En este sentido, Google advirtió su compromiso para hacer desarrollos que se nutran de dirección humana y control.

5- Incorporar principios de privacidad desde el diseño
La firma dijo que sus desarrollos estarán abiertos para el escrutinio y exhortó a trabajar bajo arquitecturas de privacidad y que provean a los interesados de controles de transparencia y control sobre el uso de datos.

6- Desarrollar para el buen uso
La firma advirtió que limitará el desarrollo de la tecnología para aplicaciones que puedan causar algún tipo de daño y evaluarán este riesgo en cuatro factores: propósito para el desarrollo, el origen de la tecnología que se busca desarrollar y su originalidad, su posibilidad de escalabilidad y qué tanto hace sentido que Google se involucre en el desarrollo de dicha aplicación.

X