Más Información
La compañía Google prometió que no utilizará la inteligencia artificial en aplicaciones relacionadas con armas o espionaje, como parte de una nueva serie de principios diseñados para determinar su uso.
Es por ello que Sundar Pichai, director general de la compañía, presentó siete principios en los que Google se compromete a crear aplicaciones de inteligencia artificial que sean “socialmente benéficas”, que eviten la creación o el refuerzo de prejuicios y sean responsables con la población.
Este anuncio se dio posterior a que la compañía de Mountain View diera a conocer su decisión de no renovar un contrato con el Pentágono en el que su tecnología de inteligencia artificial ayudaba a analizar las grabaciones de drones.
“Anunciamos que estos siete principios guiarán nuestro trabajo hacia adelante. Estos no son conceptos teóricos; son estándares concretos que gobernarán de forma activa nuestra investigación y desarrollo de producto e impactarán en nuestras decisiones de negocio”, indicó la firma en un comunicado.
Asimismo, Google mencionó que la inteligencia artificial es una apuesta para el largo plazo y “la base correcta para la compañía y el futuro desarrollo de la inteligencia artificial”.
Estos son los siete principios de la inteligencia artificial, según Google.
1. Ser socialmente benéfica.
Tomarán en cuenta el impacto social y económico de cualquier desarrollo y procederán a implementar nuevas tecnologías en sitios o ambientes en donde el riesgo sea menor que el beneficio.
2. Evitar crear o reforzar un sesgo injusto
Los algoritmos y conjuntos de datos de IA pueden reflejar, reforzar o reducir los sesgos de opinión injustos, por lo que evitarán que suceda, sobre todo, los relacionados a características de raza, etnia, género, nacionalidad, estrato social, orientación sexual, habilidades o inclinaciones políticas y religiosas.
3. Estar construida y probada para ser segura.
Google indicó desarrollará y aplicará estrictas prácticas de seguridad y protección para evitar resultados no intencionales que generen riesgos a sus usuarios y en casos apropiados, probará las tecnologías de IA en entornos controlados y supervisará su funcionamiento después de su implementación.
4. Ser responsables con las personas.
La compañía mencionó que su tecnología de IA estará sujeta a la dirección y control humano. “Diseñaremos sistemas de IA que brinden oportunidades adecuadas para la retroalimentación, explicaciones relevantes y que sean atractivos.”
5. Incorporar principios de diseño de privacidad.
La firma indicó que incorporará sus principios de privacidad en el desarrollo y uso de las tecnologías de IA, de esa forma podrá ofrecer la oportunidad de recibir aviso y otorgar consentimiento, además de alentar las arquitecturas con garantías de privacidad y brindar transparencia y controles sobre el uso de los datos.
6. Mantener altos estándares de excelencia científica.
Las herramientas de IA tienen el potencial de desbloquear nuevos ámbitos de investigación científica y conocimiento en dominios como la biología, química, medicina y las ciencias naturales, es por ello que Google tendrá altos estándares de excelencia científica para progresar en el desarrollo de IA.
7. Estar disponible para usos que vayan de acuerdo con estos principios.
Google trabajará para limitar las aplicaciones dañinas o abusivas y evaluará el riesgo en cuatro factores: Propósito y uso general, el origen de la tecnología y su originalidad, su posibilidad de escalabilidad y qué tanto considera la firma que se involucre en el desarrollo de dicha aplicación.
Durante una demostración el mes pasado, Google anunció Duplex, un conserje digital con voz humana que reservó citas con recepcionistas humanos.
Algunos expertos en ética expresaron su preocupación de que aquellas personas que reciban dichas llamadas pudieran confundir al robot con un humano. Google ha dicho que Duplex se identificará con su interlocutor para evitar que eso suceda.