Los siete principios éticos de Google tras la polémica de Project Maven

15 junio, 2018
12 Compartido 1,764 Visualizaciones

Google ha establecido siete principios éticos para usar la Inteligencia Artificial para limpiar la imagen de la empresa tras la polémica de Project Maven, aunque no se quedarán al margen de otros contactos militares y gubernamentales.

Google abandonará Project Maven que ayudaba al ejército de EE.UU con Inteligencia Artificial (IA). El principal problema ha sido principalmente de comunicación al no saber explicar en qué consistía Project Maven, la polémica iniciática para el Departamento de Defensa de Estados Unidos que buscada el desarrollo de la IA para drones para analizar el video de aviones no tripulados. Esto desató una tremenda reacción negativa en Google, donde más de 4.000 empleados firmaron una petición para que la compañía abandonara el proyecto. Lo que hizo ceder a Google por la presión impuesta por sus empleados y debido a que su imagen se vio gravemente dañada. Ahora Google busca limpiar su imagen y establece siete principios que regirán el uso de la Inteligencia Artificial en futuros proyectos.

A pesar de que Google ha dicho ‘’no’’ a Project Maven, no se quedará al margen de otros contactos militares y gubernamentales, ya que son sectores de alta inversión, ya que miles de millones de dólares se dirigen a la nube y, claro está, Google no se quiere quedar fuera de este negocio.

Queremos dejar claro que, si bien no estamos desarrollando IA para su uso en armas, continuaremos trabajando con gobiernos y militares en muchas otras áreas. Éstas incluyen ciberseguridad, capacitación, reclutamiento militar, atención médica para veteranos, así como búsqueda y rescate“.

Los siete mandamientos

Google ha visto necesario controlar su Inteligencia Artificial (IA) con ética y, por ello, ha publicado los siete mandamientos. No se trata de conceptos flexibles o teóricos, sino que son muy concretos e influirán, sin duda, en las decisiones de negocio. Son los siguientes:

Que sea socialmente benéfica. Google tendrá en cuenta una amplia gama de factores sociales y económicos, y procederá en los casos en los que crean en los beneficios, como en áreas de atención médica, seguridad, energía, transporte, manufactura, entretenimiento y otras más.

Evitar crear o reforzar un sesgo injusto. Trabajará para evitar ‘impactos injustos’ en sus algoritmos, donde evitarán inyectar sesgo racial, sexual o político en la toma de decisiones automatizada.

Estar construida y probada para ser segura. Aquí mencionan que seguirán implementando estrictas prácticas de seguridad y protección para evitar resultados que generen daño. Asegurando que probarán las tecnologías de IA en entornos controlados y supervisarán su funcionamiento después de su implementación.

Ser responsable con las personas. “Nuestras tecnologías de IA estarán sujetas a la apropiada dirección y control humano“. Es decir, una inteligencia artificial que siempre estará respaldada y bajo el control de un ser humano.

Incorporar principios de diseño de privacidad. A raíz del escándalo de Facebook, Google busca blindarse al asegurar que su IA respetará la privacidad de los datos que obtiene. Sin duda un punto importante al saber que Google usa IA en casi todos sus servicios.

Mantener altos estándares de excelencia científica. Google sabe que la inteligencia artificial tiene el potencial de ayudar en nuevos ámbitos científicos y de investigación, por lo que se comprometen a apoyar la investigación abierta, el rigor intelectual, la integridad y la colaboración.

Google también garantiza que no diseñará IA en las áreas que causen algún daño, armas u otras tecnologías que faciliten lesiones de manera directa, tecnologías que usan información para la vigilancia y no están internacionalmente aceptadas y, por último, aquellas que infringen derechos humanos o principios de derecho internacional.

Te podría interesar

El CERN y Oracle refuerzan su colaboración en I+D rastreando el Big Bang
Sin categoría
23 compartido1,540 visualizaciones
Sin categoría
23 compartido1,540 visualizaciones

El CERN y Oracle refuerzan su colaboración en I+D rastreando el Big Bang

José Luis - 6 septiembre, 2018

El CERN usa las tecnologías cloud de Oracle para dar soporte a su infraestructura de investigación, utilizada para estudiar la estructura básica del universo y fenómenos como…

The AInomics, el gran foro de Inteligencia Artificial por primera vez en Digital Enterprise Show
AI
7 compartido1,197 visualizaciones
AI
7 compartido1,197 visualizaciones

The AInomics, el gran foro de Inteligencia Artificial por primera vez en Digital Enterprise Show

Mónica Gallego - 14 mayo, 2018

Llega The AInomics, organizado por DES, Digital Enterprise Show en colaboración con SwissCognitive en DES2018, durante su próxima celebración del 22 al 24 de mayo en Madrid (IFEMA) con personalidades como Stuart…

Iwi, chatbot creado para concienciar sobre la igualdad de género
Chatbots
12 compartido1,809 visualizaciones
Chatbots
12 compartido1,809 visualizaciones

Iwi, chatbot creado para concienciar sobre la igualdad de género

Mónica Gallego - 1 junio, 2018

Nace Iwi, un chatbot creado para concienciar sobre la igualdad de género por los alumnos de la EOI con IA y con la colaboración de Fundación ONCE y Fondo…

Dejar comentario

Su email no será publicado