Una brújula ética para la integración de la Inteligencia Artificial

Artículo de opinión de Verónica Sánchez, sobre la ética en la IA.

Las nuevas tecnologías que parten de la Inteligencia Artificial están remodelando nuestra forma de trabajar, interactuar y vivir. Además, están aportando beneficios, pero sin unas barreras éticas establecidas, corren el riesgo de reproducir prejuicios y discriminación del mundo real, alimentando las divisiones y amenazando los derechos humanos. Por ello, la presencia de la IA es cada vez mayor, pero su desarrollo tiene una cara oscura, es decir, la IA puede generar consecuencias negativas para los individuos y la sociedad. Es aquí donde entra la ética en la IA.

Consecuencias de un mal uso de la IA

Un mal uso de esta herramienta puede incrementar las desigualdades entre empresas, trabajadores, clientes y personas. Un ejemplo, un algoritmo mal programado puede significar la discriminación de una persona en la toma de una decisión (por ejemplo, que se le deniegue un seguro médico).

El proceso parte de cómo se debe establecer la ética IA en la sociedad. Esta tecnología no genera máquinas morales. Los profesionales han comenzado a definir marcos de trabajo y conceptos para abordar las preocupaciones éticas y definir el futuro del trabajo, es decir, las organizaciones realizan más inversión en estructuras en estas directrices, y en el establecimiento del consenso en torno a la incorporación de la ética IA a través de:

Gobierno

Las empresas deberán optimizar su estructura organizativa para ayudar a gestionar la ética en IA, a través de canales que establezcan un sistema de gobernanza para facilitar la estandarización de datos y garantizar la calidad. Los equipos normativos y legales internos colaborarán con equipos de gobierno para asegurar el cumplimiento con las entidades gubernamentales.

Explicabilidad

El objetivo es eliminar la ambigüedad en torno a la creación de modelos y sus resultados, generando una explicación comprensible para el ser humano que exprese el razonamiento de la máquina. Esto es importante para crear confianza con los sistemas de IA y asegurar que las personas entiendan por qué un modelo está llegando a una determinada decisión. Solo así será posible evitar riesgos de la IA, como el sesgo y la discriminación.

En este sentido, remarquemos algunos pasos que pueden seguir las empresas para ser más responsables en cuanto a la ética:

  • Compromiso de las personas que tengan un rol de liderazgo (CEOs, Managers…) para comprender la ética en IA.
  • Realizar un diagnóstico de la empresa. El análisis permite saber dónde se encuentra la empresa y preguntarse si existe cultura ética en la compañía.
  • Creación de una estrategia y un plan de acción. De esta manera será posible descubrir hacia dónde necesita ser dirigida la empresa al implementar una cultura ética en IA.
  • Contar con prácticas organizacionales: incluir un responsable de uso ético de la tecnología y contar con planes de upskilling y reskilling de aplicación ética de la IA. La ética debe estar integrada en las prácticas organizacionales para que se utilice con regularidad y coherencia.
La importancia de medir
  • Crear un plan de medición: establecer métricas objetivas para evaluar el impacto ético de la IA en la empresa y en la sociedad en general. Los datos adquiridos servirán para identificar áreas de mejora y el ajuste de prácticas y políticas relacionadas con la ética en IA.
  • Evaluación y transparencia: establecer procesos de evaluación de las decisiones éticas relacionadas con la IA y transparencia de los resultados y las acciones tomadas para mejorar.
Sistemas de IA éticos, seguros y confiables

La Unión Europea acaba de culminar la primera ley del mundo que permitirá regular y establecer un estándar global sobre el uso de la IA. Esta ley se aplicará de forma gradual hasta su plena entrada en vigor en 2026.

El objetivo será fomentar el desarrollo y la adopción de sistemas de IA seguros y confiables. Además, otro objetivo es garantizar los derechos fundamentales de los ciudadanos y estimula la inversión y la innovación en Europa.

Su enfoque está basado en los riesgos y la prohibición de:

  • Sistemas de manipulación cognitivo-conductual y puntuación social.
  • Uso de IA para vigilancia policial predictiva basada en perfiles y sistemas que utilizan datos biométricos para clasificar a las personas según categorías específicas como raza, religión u orientación sexual.
  • Sistemas destinados a crear bases de datos faciales captados de manera indiscriminada a través de Internet o de grabaciones audiovisuales.

La ética, clave para garantizar el bienestar de la sociedad

Por otro lado, incluye exenciones para los sistemas utilizados exclusivamente con fines militares y de defensa o investigación. Es decir, las autoridades policiales podrán utilizar las cámaras de reconocimiento fácil con autorización judicial con el objetivo de prevenir una amenaza terrorista, el tráfico de personas o la explotación sexual. También estará permitido su uso para la búsqueda de víctimas y menores desaparecidos.

En resumen, la ética en la IA es esencial para garantizar que se utilice de manera responsable y beneficiosa para la sociedad. Es un campo en constante evolución, que requiere la colaboración de múltiples partes interesadas para abordar los desafíos éticos emergentes.

TE PUEDE GUSTAR

EVENTOS

RECIBE NUESTRA NEWSLETTER

*Email:

*Nombre:

*Empresa:

Cargo:

Sector:
     

Please don't insert text in the box below!

ESCUCHA NUESTRO PODCAST

SÍGUENOS EN RRSS

MÁS COMENTADOS

Scroll al inicio