Una brújula ética para la integración de la Inteligencia Artificial

Artículo de opinión de Verónica Sánchez, sobre la ética en la IA.

Las nuevas tecnologías que parten de la Inteligencia Artificial están remodelando nuestra forma de trabajar, interactuar y vivir. Además, están aportando beneficios, pero sin unas barreras éticas establecidas, corren el riesgo de reproducir prejuicios y discriminación del mundo real, alimentando las divisiones y amenazando los derechos humanos. Por ello, la presencia de la IA es cada vez mayor, pero su desarrollo tiene una cara oscura, es decir, la IA puede generar consecuencias negativas para los individuos y la sociedad. Es aquí donde entra la ética en la IA.

Consecuencias de un mal uso de la IA

Un mal uso de esta herramienta puede incrementar las desigualdades entre empresas, trabajadores, clientes y personas. Un ejemplo, un algoritmo mal programado puede significar la discriminación de una persona en la toma de una decisión (por ejemplo, que se le deniegue un seguro médico).

El proceso parte de cómo se debe establecer la ética IA en la sociedad. Esta tecnología no genera máquinas morales. Los profesionales han comenzado a definir marcos de trabajo y conceptos para abordar las preocupaciones éticas y definir el futuro del trabajo, es decir, las organizaciones realizan más inversión en estructuras en estas directrices, y en el establecimiento del consenso en torno a la incorporación de la ética IA a través de:

Gobierno

Las empresas deberán optimizar su estructura organizativa para ayudar a gestionar la ética en IA, a través de canales que establezcan un sistema de gobernanza para facilitar la estandarización de datos y garantizar la calidad. Los equipos normativos y legales internos colaborarán con equipos de gobierno para asegurar el cumplimiento con las entidades gubernamentales.

Explicabilidad

El objetivo es eliminar la ambigüedad en torno a la creación de modelos y sus resultados, generando una explicación comprensible para el ser humano que exprese el razonamiento de la máquina. Esto es importante para crear confianza con los sistemas de IA y asegurar que las personas entiendan por qué un modelo está llegando a una determinada decisión. Solo así será posible evitar riesgos de la IA, como el sesgo y la discriminación.

En este sentido, remarquemos algunos pasos que pueden seguir las empresas para ser más responsables en cuanto a la ética:

  • Compromiso de las personas que tengan un rol de liderazgo (CEOs, Managers…) para comprender la ética en IA.
  • Realizar un diagnóstico de la empresa. El análisis permite saber dónde se encuentra la empresa y preguntarse si existe cultura ética en la compañía.
  • Creación de una estrategia y un plan de acción. De esta manera será posible descubrir hacia dónde necesita ser dirigida la empresa al implementar una cultura ética en IA.
  • Contar con prácticas organizacionales: incluir un responsable de uso ético de la tecnología y contar con planes de upskilling y reskilling de aplicación ética de la IA. La ética debe estar integrada en las prácticas organizacionales para que se utilice con regularidad y coherencia.
La importancia de medir
  • Crear un plan de medición: establecer métricas objetivas para evaluar el impacto ético de la IA en la empresa y en la sociedad en general. Los datos adquiridos servirán para identificar áreas de mejora y el ajuste de prácticas y políticas relacionadas con la ética en IA.
  • Evaluación y transparencia: establecer procesos de evaluación de las decisiones éticas relacionadas con la IA y transparencia de los resultados y las acciones tomadas para mejorar.
Sistemas de IA éticos, seguros y confiables

La Unión Europea acaba de culminar la primera ley del mundo que permitirá regular y establecer un estándar global sobre el uso de la IA. Esta ley se aplicará de forma gradual hasta su plena entrada en vigor en 2026.

El objetivo será fomentar el desarrollo y la adopción de sistemas de IA seguros y confiables. Además, otro objetivo es garantizar los derechos fundamentales de los ciudadanos y estimula la inversión y la innovación en Europa.

Su enfoque está basado en los riesgos y la prohibición de:

  • Sistemas de manipulación cognitivo-conductual y puntuación social.
  • Uso de IA para vigilancia policial predictiva basada en perfiles y sistemas que utilizan datos biométricos para clasificar a las personas según categorías específicas como raza, religión u orientación sexual.
  • Sistemas destinados a crear bases de datos faciales captados de manera indiscriminada a través de Internet o de grabaciones audiovisuales.

La ética, clave para garantizar el bienestar de la sociedad

Por otro lado, incluye exenciones para los sistemas utilizados exclusivamente con fines militares y de defensa o investigación. Es decir, las autoridades policiales podrán utilizar las cámaras de reconocimiento fácil con autorización judicial con el objetivo de prevenir una amenaza terrorista, el tráfico de personas o la explotación sexual. También estará permitido su uso para la búsqueda de víctimas y menores desaparecidos.

En resumen, la ética en la IA es esencial para garantizar que se utilice de manera responsable y beneficiosa para la sociedad. Es un campo en constante evolución, que requiere la colaboración de múltiples partes interesadas para abordar los desafíos éticos emergentes.

TE PUEDE GUSTAR

EVENTOS

RECIBE NUESTRA NEWSLETTER

*Email:

*Nombre:

*Empresa:

Cargo:

Sector:
     

Please don't insert text in the box below!

ESCUCHA NUESTRO PODCAST

SÍGUENOS EN RRSS

MÁS COMENTADOS

Scroll al inicio
Resumen de privacidad

Las cookies y otras tecnologías similares son una parte esencial de cómo funciona nuestra web. El objetivo principal de las cookies es que tu experiencia de navegación sea más cómoda y eficiente y poder mejorar nuestros servicios y la propia web. Aquí podrás obtener toda la información sobre las cookies que utilizamos y podrás activar y/o desactivar las mismas de acuerdo con tus preferencias, salvo aquellas Cookies que son estrictamente necesarias para el funcionamiento de la web de BigDataMagazine. Ten en cuenta que el bloqueo de algunas cookies puede afectar tu experiencia en la web y el funcionamiento de la misma. Al pulsar “Guardar cambios”, se guardará la selección de cookies que has realizado. Si no has seleccionado ninguna opción, pulsar este botón equivaldrá a rechazar todas las cookies. Para más información puedes visitar nuestra Políticas de Cookies. Podrás cambiar en cualquier momento tus preferencias de cookies pinchando en el enlace “Preferencias de cookies” situado en la parte inferior de nuestra web.