Claves de la EU AI Act para implementar IA de forma responsable

La Unión Europea ha establecido un precedente global con la “EU AI Act”, el primer marco regulatorio integral para la inteligencia artificial. En vigor desde agosto de 2024, con una implementación gradual hasta agosto de 2027, esta normativa establece una serie de estándares para garantizar el desarrollo de la IA desde un enfoque seguro, ético y respetuoso con los derechos fundamentales.

En línea con la legislación, España ha aprobado recientemente el “Anteproyecto de Ley para el Buen Uso y la Gobernanza de la Inteligencia Artificial”, que refuerza el enfoque europeo, obligando a proveedores y desarrolladores que operan en el continente a cumplir estándares estrictos para evitar posibles sanciones. Conocedores del nuevo marco legislativo y respondiendo a las necesidades de sus clientes, los expertos de Innova-tsn, consultora especializada en el ciclo de vida integral del dato e inteligencia artificial, han identificado los puntos clave de la normativa para una adopción responsable:

  • Riesgos: el anteproyecto clasifica los sistemas de IA en cuatro niveles de riesgo para aplicar regulaciones proporcionales a su impacto. Los sistemas de riesgo inaceptable, como aquellos que violan derechos fundamentales o manipulan el comportamiento humano, están prohibidos en toda la Unión Europea. Los de alto riesgo, como los utilizados para diagnósticos médicos o selección de personal, están permitidos, pero sujetos a requisitos estrictos como evaluaciones de conformidad, supervisión humana y mecanismos de gobernanza.

 

Por otra parte, los sistemas de riesgo limitado, como generadores de texto o imágenes, están sujetos a obligaciones de transparencia hacia el usuario. Finalmente, los de riesgo mínimo, como filtros de spam o asistentes virtuales, no están sujetos a una regulación específica, aunque deben respetar normas de cumplimento común como el Reglamento General de Protección de Datos (GDPR).

 

  • Régimen sancionador: la legislación impone multas proporcionales a la gravedad de la infracción, que pueden alcanzar hasta 35 millones de euros o el 7% de la facturación global, aplicándose siempre la cifra mayor, en casos graves, como la creación o uso de sistemas prohibidos. Otros incumplimientos, como no presentar la documentación exigida o falsear información ante una solicitud oficial, pueden suponer penalizaciones de hasta 15 millones de euros o el 3% del negocio global.

 

Para los incumplimientos de menor gravedad, se prevén multas de 7,5 millones de euros o el 1% de la facturación. En cambio, el anteproyecto adopta un enfoque más permisivo con el sector público, contemplándose únicamente amonestaciones o apercibimientos, incluso ante casos de uso de tecnologías prohibidas o de alto riesgo, como la identificación biométrica remota.

 

  • Transparencia: los sistemas de IA deberán aportar documentación clara y accesible sobre la lógica detrás del funcionamiento del modelo, el uso de datos y las decisiones automatizadas, especialmente en casos con posible impacto sobre derechos fundamentales. Esta transparencia debe mantenerse durante todo el ciclo de vida del modelo, abarcando desde la recolección y preparación de datos hasta la monitorización y mantenimiento final.

 

En el caso de sistemas de IA generativa, como ChatGPT o Copilot, se exigen requisitos adicionales como resúmenes detallados de los datos de entrenamiento, marcas de agua para identificar contenidos sintéticos y consentimiento explícito para el uso de datos biométricos, limitando el almacenamiento de dichos datos al tiempo estrictamente necesario.

 

  • Explicabilidad: además de asegurar la transparencia, las organizaciones deberán garantizar que usuarios y responsables comprendan el funcionamiento de los sistemas de IA, proporcionando justificaciones claras sobre su comportamiento, tanto en términos técnicos como funcionales. En este sentido, la formación continua de los equipos implicados cobra especial importancia para promover un uso informado y ético.

 

  • Seguridad: la normativa exige a las organizaciones proteger la integridad, confidencialidad y disponibilidad, tanto de los datos como de los modelos y la infraestructura que los soporta. Para ello, es recomendable implementar medidas alineadas con la norma ISO 27001, como el cifrado de datos, autenticación multifactor (MFA), restricción de accesos y evaluaciones periódicas con supervisión humana.

 

  • Privacidad: Las organizaciones deben garantizar la protección de los datos personales y control por parte de los usuarios durante todo el ciclo de vida del modelo, cumpliendo con la RGPD. Medidas como la anonimización de los datos identificativos cuando se entrenar los modelos favorecen este principio.

 

  • Sostenibilidad: teniendo en cuenta que el entrenamiento de un modelo extenso de lenguaje (LLM) puede consumir hasta 10 GWh, equivalente al suministro anual de más de mil hogares estadounidenses, la sostenibilidad se convierte en foco determinante de la legislación. Estrategias como la optimización algorítmica, el uso de modelos pre-entrenados y arquitecturas eficientes pueden reducir el impacto medioambiental.

 

  • Equidad: Paralelamente, para minimizar los posibles sesgos discriminatorios y garantizar el bienestar social, se recomienda la utilización de muestras de datos equilibrados y la intervención de equipos multidisciplinares en todas las fases del proyecto.

 

  • Gobierno de la IA: para una correcta adopción de la legislación, las organizaciones deben establecer procesos, políticas y estructuras internas que aseguren la operatividad responsable de la IA. Este enfoque de gobernanza abarca dos dimensiones: la institucional, que se ocupa de aspectos organizativos como la asignación de roles y creación de estructuras de gobierno, y la operativa, que se centra en los aspectos técnicos de la implantación. Combinar ambas perspectivas puede ser una estrategia efectiva para alinear el cumplimiento normativo con los objetivos de negocio.

Más allá de evitar posibles sanciones, la EU AI Act ofrece a las empresas oportunidades para destacar en sectores regulados. En palabras de Begoña Vega, Head of AI Models & Applications de Innova-tsn: “cada sistema de IA tiene sus particularidades, por lo que habrá que analizar los casos detenidamente para una correcta clasificación. En este sentido, un partner estratégico puede facilitar el proceso de evaluación, categorización y despliegue de soluciones alineadas con la regulación y los principios de una IA responsable”.

TE PUEDE GUSTAR

Translated, empresa de soluciones lingüísticas impulsadas por inteligencia artificial, anuncia el lanzamiento de DVPS, uno de los mayores proyectos financiados por el programa Horizonte
El próximo 5 de junio, Madrid acogerá una nueva edición de Cyber Insurance Day (#CID25), la VI Edición de uno de los eventos de

EVENTOS

RECIBE NUESTRA NEWSLETTER

*Email:

*Nombre:

*Empresa:

Cargo:

Sector:
     

Please don't insert text in the box below!

ESCUCHA NUESTRO PODCAST

SÍGUENOS EN RRSS

MÁS COMENTADOS

Scroll al inicio
Resumen de privacidad

Las cookies y otras tecnologías similares son una parte esencial de cómo funciona nuestra web. El objetivo principal de las cookies es que tu experiencia de navegación sea más cómoda y eficiente y poder mejorar nuestros servicios y la propia web. Aquí podrás obtener toda la información sobre las cookies que utilizamos y podrás activar y/o desactivar las mismas de acuerdo con tus preferencias, salvo aquellas Cookies que son estrictamente necesarias para el funcionamiento de la web de BigDataMagazine. Ten en cuenta que el bloqueo de algunas cookies puede afectar tu experiencia en la web y el funcionamiento de la misma. Al pulsar “Guardar cambios”, se guardará la selección de cookies que has realizado. Si no has seleccionado ninguna opción, pulsar este botón equivaldrá a rechazar todas las cookies. Para más información puedes visitar nuestra Políticas de Cookies. Podrás cambiar en cualquier momento tus preferencias de cookies pinchando en el enlace “Preferencias de cookies” situado en la parte inferior de nuestra web.