La ley de IA definitiva podría aprobarse definitivamente a finales de año.
A medida que la UE ultime su Ley de IA y la IA generativa siga evolucionando rápidamente, veremos cómo el panorama normativo de la inteligencia artificial pasa de marcos generales sugeridos a leyes más permanentes.
La Ley de Inteligencia Artificial de la UE ha suscitado un gran debate entre los líderes empresariales: ¿Cómo podemos prepararnos para una normativa sobre IA más estricta? ¿Debo diseñar de forma proactiva una IA que cumpla este criterio?
Cómo afectará a las empresas la Ley de IA de la UE
Al igual que el Reglamento General de Protección de Datos (RGPD) de la UE publicado en 2018, se espera que la Ley de IA de la UE se convierta en un estándar global para la regulación de la IA. La Ley de IA definitiva podría aprobarse a finales de año.
Es muy previsible que los efectos de la Ley de IA se dejen sentir más allá de las fronteras de la UE , a pesar de tratarse de una normativa europea. Las organizaciones que operan a escala internacional deberán ajustarse directamente a la legislación. Mientras tanto, las empresas estadounidenses y de otros países independientes se darán cuenta rápidamente de que les conviene cumplir esta normativa.
Categorías de riesgo de los sistemas de IA
Según la Ley de IA, los sistemas de IA de las organizaciones se clasificarán en tres categorías de riesgo, cada una con su propio conjunto de directrices y consecuencias.
1- Riesgo inaceptable. Los sistemas de IA que alcancen este nivel estarán prohibidos. Esto incluye los sistemas manipuladores que causan daño, los sistemas de identificación biométrica en tiempo real utilizados en espacios públicos para el cumplimiento de la ley y todas las formas de puntuación social.
2- Alto riesgo. Estos sistemas de IA incluyen herramientas como modelos de escaneo de solicitantes de empleo y estarán sujetos a requisitos legales específicos.
3- Riesgo limitado y mínimo. Esta categoría engloba muchas de las aplicaciones de IA que las empresas utilizan hoy en día, como los chatbots y las herramientas de gestión de inventario basadas en IA, y en gran medida no estarán reguladas. Las aplicaciones de riesgo limitado orientadas al cliente, sin embargo, requerirán la divulgación de que se está utilizando IA.
¿Cómo será la regulación de la IA?
Dado que la Ley de Inteligencia Artificial aún está en fase de borrador y sus efectos globales están por determinar, no podemos decir con certeza cómo será la regulación para las organizaciones. Sin embargo, sí sabemos que variará en función del sector, el tipo de modelo que se esté diseñando y la categoría de riesgo en la que se encuentre.
Es probable que la regulación incluya el examen por terceros, en el que se someterá el modelo a pruebas de estrés con respecto a la población a la que se pretende prestar servicio. En estas pruebas se evaluarán cuestiones como si el modelo funciona dentro de unos márgenes de error aceptables y si se revela la naturaleza y el uso del modelo. ‘
Para las organizaciones con sistemas de IA de alto riesgo, la Ley de IA ya ha esbozado varios requisitos:
- Implantación de un sistema de gestión de riesgos.
- Gobernanza y gestión de datos.
- Documentación técnica.
- Conservación y registro de datos.
- Transparencia y suministro de información a los usuarios.
- Supervisión humana.
- Exactitud, solidez y ciberseguridad.
- Evaluación de la conformidad.
- Registro ante el gobierno del Estado miembro de la UE.
- Sistema de seguimiento posterior a la comercialización.