Se espera que la Ley de Inteligencia Artificial de la UE, que está en proceso legislativo, modifique la tecnología y las normas en todo el mundo.
Las empresas con empleados en la Unión Europea (UE) podrían verse afectadas por una propuesta histórica para regular el uso de la inteligencia artificial (IA) en toda la región. La ley comprende un amplio conjunto de normas que pretenden regular el uso de la IA en todos los sectores y actividades sociales, señaló Jean-François Gerard, abogado de Freshfields Bruckhaus Deringer con sede en Bruselas.
El reglamento sobre IA propone una escala móvil de normas basadas en el riesgo: cuanto mayor sea el riesgo percibido, más estricta será la norma, dijo. La propuesta clasificaría las distintas aplicaciones de IA como de riesgo inaceptable, alto, limitado o mínimo, según un informe para clientes que Gerard ayudó a elaborar.
Se espera que la ley propuesta, que la Comisión Europea (CE) presentó en abril de 2021, desempeñe un papel importante en la configuración de la IA en la UE, sirva de modelo para las autoridades reguladoras de todo el mundo y afecte a las empresas a nivel mundial que tienen operaciones en Europa.
«La Ley de IA tiene como objetivo garantizar que los sistemas de IA colocados y utilizados en el mercado europeo sean seguros y respeten la legislación existente sobre derechos y valores fundamentales de la Unión Europea, entre los que se encuentra el Reglamento General de Protección de Datos [GDPR]», dijo Johanne Boelhouwer, abogada de Dentons en Ámsterdam.
«De este modo, el acto facilita un mercado interior para sistemas de IA seguros y fiables, al tiempo que evita la fragmentación del mercado. La IA debe ser legítima, ética y técnicamente sólida», añadió.
Riesgo en el uso laboral
Los sistemas de IA utilizados en contextos laborales, como la contratación y la evaluación del rendimiento, se considerarían de «alto riesgo» según el proyecto de ley y estarían sujetos a fuertes requisitos de cumplimiento, según los expertos jurídicos.
«Esto será nuevo para muchos empleadores que han estado utilizando las llamadas herramientas de análisis de personas durante años con requisitos de cumplimiento limitados» aparte de la privacidad de los datos y, en algunas jurisdicciones, la necesidad de informar y consultar con los representantes de los empleados, dijo Gerard.
Los empresarios tendrán que asegurarse de que los sistemas de IA que se plantean utilizar en estos contextos cumplen todos los requisitos de la ley, incluido el hecho de que se hayan sometido a una evaluación de conformidad y a una certificación de cumplimiento, dijo Boelhouwer. La evaluación de la conformidad sería una obligación para los proveedores de sistemas de IA, pero los empresarios no deberían utilizar sistemas que no hayan superado la evaluación, dijo.
«Por ejemplo, los empresarios que se plantean dar a los empleados una mala evaluación de su rendimiento basándose en algoritmos que pueden leer los sentimientos de las personas a través del texto, el tono de voz, las expresiones faciales y los gestos, no pueden limitarse a implantar esos sistemas sin garantizar el cumplimiento de la Ley de IA», dijo.