La inteligencia artificial (IA) ha generado un intenso debate debido a su creciente influencia y a las diversas formas en que se está utilizando. De hecho, ha logrado transformar la manera en que adquirimos conocimiento, trabajamos, interactuamos socialmente y gestionamos sectores clave como la educación, la salud, el mundo empresarial y la economía.
Según el informe “Estado de Ciberseguridad en España 2024” de la compañía especializada en seguridad de la información, Secure&IT, el 55,3% de las empresas españolas usan herramientas de IA generativa, pero el 32,7% asegura no tener implantadas medidas específicas. Por otro lado, el 21,5% dicen no usar la IA, pero tienen previsto implantarla en sus compañías a lo largo de este año 2025.
El uso de estas herramientas es cada vez mayor, según el estudio de Samsung “Vida inteligente: cómo la IA está mejorando nuestras experiencias diarias”, el 90% de los encuestados de países europeos, entre ellos España, cree tener algún conocimiento de la IA. De las 11 mil personas encuestadas, solo el 38% se mostró intrigado por el papel que desempeñará la IA en sus vidas, aunque más de la mitad manifiesta interés en aprender sobre este tema.
Más allá de la percepción de los ciudadanos, la IA se constituye como una pieza clave de cara a la composición del orden internacional del futuro. Según Natalia Patiño, consultora legal en Secure&IT, los países y grupos de interés que lideren el desarrollo y la implementación de la inteligencia artificial ostentarán el poder económico, militar y político: “El poder de la IA va mucho más allá de lo que la ciudadanía “de a pie” puede percibir a nivel individual mediante el uso de sistemas de IA generativa”.
Además, en este aspecto, Patiño hace alusión a cuatro actores principales: Estados Unidos, China, los gigantes tecnológicos y la UE: “Cada uno de ellos abanderado de un punto de vista, unos valores y unos intereses diferentes”.
LA UE, PIONERA EN LA APROBACIÓN DE UNA REGULACIÓN SOBRE LA IA
En este contexto, crece el debate en torno a la necesidad o no de regular la IA y sobre establecer ciertos límites a su aplicación debido al aumento del uso de esta herramienta en el último año. Los jóvenes son los que más usan las herramientas de IA. Concretamente, el 71% de la Generación Z asegura que la IA les permite realizar actividades que antes no podían hacer. Incluso, más de un 80% de la Generación Z y de los millennials, están convencidos de que esta tecnología está revolucionando nuestra forma de interactuar con los dispositivos móviles.
Ante estos datos y el avance del uso de la IA, la UE decidió aprobar el Reglamento de Inteligencia Artificial (RIA), que entró en vigor en agosto de 2024 y que se aplicará progresivamente durante los próximos tres años.
“Europa defiende una IA presidida por la ética, la seguridad y los derechos humanos, pretendiendo encontrar el equilibrio entre el impulso a la innovación y la perspectiva de una IA orientada hacia el bienestar del ser humano. Por su parte, China adopta un enfoque regulatorio centralizado y estratégico, enfocándose en el control estatal y el progreso tecnológico. Y Estados Unidos pretende imponer una IA impulsada por el mercado en un entorno de ausencia regulatoria o con una regulación sectorial disgregada”, explica Natalia Patiño.
En este escenario, el 2 de febrero se marcó el primer hito en la aplicación del Reglamento de Inteligencia Artificial (RIA): la prohibición de introducir en el mercado comunitario, poner en servicio o utilizar determinados sistemas de IA. Y es que, al margen de los múltiples beneficios del uso de la IA, esta tecnología también puede utilizarse como herramienta para llevar a cabo prácticas contrarias a los derechos fundamentales reconocidos en la UE y conlleva riesgos en materia de seguridad y medioambiente.
MULTAS DE HASTA 35 MILLONES DE EUROS POR EL RIA
Las prohibiciones del RIA incluyen prácticas como la introducción en el mercado de sistemas de IA que se sirvan de técnicas subliminales o deliberadamente manipuladoras; explotación de vulnerabilidades derivadas de las características personales de un individuo o grupo que pudiera influir en su comportamiento y acarrearles perjuicios; determinados sistemas de scoring que provoquen un trato perjudicial o desproporcionado; la predicción de delitos orientada a valorar el riesgo de que una persona pueda delinquir únicamente en base a un perfil o rasgos del individuo; sistemas para el reconocimiento de emociones en el lugar de trabajo y centros educativos; así como el tratamiento de datos biométricos en sistemas de IA en unas determinadas condiciones, entre otras prácticas.
Para los distintos operadores de IA, estas prohibiciones representan un desafío. La consultora legal de Secure&IT explica: “Deberán asegurarse de que los modelos y sistemas de IA que ponen en el mercado no vulneran los límites marcados, lo que puede implicar la necesidad de modificación o eliminar ciertas funcionalidades o decantarse por sistemas adecuados a la legalidad”.
La vulneración de estas prohibiciones puede suponer multas administrativas que podrían alcanzar los 35 millones de euros, o hasta el 7 % de su volumen de negocios, si esta cuantía es mayor.
“Los consumidores y organizaciones europeas valoran cada vez más la privacidad, la seguridad y la protección de los derechos fundamentales. Por tanto, desarrollar sistemas de IA éticos, responsables y beneficiosos para la sociedad puede generar nuevas oportunidades de innovación y negocio en este campo”, concluye Patiño.