¿Se pueden proteger los datos en la era de la inteligencia artificial?

Europa quiere ser líder en revoluciones tecnológicas como la IA. Sin embargo, esta ambición contrasta con el deseo de Bruselas de proteger el derecho a la intimidad y la IA necesita datos para desarrollarse. Una nueva sentencia europea promete hacer compatibles ambos objetivos, aunque no resuelve el problema.

Un sistema de inteligencia artificial (IA) es una herramienta creada a través de la tecnología de la información, que utiliza algoritmos de datos para ofrecer correlaciones, predicciones, decisiones y recomendaciones. Esta capacidad de ofrecer nuevas interpretaciones a las decisiones humanas sitúa a la IA en el centro de la economía de los datos.

La capacidad de tomar decisiones más eficaces gracias a la IA también tiene consecuencias geopolíticas. Los Estados invierten cada vez más en este tipo de tecnología, impulsados por el lema acuñado por Vladimir Putin en 2017: «Quien domina la inteligencia artificial domina el mundo». En 2019 , Estados Unidos estaba invirtiendo casi un 200% más y Japón un 1.109% más en IA que en 2015.

Esta sensación de urgencia también ha salpicado a otros ámbitos, como los derechos digitales en Europa. Los legisladores europeos legislan a favor de la privacidad, luchan contra los grandes monopolios tecnológicos y crean espacios que valoran la seguridad de los datos privados. Estos avances en materia de derechos digitales, sin embargo, podrían amenazar la prosperidad económica del continente.

Cuando el GDPR comenzó a aplicarse en 2018, las empresas ya advertían que cumplir con las estrictas exigencias de protección de datos sería un obstáculo para la innovación tecnológica. Entre los argumentos más comunes contra el GDPR están que reduce la competencia, que su cumplimiento es demasiado complicado o que limita la capacidad de crear «unicornios» europeos : jóvenes startups con más de mil millones de dólares de capitalización bursátil, que buscan bases poco reguladas para invertir.

Por otro lado, Bruselas argumenta que su mercado de más de 500 millones de personas con garantías de estabilidad política y libertad económica seguirá atrayendo a los inversores. La propia comisaria europea de Competencia, Margrethe Vestager, añadió este año que la Comisión sólo intervendrá cuando se pongan en peligro los derechos fundamentales de los ciudadanos europeos.

Conciliar inteligencia artificial y privacidad

El cumplimiento del RGPD puede suponer un problema adicional en el desarrollo de la inteligencia artificial. Los sistemas de IA necesitan muchos datos para entrenarse, pero la legislación europea limita la capacidad de las empresas para obtener, compartir y utilizar estos datos. En cambio, si no existiera este reglamento, la recolección masiva de datos comprometería la privacidad de los ciudadanos. Para llegar a un equilibrio, el RGPD ha dejado un margen para el desarrollo de la IA debido a la redacción a veces imprecisa de la legislación, según el grupo pro-privacidad European Digital Rights.

Como era de esperar, sigue habiendo aspectos delicados en este precario equilibrio. Uno de ellos es el principio de transparencia, que otorga a cada ciudadano la capacidad de acceder a sus datos y entender lo que se hace con ellos, y que esta explicación sea clara y concisa. Sin embargo, esta transparencia puede ser difícil de mantener cuando quienes procesan los datos son sistemas de IA.

Las empresas y las instituciones de desarrollo de la IA llevan tiempo trabajando para garantizar la llamada «explicidad» e «interpretabilidad», es decir, que una persona no experta sea capaz de entender un sistema de IA en términos sencillos, reconociendo por qué toma determinadas decisiones y no otras. No es una tarea fácil: muchos de estos sistemas funcionan como cajas negras , una metáfora comúnmente empleada en el sector, ya que ni los que construyen el algoritmo ni los que aplican las decisiones que recomienda entienden cómo llega a esa decisión.

Otro dilema es el «derecho al olvido». Celebrado como una victoria del GDPR para la privacidad, obliga a las empresas a eliminar los datos de cualquier persona que lo solicite. En el caso de los sistemas de IA, una empresa podría, en teoría, eliminar los datos de la persona que entrena al algoritmo, pero no el rastro que estos datos han dejado en el sistema, lo que hace imposible un «olvido» total.

 

TE PUEDE GUSTAR

EVENTOS

RECIBE NUESTRA NEWSLETTER

*Email:

*Nombre:

*Empresa:

Cargo:

Sector:
     

Please don't insert text in the box below!

ESCUCHA NUESTRO PODCAST

SÍGUENOS EN RRSS

MÁS COMENTADOS

Scroll al inicio