¿Se pueden proteger los datos en la era de la inteligencia artificial?

Europa quiere ser líder en revoluciones tecnológicas como la IA. Sin embargo, esta ambición contrasta con el deseo de Bruselas de proteger el derecho a la intimidad y la IA necesita datos para desarrollarse. Una nueva sentencia europea promete hacer compatibles ambos objetivos, aunque no resuelve el problema.

Un sistema de inteligencia artificial (IA) es una herramienta creada a través de la tecnología de la información, que utiliza algoritmos de datos para ofrecer correlaciones, predicciones, decisiones y recomendaciones. Esta capacidad de ofrecer nuevas interpretaciones a las decisiones humanas sitúa a la IA en el centro de la economía de los datos.

La capacidad de tomar decisiones más eficaces gracias a la IA también tiene consecuencias geopolíticas. Los Estados invierten cada vez más en este tipo de tecnología, impulsados por el lema acuñado por Vladimir Putin en 2017: «Quien domina la inteligencia artificial domina el mundo». En 2019 , Estados Unidos estaba invirtiendo casi un 200% más y Japón un 1.109% más en IA que en 2015.

Esta sensación de urgencia también ha salpicado a otros ámbitos, como los derechos digitales en Europa. Los legisladores europeos legislan a favor de la privacidad, luchan contra los grandes monopolios tecnológicos y crean espacios que valoran la seguridad de los datos privados. Estos avances en materia de derechos digitales, sin embargo, podrían amenazar la prosperidad económica del continente.

Cuando el GDPR comenzó a aplicarse en 2018, las empresas ya advertían que cumplir con las estrictas exigencias de protección de datos sería un obstáculo para la innovación tecnológica. Entre los argumentos más comunes contra el GDPR están que reduce la competencia, que su cumplimiento es demasiado complicado o que limita la capacidad de crear «unicornios» europeos : jóvenes startups con más de mil millones de dólares de capitalización bursátil, que buscan bases poco reguladas para invertir.

Por otro lado, Bruselas argumenta que su mercado de más de 500 millones de personas con garantías de estabilidad política y libertad económica seguirá atrayendo a los inversores. La propia comisaria europea de Competencia, Margrethe Vestager, añadió este año que la Comisión sólo intervendrá cuando se pongan en peligro los derechos fundamentales de los ciudadanos europeos.

Conciliar inteligencia artificial y privacidad

El cumplimiento del RGPD puede suponer un problema adicional en el desarrollo de la inteligencia artificial. Los sistemas de IA necesitan muchos datos para entrenarse, pero la legislación europea limita la capacidad de las empresas para obtener, compartir y utilizar estos datos. En cambio, si no existiera este reglamento, la recolección masiva de datos comprometería la privacidad de los ciudadanos. Para llegar a un equilibrio, el RGPD ha dejado un margen para el desarrollo de la IA debido a la redacción a veces imprecisa de la legislación, según el grupo pro-privacidad European Digital Rights.

Como era de esperar, sigue habiendo aspectos delicados en este precario equilibrio. Uno de ellos es el principio de transparencia, que otorga a cada ciudadano la capacidad de acceder a sus datos y entender lo que se hace con ellos, y que esta explicación sea clara y concisa. Sin embargo, esta transparencia puede ser difícil de mantener cuando quienes procesan los datos son sistemas de IA.

Las empresas y las instituciones de desarrollo de la IA llevan tiempo trabajando para garantizar la llamada «explicidad» e «interpretabilidad», es decir, que una persona no experta sea capaz de entender un sistema de IA en términos sencillos, reconociendo por qué toma determinadas decisiones y no otras. No es una tarea fácil: muchos de estos sistemas funcionan como cajas negras , una metáfora comúnmente empleada en el sector, ya que ni los que construyen el algoritmo ni los que aplican las decisiones que recomienda entienden cómo llega a esa decisión.

Otro dilema es el «derecho al olvido». Celebrado como una victoria del GDPR para la privacidad, obliga a las empresas a eliminar los datos de cualquier persona que lo solicite. En el caso de los sistemas de IA, una empresa podría, en teoría, eliminar los datos de la persona que entrena al algoritmo, pero no el rastro que estos datos han dejado en el sistema, lo que hace imposible un «olvido» total.

 

TE PUEDE GUSTAR

EVENTOS

RECIBE NUESTRA NEWSLETTER

*Email:

*Nombre:

*Empresa:

Cargo:

Sector:
     

Please don't insert text in the box below!

ESCUCHA NUESTRO PODCAST

SÍGUENOS EN RRSS

MÁS COMENTADOS

Scroll al inicio
Resumen de privacidad

Las cookies y otras tecnologías similares son una parte esencial de cómo funciona nuestra web. El objetivo principal de las cookies es que tu experiencia de navegación sea más cómoda y eficiente y poder mejorar nuestros servicios y la propia web. Aquí podrás obtener toda la información sobre las cookies que utilizamos y podrás activar y/o desactivar las mismas de acuerdo con tus preferencias, salvo aquellas Cookies que son estrictamente necesarias para el funcionamiento de la web de BigDataMagazine. Ten en cuenta que el bloqueo de algunas cookies puede afectar tu experiencia en la web y el funcionamiento de la misma. Al pulsar “Guardar cambios”, se guardará la selección de cookies que has realizado. Si no has seleccionado ninguna opción, pulsar este botón equivaldrá a rechazar todas las cookies. Para más información puedes visitar nuestra Políticas de Cookies. Podrás cambiar en cualquier momento tus preferencias de cookies pinchando en el enlace “Preferencias de cookies” situado en la parte inferior de nuestra web.