Asegurando la confianza digital y la privacidad de datos en modelos de aprendizaje automático

Artículo de José Ángel Arias, CISA en Amazon Web Services.

Los modelos de Inteligencia Artificial (Artificial Intelligence) y de aprendizaje automático (Machine Learning), comúnmente referidos como AI/ML, están pasando de un ámbito académico o de alta especialización a uno de fascinación popular, gracias al impacto que han tenido en nuestra interacción diaria,

José Ángel Arias

especialmente a través de empresas como OpenAI y sus algoritmos y herramientas.

Bajo este contexto, cada vez es más importante que los profesionales de los sistemas de información y de su gobernanza aseguren que los algoritmos de IA/ML no invadan, sin autorización o ponderación de sus consecuencias, la privacidad de datos personales y los derechos de propiedad intelectual. Pero, ¿cómo se puede asegurar que el entrenamiento y despliegue de este tipo de algoritmos respeta estos derechos y mantiene la confianza digital que se espera de las empresas, instituciones y plataformas digitales?

El objeto de nuestra fascinación.

Los algoritmos y herramientas como OpenAI, ChapGPT, Dall-E han demostrado la capacidad de imitar la inteligencia humana de manera convincente. Sin embargo, es importante considerar las implicaciones de que estos algoritmos dejen de ser un simple tema de moda para entrar, como proponen varios, a reemplazar seriamente a editorialistas, diseñadores, modelos, periodistas, profesores…

Veamos cuáles son algunas de estas implicaciones.

La confianza digital.

La confianza digital (Digital Trust por su acepción anglosajona), es un aspecto para garantizar que la IA y el ML sean utilizados de manera ética y responsable. Según la asociación global de tecnología ISACA, define la confianza digital como “la confianza en la integridad de las relaciones, interacciones y transacciones entre proveedores y consumidores dentro de un ecosistema digital asociado”.

Aunque disfrutamos de los resultados de estos algoritmos, como artículos escritos por IA, diseños extravagantes y disertaciones legales, debemos preguntarnos sobre la integridad de las interacciones entre los consumidores y el público que recibe estos resultados. Es importante cuestionar la probidad de las plataformas digitales y examinar qué hay detrás de estos resultados en apariencia inofensivos.

¿Cuándo di permiso de que usaras mis datos?

Un elemento crucial de la confianza digital es la transparencia. Los profesionales del gobierno de datos y sistemas de información saben que cuando una plataforma digital no me deja claro o no me permite eliminar el acceso a fotos, contactos, datos, aplicaciones que uso, estoy rompiendo la integridad de la relación con la plataforma y, por ende, perdiendo esta confianza digital.  Por ejemplo, que yo descubriera que elementos de una foto familiar mía aparecen en un “diseño” generado por un algoritmo podría ser preocupante y es importante cuestionarse cómo se utilizaron estos datos y si se obtuvo el permiso para ello.

Más serio aún sería descubrir que en un astuto artículo publicado por alguien en sus redes sociales y generado por un algoritmo de AI/ML, contiene un fragmento de mi disertación doctoral sin autorización. Aquí encontraríamos la ausencia de otro pilar fundamental en la confianza digital, que es la responsabilidad de la plataforma para prevenir el uso no autorizado de información.

Sé que eres tú, no puedes esconderte.

Una consideración aún más grave sería que un algoritmo de AI/ML concluyera que no debo obtener un préstamo bancario debido a un problema de salud que, según lo aprendido por el modelo, podría limitar mi expectativa de vida. Esto cruzaría la línea de la privacidad y la confianza digital. Según el estudio de ISACA “State of Digital Trust 2022”, un 61% de los encuestados europeos piensan que medir las prácticas empresariales de confianza digital es importante, pero sólo 19% piensan que esto se lleva a cabo ¿cómo podemos controlar algo que no podemos medir?

¿Quién se llevó mi propiedad intelectual?

Por último, reflexionemos qué es lo que sucede cuando una imagen generada por un algoritmo de AI/ML es vendido como NFT en mucho dinero, y contiene elementos que son propiedad intelectual de alguien más ¿en qué momento el autor de una foto, dibujo, diseño, cede su propiedad intelectual para que otro lo utilice con fines de lucro?

Es evidente que este escenario rompe la integridad en las relaciones digitales, causando un perjuicio económico. Nuestras leyes de propiedad intelectual deben ser revisadas para proteger y compensar a los autores cuando se utiliza su propiedad intelectual sin permisos por parte de algoritmos.

Conclusión: no rompamos la confianza digital

Cuando las empresas e instituciones prohíben el uso de estos algoritmos de AI/ML dentro de su trabajo formal, no están ignorando el futuro. Todo lo contrario. Están reconociendo que el uso indiscriminado o irrestricto de estos algoritmos puede socavar la confianza digital. Podemos usar estos algoritmos en nuestra vida personal, pero debemos proteger la privacidad, los datos y la propiedad intelectual de los terceros que interactúan con nuestras plataformas digitales. Sigamos siendo profesionales responsables y haciendo preguntas incómodas, hasta que tengamos una respuesta satisfactoria. Mantengamos la confianza digital.

 

TE PUEDE GUSTAR

EVENTOS

RECIBE NUESTRA NEWSLETTER

*Email:

*Nombre:

*Empresa:

Cargo:

Sector:
     

Please don't insert text in the box below!

ESCUCHA NUESTRO PODCAST

SÍGUENOS EN RRSS

MÁS COMENTADOS

Scroll al inicio