La Agencia de Ciberseguridad de la UE, ENISA, ha publicado una serie de informes sobre los retos de ciberseguridad para la IA. «Si queremos proteger los sistemas de IA y garantizar la privacidad, tenemos que analizar cómo funcionan estos sistemas», advierte el informe.
En relación con el panorama de la UE en materia de IA y ciberseguridad en el ámbito de la investigación y la innovación, ENISA trazó un mapa de la situación actual de la IA y la ciberseguridad para identificar posibles deficiencias.
El análisis señala seis lagunas en la innovación de la investigación, entre ellas la falta de información y conocimientos adecuados sobre el potencial de las soluciones de IA para la ciberseguridad, la documentación adecuada de los proyectos de despliegue y las actividades de demostración.
También se planteó que una minoría de prototipos perfeccionados en el contexto de la investigación y el desarrollo (I+D) que entran en el mercado, una brecha de percepción entre la investigación y la comunidad empresarial, y una capacidad limitada de tales proyectos para resolver problemas existentes y emergentes.
«Mientras que el impacto de la IA en el panorama general de los riesgos conlleva retos y oportunidades, la seguridad de la IA y las vulnerabilidades específicas de la IA son retos tanto organizativos como de I+D», afirmó Henrik Junklewitz, del departamento de investigación de la Comisión Europea.
Según su informe sobre Inteligencia Artificial e Investigación en Ciberseguridad, ENISA planea desarrollar una hoja de ruta y establecer un observatorio para la I+D en ciberseguridad centrada en la IA.
El informe examina tres niveles de IA: la ciberseguridad básica pertinente para la IA, la ciberseguridad específica para la IA y la ciberseguridad específica para el sector de la IA para el público de las partes interesadas en la IA y las autoridades nacionales competentes (ANC).
«Hay diferentes umbrales, las start-ups están aportando buenas soluciones. El reto es cómo ponemos el umbral y cómo regulamos a los grandes actores y a los que no pertenecen a la UE», señala.
Aunque establece diferencias entre las distintas partes interesadas, el informe considera que las instituciones de la UE y sus Estados miembros deben colaborar para establecer un marco ético mundialmente aceptado que permita desarrollar medidas universales aceptables.
«La regulación llegará de un modo u otro. La palabra clave aquí es IA de confianza», indican.