Un informe europeo revela que los principales problemas de ciberseguridad están relacionados con la IA

La Agencia de Ciberseguridad de la UE, ENISA, ha publicado una serie de informes sobre los retos de ciberseguridad para la IA. «Si queremos proteger los sistemas de IA y garantizar la privacidad, tenemos que analizar cómo funcionan estos sistemas», advierte el informe.

En relación con el panorama de la UE en materia de IA y ciberseguridad en el ámbito de la investigación y la innovación, ENISA trazó un mapa de la situación actual de la IA y la ciberseguridad para identificar posibles deficiencias.

El análisis señala seis lagunas en la innovación de la investigación, entre ellas la falta de información y conocimientos adecuados sobre el potencial de las soluciones de IA para la ciberseguridad, la documentación adecuada de los proyectos de despliegue y las actividades de demostración.

También se planteó que una minoría de prototipos perfeccionados en el contexto de la investigación y el desarrollo (I+D) que entran en el mercado, una brecha de percepción entre la investigación y la comunidad empresarial, y una capacidad limitada de tales proyectos para resolver problemas existentes y emergentes.

«Mientras que el impacto de la IA en el panorama general de los riesgos conlleva retos y oportunidades, la seguridad de la IA y las vulnerabilidades específicas de la IA son retos tanto organizativos como de I+D», afirmó Henrik Junklewitz, del departamento de investigación de la Comisión Europea.

Según su informe sobre Inteligencia Artificial e Investigación en Ciberseguridad, ENISA planea desarrollar una hoja de ruta y establecer un observatorio para la I+D en ciberseguridad centrada en la IA.

El informe examina tres niveles de IA: la ciberseguridad básica pertinente para la IA, la ciberseguridad específica para la IA y la ciberseguridad específica para el sector de la IA para el público de las partes interesadas en la IA y las autoridades nacionales competentes (ANC).

«Hay diferentes umbrales, las start-ups están aportando buenas soluciones. El reto es cómo ponemos el umbral y cómo regulamos a los grandes actores y a los que no pertenecen a la UE», señala.

Aunque establece diferencias entre las distintas partes interesadas, el informe considera que las instituciones de la UE y sus Estados miembros deben colaborar para establecer un marco ético mundialmente aceptado que permita desarrollar medidas universales aceptables.

«La regulación llegará de un modo u otro. La palabra clave aquí es IA de confianza», indican.

TE PUEDE GUSTAR

EVENTOS

RECIBE NUESTRA NEWSLETTER

*Email:

*Nombre:

*Empresa:

Cargo:

Sector:
     

Please don't insert text in the box below!

ESCUCHA NUESTRO PODCAST

SÍGUENOS EN RRSS

MÁS COMENTADOS

Scroll al inicio