Un informe europeo revela que los principales problemas de ciberseguridad están relacionados con la IA

La Agencia de Ciberseguridad de la UE, ENISA, ha publicado una serie de informes sobre los retos de ciberseguridad para la IA. «Si queremos proteger los sistemas de IA y garantizar la privacidad, tenemos que analizar cómo funcionan estos sistemas», advierte el informe.

En relación con el panorama de la UE en materia de IA y ciberseguridad en el ámbito de la investigación y la innovación, ENISA trazó un mapa de la situación actual de la IA y la ciberseguridad para identificar posibles deficiencias.

El análisis señala seis lagunas en la innovación de la investigación, entre ellas la falta de información y conocimientos adecuados sobre el potencial de las soluciones de IA para la ciberseguridad, la documentación adecuada de los proyectos de despliegue y las actividades de demostración.

También se planteó que una minoría de prototipos perfeccionados en el contexto de la investigación y el desarrollo (I+D) que entran en el mercado, una brecha de percepción entre la investigación y la comunidad empresarial, y una capacidad limitada de tales proyectos para resolver problemas existentes y emergentes.

«Mientras que el impacto de la IA en el panorama general de los riesgos conlleva retos y oportunidades, la seguridad de la IA y las vulnerabilidades específicas de la IA son retos tanto organizativos como de I+D», afirmó Henrik Junklewitz, del departamento de investigación de la Comisión Europea.

Según su informe sobre Inteligencia Artificial e Investigación en Ciberseguridad, ENISA planea desarrollar una hoja de ruta y establecer un observatorio para la I+D en ciberseguridad centrada en la IA.

El informe examina tres niveles de IA: la ciberseguridad básica pertinente para la IA, la ciberseguridad específica para la IA y la ciberseguridad específica para el sector de la IA para el público de las partes interesadas en la IA y las autoridades nacionales competentes (ANC).

«Hay diferentes umbrales, las start-ups están aportando buenas soluciones. El reto es cómo ponemos el umbral y cómo regulamos a los grandes actores y a los que no pertenecen a la UE», señala.

Aunque establece diferencias entre las distintas partes interesadas, el informe considera que las instituciones de la UE y sus Estados miembros deben colaborar para establecer un marco ético mundialmente aceptado que permita desarrollar medidas universales aceptables.

«La regulación llegará de un modo u otro. La palabra clave aquí es IA de confianza», indican.

TE PUEDE GUSTAR

A partir de esta semana, Meta AI comenzará a implementarse en 41 países europeos, incluidos tanto la Unión Europea, como otros 21 territorios europeos,

EVENTOS

RECIBE NUESTRA NEWSLETTER

*Email:

*Nombre:

*Empresa:

Cargo:

Sector:
     

Please don't insert text in the box below!

ESCUCHA NUESTRO PODCAST

SÍGUENOS EN RRSS

MÁS COMENTADOS

Scroll al inicio
Resumen de privacidad

Las cookies y otras tecnologías similares son una parte esencial de cómo funciona nuestra web. El objetivo principal de las cookies es que tu experiencia de navegación sea más cómoda y eficiente y poder mejorar nuestros servicios y la propia web. Aquí podrás obtener toda la información sobre las cookies que utilizamos y podrás activar y/o desactivar las mismas de acuerdo con tus preferencias, salvo aquellas Cookies que son estrictamente necesarias para el funcionamiento de la web de BigDataMagazine. Ten en cuenta que el bloqueo de algunas cookies puede afectar tu experiencia en la web y el funcionamiento de la misma. Al pulsar “Guardar cambios”, se guardará la selección de cookies que has realizado. Si no has seleccionado ninguna opción, pulsar este botón equivaldrá a rechazar todas las cookies. Para más información puedes visitar nuestra Políticas de Cookies. Podrás cambiar en cualquier momento tus preferencias de cookies pinchando en el enlace “Preferencias de cookies” situado en la parte inferior de nuestra web.