IA, un arma de doble filo para la seguridad

Es la principal conclusión que se extrae del informe sobre el panorama de amenazas a la seguridad de la identidad de 2023, elaborado por Cyberark.

El continuo auge de la IA se ha convertido en un arma de doble filo, por lo que los profesionales de la ciberseguridad se están preparando para la afluencia de nuevas amenazas cibernéticas habilitadas por la Inteligencia Artificial, a pesar de que esta tecnología también se utilice para reforzar las defensas.

Según el informe del líder mundial en seguridad de identidades cerca del 33% de los equipos de ciberseguridad en España están haciendo uso de la IA para la detección y prevención de infracciones. Asimismo, la IA Generativa ya se está utilizando para identificar más rápidamente anomalías de comportamiento y mejorar la resiliencia cibernética, lo que brinda a los equipos más tiempo para mejorar sus capacidades frente a las amenazas o evolucionar las defensas para combatir ciberataques cada vez más innovadores. Y si bien el talento humano sigue siendo fundamental para luchar contra las amenazas emergentes, la IA también puede ayudar a cerrar algunas de las brechas causadas por la escasez de 3,4 millones de trabajadores de ciberseguridad.

IA Generativa (GenAI), nuevas vulnerabilidades de seguridad

Las herramientas de GenAI, cada vez más populares, están abriendo una nueva caja de pandora de vulnerabilidades de seguridad, lo que preocupa a los ciberprofesionales. La investigación de CyberArk indica que el 53% de esos profesionales en España considera que los empleados están utilizando herramientas avanzadas con IA, pero no habilitadas, para ayudarles en su trabajo diario, lo cual causa un mayor riesgo. Y que estas ciberamenazas habilitadas por IA afectaron al 99% de las organizaciones españolas en 2023. Por otro lado, la seguridad de los chatbots también es una preocupación importante. Así, para el 63% de los encuestados de nuestro país la principal preocupación es que las tecnologías generativas brindarán a los ciberatacantes los medios para explotar vulnerabilidades e inyectar malware, hacerse pasar por empleados a través de deepfakes y realizar campañas de phishing

De hecho, los ciberdelincuentes ya están utilizando GenAI para crear textos de correo electrónico que parecen reales para campañas de phishing o incluso generar malware, que elude la autenticación de reconocimiento facial o evade la detección. Estas técnicas fueron descubiertas en una investigación de CyberArk a principios de  2023, que señaló que los atacantes podrían usar ChatGPT para generar código malicioso y crear malware polimórfico, altamente evasivo para la mayoría de los productos antimalware.

Formación en ciberseguridad, una de las claves

“Los equipos de ciberseguridad tienen que ser muy cuidadosos a la hora de usar la IA. Equilibrar los indudables beneficios que aporta con los considerables riesgos que crea no es una tarea sencilla”, ha señalado David Higgins, director técnico en EMEA de CyberArk, quien afirma que el uso de la IA crea una explosión de identidades de máquinas que los ciberdelincuentes pueden explotar para obtener acceso a datos y controles confidenciales.

Además, ha añadido, es imprescindible establecer directrices específicas para la IA, publicar políticas de uso y actualizar los planes de formación en ciberseguridad de los empleados. Es necesaria la debida diligencia antes de introducir cualquier herramienta basada en IA, ya que es la forma más eficaz de mitigar el riesgo y reducir las vulnerabilidades. Sin los controles de seguridad de identidad adecuados y las defensas de malware, va a ser muy difícil contener las innovadoras amenazas a gran escala que pueden comprometer las credenciales en el camino para acceder a datos y activos confidenciales”.

TE PUEDE GUSTAR

EVENTOS

RECIBE NUESTRA NEWSLETTER

*Email:

*Nombre:

*Empresa:

Cargo:

Sector:
     

Please don't insert text in the box below!

ESCUCHA NUESTRO PODCAST

SÍGUENOS EN RRSS

MÁS COMENTADOS

Scroll al inicio