A medida que la inteligencia artificial se integra en las operaciones empresariales, redefine la forma en que evolucionan las ciberamenazas. Check Point® Software Technologies Ltd., empresa global en soluciones de ciberseguridad, advierte que las mismas tecnologías que ayudan a las empresas a mejorar su eficiencia y automatizar la toma de decisiones ahora están utilizándose como armas de la ciberdelincuencia.
En el centro de esta transformación se encuentra la capacidad de la IA para suplantar y manipular identidades digitales de manera convincente, diluyendo la frontera entre lo auténtico y lo falso. El AI Security Report de Check Point Research identifica cinco áreas clave donde esta erosión de la confianza es más evidente:
- Uso de IA y riesgo de fuga de datos: un análisis de los datos recopilados por GenAI Protect de Check Point Software revela que 1 de cada 80 prompts de GenAI presenta un alto riesgo de filtración de datos sensibles. Además, los datos muestran que el 7,5% de los prompts —aproximadamente 1 de cada 13— contienen información potencialmente sensible, lo que plantea desafíos críticos en materia de seguridad, cumplimiento e integridad de datos.
- Suplantación y técnicas de ingeniería social mejoradas por IA: los actores de amenazas utilizan la IA para generar correos electrónicos de phishing realistas en tiempo real, audios de suplantación y videos deepfake.
- Envenenamiento de datos en modelos LLM y desinformación: los ciberdelincuentes manipulan los datos de entrenamiento de la IA para alterar sus resultados. Un caso relacionado con la red de desinformación rusa Pravda demostró que los chatbots de IA replicaban narrativas falsas en el 33% de los casos, destacando la necesidad de garantizar una integridad robusta de los datos en los sistemas de IA.
- Creación de malware y data mining impulsadas por IA: los actores maliciosos emplean la IA para crear y optimizar malware, automatizar campañas de DDoS y procesar credenciales robadas. Servicios como Gabbers Shop utilizan IA para validar y limpiar datos robados, aumentando su valor de reventa y mejorando la eficiencia en la selección de objetivos.
- Armamento y secuestro de modelos de IA: desde el robo de cuentas de LLM hasta la creación de Dark LLMs personalizados como FraudGPT y WormGPT, los atacantes están eludiendo los mecanismos de seguridad y comercializando la IA como herramienta para el hacking y el fraude en la dark web.
“El uso de la IA en la ciberdelincuencia ya no es teórico, sino que está evolucionando de forma paralela a su adopción y, en muchos casos, avanza más rápido que los controles de seguridad tradicionales. La IA se utiliza contra los sistemas, plataformas e identidades en los que confían”, destaca Mario García, director general de Check Point Software para España y Portugal. “Los equipos de seguridad deben empezar a incorporar en su estrategia la detección asistida por IA, sistemas de inteligencia de amenazas que puedan identificar dispositivos generados por IA y protocolos actualizados de verificación de identidad que tengan en cuenta el engaño por voz, vídeo y texto”.