Alvaro Ansaldo, Country Manager de Infobip Iberia
El amor puede no tener precio, pero está costando millones. Solo en la primera mitad de 2024, los estafadores robaron más de 6,8 millones de libras a clientes bancarios a través de estafas amorosas. Esto representa un alarmante aumento del 27% respecto al mismo periodo del año anterior. Y, como era de esperar, la inteligencia artificial (IA) está impulsando este crecimiento, proporcionando a los estafadores herramientas para engañar a más víctimas con mayor sofisticación.
Un estudio de Opinium para Santander en julio reveló que casi un tercio (29%) de los encuestados estaría dispuesto a ofrecer ayuda financiera a su pareja o alguien con quien está iniciando una relación desde hace menos de seis meses. Sin embargo, casi dos tercios (65%) creen que esto nunca les ocurriría. Las cifras demuestran lo contrario
La amenaza del catfishing
Los estafadores emplean herramientas de procesamiento de lenguaje natural (NLP), la tecnología detrás de modelos avanzados de IA como ChatGPT, para crear identidades falsas que interactúan en tiempo real. Conocida como catfishing, Esta táctica, conocida como catfishing, consiste en fabricar identidades ficticias para engañar a las víctimas, ganarse su confianza y, finalmente, estafarlas.
La IA ha llevado este fraude a otro nivel. Los chatbots generados por IA pueden imitar tonos, estilos y emociones de manera sorprendentemente realista, sin que el estafador tenga que estar presente. Si sumamos la tecnología deepfake, que puede generar imágenes y videos ultra realistas, el engaño se vuelve aún más convincente.
Pero estas amenazas no se limitan a las estafas amorosas. La IA también se usa para suplantar identidades en el entorno corporativo: los ciberdelincuentes pueden hacerse pasar por directores para engañar a empleados y conseguir transferencias de dinero o acceso a información confidencial. Incluso pueden imitar a agentes de servicio al cliente para obtener datos personales de los usuarios y dañar la reputación de las empresas.
RCS: una solución contra el fraude
Una de las tecnologías emergentes más prometedoras para frenar estas amenazas es el Rich Communication Services (RCS).
Diseñado originalmente como sucesor del SMS, RCS ahora ofrece una experiencia de mensajería enriquecida a más de mil millones de usuarios en todo el mundo. Y con la adopción de RCS por parte de Apple en iOS 18 en septiembre de 2024, esta tecnología se ha abierto a 2.500 millones de usuarios adicionales.
RCS no busca reemplazar aplicaciones como WhatsApp o iMessage, sino modernizar los mensajes de texto tradicionales. Permite la incorporación de imágenes, videos y elementos interactivos, todo vinculado directamente al número de teléfono del usuario. Aunque no usa cifrado de extremo a extremo como otras apps, emplea encriptación TLS, lo que dificulta la intercepción de los mensajes. Además, al ser implementado por las operadoras se encuentra totalmente sujeto a regulaciones mucho más estrictas dificultando su manipulación con malas intenciones.
Uno de los elementos más efectivos de RCS en la prevención del fraude son los perfiles de remitente verificados que se integran en el protocolo RCS Business Messaging. Las empresas deben pasar un proceso de verificación para utilizar estos perfiles, que incluyen logotipos, marcas de verificación y enlaces directos. Esto ayuda a los usuarios a reconocer mensajes genuinos y procedentes de fuentes confiables y a diferenciar de manera más clara las comunicaciones fraudulentas.
Aunque RCS aún no permita la verificación personal, si está vinculado a un número de teléfono evitando que los estafadores puedan suplantar identidades. A esto se suma su capacidad de enviar contenido multimedia de alta calidad que es difícil de replicar incluso con tecnología avanzada de IA. Finalmente, incorpora autenticación de dos factores, lo que supone una capa más de seguridad.
Lo que viene
Sin duda, RCS representa un avance significativo en la lucha contra el fraude digital, pero no es una solución infalible. Las técnicas de fraude siguen evolucionando al mismo paso que la IA. De hecho, un informe reciente de PwC predice que los intentos de fraude impulsados por IA aumentarán tanto en volumen como en sofisticación obligando a las organizaciones a adoptar nuevas estrategias de detección.
La misma PwC recomienda combatir el fuego con fuego: utilizar modelos de IA propios o de terceros para detectar patrones de comunicación sospechosos como, por ejemplo, filtros de spam que alerten a los equipos de seguridad sobre posibles intentos de ingeniería social. Los chatbots basados en IA juegan un papel clave gracias a ofrecer atención al cliente 24/7 que les permite detectar transacciones poco usuales.
Apliquemos igualmente el sentido común además de la más avanzada tecnología y hagamos caso de los consejos de los bancos. Eliminar el sentimiento cuando pensemos en decisiones financieras, desconfiar de fotos que nos hagan sospechar y estar alerta ante cualquier individuo que solo quiera interactuar online y se niegue a hacer videollamadas o quedar presencialmente.