Los algoritmos pueden prevenir el ciberacoso

Una empresa noruega desarrolla un dispositivo que permite detectar conversaciones en Internet de alto riesgo y prevenir los problemas.

Millones de niños se conectan cada día a salas de chat para hablar con otros niños. Uno de esos «niños» podría ser un hombre que se hace pasar por una niña de 12 años con intenciones mucho más siniestras. Sin embargo, los algoritmos podrían ayudar a prevenir este tipo de acosos. El inventor y profesor de la NTNU Patrick Bours, de AiBA, está trabajando para evitar precisamente este tipo de comportamiento depredador. AiBA, un moderador digital de IA que Bours ayudó a fundar, puede ofrecer una herramienta basada en la biometría del comportamiento y en algoritmos que detectan a los abusadores sexuales en los chats en línea con niños.

Y ahora, como informó recientemente Dagens Næringsliv, la empresa ha obtenido un capital de 7,5 millones de coronas noruegas, con inversores como Firda y Wiski Capital, dos empresas con sede en Noruega.

En sus más recientes esfuerzos, la empresa está trabajando con 50 millones de líneas de chat para desarrollar una herramienta que encuentre las conversaciones de alto riesgo en las que los abusadores intentan entrar en contacto con los niños. El objetivo es identificar rasgos distintivos en lo que los abusadores dejan en las plataformas de juego y en las redes sociales.

«Nos dirigimos a los principales productores de juegos y esperamos tener unos cientos de juegos en la plataforma», dijo Hege Tokerud, cofundador y director general, a Dagens Næringsliv.

El ciberacoso es un problema creciente

El ciberacoso se produce cuando los adultos se hacen amigos de los niños en Internet, a menudo utilizando un perfil falso. Sin embargo, «algunos depredadores sexuales se limitan a preguntar si el niño está interesado en chatear con una persona mayor, por lo que no es necesaria una identidad falsa», explica Bours.

El propósito del agresor suele ser atraer a los niños a un canal privado para que éstos puedan enviar fotos de sí mismos, con y sin ropa, y tal vez llegar a concertar un encuentro con el joven. A los agresores no les importa tanto enviar fotos de sí mismos, dice Bours. «El exhibicionismo es sólo una pequeña parte de su motivación», dijo. «Conseguir fotos es mucho más interesante para ellos, y no sólo fotos fijas, sino fotos en directo a través de una webcam».

«Supervisar todas estas conversaciones para evitar que se produzcan abusos es imposible para los moderadores que controlan el sistema manualmente. Lo que se necesita es una automatización que notifique a los moderadores las conversaciones en curso», dice Bours.

AiBA ha desarrollado un sistema con varios algoritmos que ofrece a las grandes empresas de chat una herramienta que permite discernir si son adultos o niños los que chatean. Aquí es donde entra la biometría del comportamiento.

Un hombre adulto puede hacerse pasar por un niño de 14 años en Internet. Pero la forma en que escribe, como su ritmo de tecleo o su elección de palabras, puede revelar que es un hombre adulto.

La clave del aprendizaje automático

La herramienta AiBA utiliza métodos de aprendizaje automático para analizar todos los chats y evaluar el riesgo en función de determinados criterios. El nivel de riesgo puede subir y bajar un poco durante la conversación a medida que el sistema evalúa cada mensaje. El símbolo de advertencia rojo ilumina el chat si el nivel de riesgo es demasiado alto, lo que notifica al moderador, que puede examinar la conversación y evaluarla más a fondo.

De este modo, los algoritmos pueden detectar las conversaciones que deben ser revisadas mientras están en curso, en lugar de hacerlo después, cuando el daño o el abuso pueden haberse producido ya. Los algoritmos sirven así de señal de alarma.

TE PUEDE GUSTAR

EVENTOS

RECIBE LA NEWSLETTER

*Email:

*Nombre:

*Empresa:

Cargo:

Sector:
     

Please don't insert text in the box below!

ESCUCHA NUESTRO PODCAST

SÍGUENOS EN RRSS

MÁS COMENTADOS

Scroll al inicio