La Inteligencia Artificial contra el ‘revenge porn’ en las RRSS

Una de las tendencias más preocupantes y que está proliferando con mayor rapidez en la arena online es el conocido como ‘revenge porn’. Se trata de contenidos audiovisuales en los que se muestran actividades sexuales o desnudos de una expareja, compartidos por el otro miembro de la relación una vez ésta ha acabado.

Una lacra que afecta no solo a la privacidad de la persona afectada, sino también a su dignidad misma, y que contraviene las políticas de uso básicas de cualquier red social. Y, sin embargo, estos vídeos se propagan a la velocidad de la luz en plataformas como Twitter, Facebook o Instagram.

Para luchar contra este problema, estas dos últimas redes sociales han decidido apostar por la inteligencia artificial como forma de detectar mejor los contenidos susceptibles de ser porno vengativo y eliminarlos más rápidamente. «Al utilizar el aprendizaje automático y la IA, ahora podemos detectar de manera proactiva imágenes o vídeos casi desnudos que se comparten sin permiso en Facebook e Instagram«, explica Antigone Davis, jefe de seguridad global de Facebook, en un comunicado.

«A menudo, las víctimas temen las represalias, por lo que son reacias a reportar el contenido por sí mismas o no saben que el contenido ha sido compartido«, continúa la nota de Facebook.

El sistema de detección automatizado identificará las imágenes o vídeos susceptibles de contener elementos íntimos sin consentimiento, para posteriormente ser revisados por un profesional «especialmente capacitado» del departamento de operaciones comunitarias de Facebook. Será este humano, y no la máquina, el que decida si el contenido infringe las normas de uso de la red social y procederá, en su caso, a eliminarlo.

Igualmente, la plataforma de Mark Zuckeberg se reserva la posibilidad de inhabilitar las cuentas que comparten este ‘porn revenge’ (con su correspondiente período de apelación por si se hubiera cometido algún error). Además, cada imagen o vídeo inapropiado -detectado por el sistema o reportado manualmente por los usuarios- será convertido en una «huella digital» que impedirá que ese mismo contenido vuelva a ser compartido por otros usuarios.

«Después de recibir comentarios positivos de las víctimas y las organizaciones de apoyo, ampliaremos este programa piloto en los próximos meses para que más personas puedan beneficiarse de esta opción en una emergencia«, culmina Davis. «También haremos que sea más fácil y más intuitivo para las víctimas informar cuando sus imágenes íntimas se compartan en Facebook. Y en los próximos meses, crearemos un conjunto de herramientas de apoyo a las víctimas para brindarles a las personas de todo el mundo más información con un apoyo relevante a nivel local y cultural«.

TE PUEDE GUSTAR

EVENTOS

RECIBE NUESTRA NEWSLETTER

*Email:

*Nombre:

*Empresa:

Cargo:

Sector:
     

Please don't insert text in the box below!

ESCUCHA NUESTRO PODCAST

SÍGUENOS EN RRSS

MÁS COMENTADOS

Scroll al inicio
Resumen de privacidad

Las cookies y otras tecnologías similares son una parte esencial de cómo funciona nuestra web. El objetivo principal de las cookies es que tu experiencia de navegación sea más cómoda y eficiente y poder mejorar nuestros servicios y la propia web. Aquí podrás obtener toda la información sobre las cookies que utilizamos y podrás activar y/o desactivar las mismas de acuerdo con tus preferencias, salvo aquellas Cookies que son estrictamente necesarias para el funcionamiento de la web de BigDataMagazine. Ten en cuenta que el bloqueo de algunas cookies puede afectar tu experiencia en la web y el funcionamiento de la misma. Al pulsar “Guardar cambios”, se guardará la selección de cookies que has realizado. Si no has seleccionado ninguna opción, pulsar este botón equivaldrá a rechazar todas las cookies. Para más información puedes visitar nuestra Políticas de Cookies. Podrás cambiar en cualquier momento tus preferencias de cookies pinchando en el enlace “Preferencias de cookies” situado en la parte inferior de nuestra web.