La Inteligencia Artificial como moderadora de contenidos de Facebook

18 mayo, 2018
8 Compartido 1,222 Visualizaciones

Facebook utiliza la Inteligencia Artificial (IA) como moderadora de contenidos y a partir de ahora publicará de manera trimestral su Informe de Transparencia.

Facebook ha estado en el ojo público en los últimos meses debido a cuestiones de privacidad y mal manejo de la información de sus usuarios, algo que no ha sido sencillo y que ha creado una especie de desconfianza en la labor que hace Mark Zuckerberg dentro de su red social.

Zuckeberg quiere limpiar su imagen y la de Facebook, por lo que se prometió que habría cambios a corto y medio plazo. Es así como hoy la compañía publica su primer informe de transparencia, el cual se basa en la efectividad de sus nuevas pautas para eliminar contenido no apropiado y prohibido dentro de la comunidad, con el que buscan ganarse nuevamente esa confianza y de paso demostrar que sí están trabajando en eliminar ese tipo de contenido.

Esta labor se lleva a cabo usando herramientas automatizadas de inteligencia artificial.

1300 millones de cuentas falsas han sido eliminadas

El informe recoge interesantes detalles acerca de las acciones que está llevando a cabo Facebook, donde la inteligencia artificial tiene un papel muy importante. Por ejemplo, la compañía asegura que durante el primer trimestre de 2018, su herramienta moderadora basada en inteligencia artificial, detectó y eliminó la mayoría de las publicaciones donde se incluía violencia, pornografía y terrorismo.

Facebook explica que sus esfuerzos de moderación se basan en seis áreas principales: violencia gráfica, pornografía, propaganda terrorista, discursos de odio, spam y cuentas falsas. El informe detalla cuánto de ese contenido fue visto por los usuarios, cuánto fue eliminado y cuánto fue eliminado antes de que fuese reportado por algún usuario.

Las cifras nos muestran que durante el primer de este 2018, Facebook eliminó 837 millones de mensajes de spam, 21 millones de publicaciones con desnudos o actividad sexual, 3,5 millones de mensajes que mostraban contenido violento, 2,5 millones de mensajes con discursos de odio y 1,9 millones de contenido terrorista. Además, la compañía dice haber eliminando 583 millones de cuentas falsas, que sumadas a las eliminadas durante el último trimestre de 2017, estamos hablando de casi 1.300 millones de cuentas falsas deshabilitadas.

En el caso de las cuentas falsas, Facebook menciona que muchas de ellas eran bots cuya finalidad era propagar spam y efectuar actividades ilícitas. Asimismo, la compañía asegura que la mayoría de estas cuentas “fueron inhabilitadas pocos minutos después de haberse creado”. Sin embargo, Facebook aceptó que no todas las cuentas falsas son eliminadas, y estima que entre el 3 y el 4% de sus usuarios activos son falsos, pero no representan un riesgo al no efectuar actividades ilícitas.

Facebook asegura que su sistema automatizado basado en inteligencia artificial ha sido determinante en esta tarea, ya que esto les ha permitido actuar antes de que un usuario haga el reporte. Por ejemplo, la compañía dice que su sistema logró detectar casi el 100% del spam y la propaganda terrorista, casi el 99% de las cuentas falsas y cerca del 96% de la pornografía. En el caso de las publicaciones con mensajes que incitaban a la violencia, Facebook dice que su sistema detectó el 86%.

Facebook y la IA

Cuando se trata de mensajes con discurso de odio es cuando se encuentra con sus mayores problemas. Durante el primer trimestre de 2018, el sistema sólo logró detectar el 38% de los mensajes con estas características, el resto llegó por parte de reportes de los usuarios.

Facebook explica que la efectividad de su sistema de inteligencia artificial se debe a una mejora en la tecnología y procesos en la detección del contenido de las fotos, que es lo que les ha permitido ser tan eficiente en los casos del terrorismo y la pornografía. Pero cuando estamos ante mensajes, sobre todo escritos, donde hay señales de discurso de odio, es cuando el sistema no logra determinar y qué es y qué no es, esto debido a que se cae dentro del terreno de la subjetividad.

Alex Schultz, vicepresidente de analítica de Facebook, mencionó: “El discurso del odio es realmente difícil. Hay matices, hay contexto. La tecnología simplemente no está lista para realmente entender todo esto, y mucho menos si se trata de una larga, larga lista de idiomas”.

Por su parte, Mark Zuckerberg comentó: “Tenemos mucho más trabajo por hacer. La IA todavía necesita mejorar antes de que podamos usarla para eliminar efectivamente los problemas donde hay matices lingüísticos, como el discurso de odio en diferentes idiomas, pero estamos trabajando en ello. Mientras lo hacemos, esperamos compartir nuestro progreso”.

El informe de transparecia de Facebook se publicará de forma trimestral y nos servirá para conocer las acciones de la compañía en estos temas tan complejos, lo que obviamente también servirá para demostrar que están haciendo algo al respecto y así tratar de limpiar su imagen.

Te podría interesar

Los 10 retos para el futuro de la Comunicación y el Marketing
Eventos
9 compartido1,745 visualizaciones
Eventos
9 compartido1,745 visualizaciones

Los 10 retos para el futuro de la Comunicación y el Marketing

Mónica Gallego - 20 junio, 2018

Durante el Global Summit 2018 se plantearon los 10 retos que la Inteligencia Artificial y la Data Science presentan al futuro de la Comunicación y el Marketing.…

Big Data, IoT E Inteligencia Artificial para impulsar la eficiencia en Kimberly-Clark
BD Network
13 compartido1,926 visualizaciones
BD Network
13 compartido1,926 visualizaciones

Big Data, IoT E Inteligencia Artificial para impulsar la eficiencia en Kimberly-Clark

Mónica Gallego - 17 julio, 2018

Kimberly-Clark es una compañíade EEUU que ha dotado recientemente a su empresa de Big Data, IoT e IA para impulsar su eficiencia. Se obtienen beneficios económicos gracias a…

Los robots podrán reconocer objetos que nunca han visto
Inteligencia Artificial
13 compartido1,905 visualizaciones
Inteligencia Artificial
13 compartido1,905 visualizaciones

Los robots podrán reconocer objetos que nunca han visto

Mónica Gallego - 24 septiembre, 2018

La Inteligencia Artificial consigue que los robots puedan reconocer objetos que nunca han visto y desenvolverse en situaciones que nunca han vivido. La introducción de datos previos…

Dejar comentario

Su email no será publicado