‘Machine learning’ e IA de Google combatirán el Material de Abuso Sexual Infantil en la web

12 septiembre, 2018
17 Compartido 1,953 Visualizaciones

Google lanzará un software que ayude a detectar con mayor facilidad el CSAM completamente gratuito y será compartido a varias ONG y proveedores de internet interesados. ‘Machine learning‘ e IA de Google combatirán el Material de Abuso Sexual Infantil en la web.

El Material de Abuso Sexual Infantil (CSAM) es mucho más común de lo que creemos. Seguramente se encuentra en algún lugar de la deep web, transitando entre las manos de distintos pedófilos. Ante esto, existen organizaciones dedicadas a eliminar este tipo de contenidos como Internet Watch Foundation. No obstante, el esfuerzo se hace realmente difícil por la gran cantidad de material que está allí afuera.

Teniendo todo esto en cuenta, Google anunció que lanzará un software que ayude a detectar con mayor facilidad el CSAM. Este será completamente gratuito y será compartido a varias ONG y proveedores de internet interesados en luchar contra la pornografía infantil.

¿Cómo funcionaría?

El software con esta capacidad ya existía con anterioridad pero era algo limitado. Tecnología como ‘PhotoDNA‘ de Microsoft permite dar alertas sobre fotos y videos que ya hayan sido identificados antes. No obstante, se requería que un moderador humano previamente haya catalogado un material como CSAM para que la IA lo identificara. Como resultado, todo el contenido que no ha sido marcado antes como ilegal queda por fuera de su alcance.

Google plantea una solución más efectiva. La compañía pretende usar redes neuronales para escanear en poco tiempo una gran cantidad de imágenes. Así, en su criterio podrá marcar el material con mayor prioridad de revisión. Esto le ayudará a los moderadores humanos a dar un veredicto más rápido y eliminar el contenido de manera ágil en caso de ser CSAM. En otras palabras: menos tiempo, más material que los moderadores pueden marcar y eliminar.

Esto será posible gracias a la compleja implementación de machine learning de Google. A partir de haber analizado miles de imágenes, la IA será capaz de diferenciar una de otra. Según la empresa, los moderadores aumentarán su eficiencia en un 700%.

Google aclaró que el software estará disponible a través de su kit de programación de seguridad de contenido: ”Estamos poniendo esto a disposición de las ONG y los socios de la industria de forma gratuita a través de nuestra API de seguridad de contenido, un conjunto de herramientas para aumentar la capacidad de revisar el contenido de una manera que requiere que menos personas estén expuestas a él“.

Te podría interesar

Inteligencia Artificial para el fin de las contraseñas compartidas en Netflix
Inteligencia Artificial
17 compartido1,836 visualizaciones
Inteligencia Artificial
17 compartido1,836 visualizaciones

Inteligencia Artificial para el fin de las contraseñas compartidas en Netflix

Mónica Gallego - 16 enero, 2019

El mayor proveedor mundial de soluciones de vídeo, Synamedia, ha presentado un nuevo software de Inteligencia Artificial (IA) que podría poner fin a las contraseñas compartidas en…

Será posible la empatía entre el hombre y la máquina
AI
11 compartido1,927 visualizaciones
AI
11 compartido1,927 visualizaciones

Será posible la empatía entre el hombre y la máquina

Mónica Gallego - 13 junio, 2018

El pasado jueves dio lugar el Artificial Intelligence & Analytics Economy Summit en el Santiago Bernabéu, organizado por SAS. Christian Gardiner, Director General de SAS cuenta que…

Ciber Experis nombrado ‘Partner of the Year 2018’ por la compañía Syncsort
Actualidad
23 compartido2,421 visualizaciones
Actualidad
23 compartido2,421 visualizaciones

Ciber Experis nombrado ‘Partner of the Year 2018’ por la compañía Syncsort

José Luis - 23 abril, 2019

Ciber Experis ha sido reconocido ‘Partner of the Year 2018’ por la compañía de software global Syncsort- especializada en Big Data-. El reconocimiento tuvo lugar el pasado…

Dejar comentario

Su email no será publicado