Signal desenfoca las caras y en Duke las vuelven a enfocar con IA

Primero ataca Signal sacando una herramienta para desenfocar las caras, y que no puedan reconocerse. Después, en la Universidad de Duke encuentran una tecnología para volver a enfocar esas caras. 

Todavía nadie ha hablado de que la nueva tecnología desarrollado por la Universidad de Duke pueda enfocar las caras que se desenfocan con la herramienta de Signa, pero es muy probable que esto pueda suceder. 

Signal busca medidas contra el reconocimiento facial

Hace unos días Signal anunciaba que su aplicación de mensajería cifrada incluiría una nueva herramienta para desenfocar las caras en videos. Esto agregaba una capa de privacidad a las imágenes, aunque no necesariamente significa que la persona se vuelva irreconocible.

La actualización la presentó el cofundador de Signal Moxie Marlinspike vinculándola con las protestas contra el racismo y la violencia policial provocadas por el asesinato de George Floyd.

Una cosa inmediata parece clara: 2020 es un año bastante bueno para cubrirte la cara. Moxie Marlinspike

El medio digital Vox publicó un artículo en el que hablaba del aumento de descargas que estaba teniendo la aplicación en Estados Unidos durante las últimas semanas, correspondiendo con el anunció de la actualización.

La función de desenfoque es un muy fácil de utilizar. Cuando tomas una foto o un video a través de Signal y seleccionas la opción desenfocar en la barra de herramientas, la aplicación detectará automáticamente las caras que aparecen y las desenfoca. Puede que algunas de las caras no se detecten, por es, la aplicación te permite que las desenfoques manualmente.

The Signal app displaying the new blur interface in the image editor.
Imagen obtenida de Signal

Las medidas de Signal reciben el ataque de la Universidad de Duke 

La Universidad de Duke ha desarrollado un sistema de Inteligencia Artificial que permite conseguir una imagen de gran definición de un retrato difuso

Funciona buscando a través de imágenes generadas por Inteligencia Artificial en HD una que se parezca a la imagen de entrada cuando se ha comprimido al mismo tamaño. «El equipo utilizó una herramienta en el aprendizaje automático llamada «red adversaria generativa», o GAN, que son dos redes neuronales entrenadas en el mismo conjunto de datos de fotos. Una red viene con rostros humanos creados por IA que imitan los que fue entrenado, mientras que la otra toma esta salida y decide si es lo suficientemente convincente como para ser confundido con la cosa real. La primera red mejora con experiencia, hasta que la segunda red no pueda notar la diferencia.«, así explican el sistema en el Duke Today

El equipo ha afirmado que se puede obtener una imagen 60 veces más nítida que la original. 

Imagen obtenida de la web de los investigadores

TE PUEDE GUSTAR

EVENTOS

RECIBE NUESTRA NEWSLETTER

*Email:

*Nombre:

*Empresa:

Cargo:

Sector:
     

Please don't insert text in the box below!

ESCUCHA NUESTRO PODCAST

SÍGUENOS EN RRSS

MÁS COMENTADOS

Scroll al inicio
Resumen de privacidad

Las cookies y otras tecnologías similares son una parte esencial de cómo funciona nuestra web. El objetivo principal de las cookies es que tu experiencia de navegación sea más cómoda y eficiente y poder mejorar nuestros servicios y la propia web. Aquí podrás obtener toda la información sobre las cookies que utilizamos y podrás activar y/o desactivar las mismas de acuerdo con tus preferencias, salvo aquellas Cookies que son estrictamente necesarias para el funcionamiento de la web de BigDataMagazine. Ten en cuenta que el bloqueo de algunas cookies puede afectar tu experiencia en la web y el funcionamiento de la misma. Al pulsar “Guardar cambios”, se guardará la selección de cookies que has realizado. Si no has seleccionado ninguna opción, pulsar este botón equivaldrá a rechazar todas las cookies. Para más información puedes visitar nuestra Políticas de Cookies. Podrás cambiar en cualquier momento tus preferencias de cookies pinchando en el enlace “Preferencias de cookies” situado en la parte inferior de nuestra web.