Nuevas incorporaciones al Instituto Privado de Investigación Colaborativa de IA

Avast y Borsetta se unen a Intel en el lanzamiento del Private AI Collaborative Research Institute.

Nuevas empresas del sector han anunciado que se unirán a Intel para lanzar el Instituto Privado de Investigación Colaborativa de Inteligencia Artificial (Private AI Collaborative Research Institute). El propósito de esta nueva colaboración será avanzar y desarrollar tecnologías que fortalezcan la privacidad y la confianza para la IA descentralizada.

El Instituto Privado de IA (Private AI Institute) fue creado originalmente por la Oficina de Investigación y Colaboración Universitaria (URC) de Intel, que luego amplió el potencial de colaboración del Instituto invitando a Avast y Borsetta a unir sus fuerzas. Juntos, todas las partes realizaron una convocatoria de propuestas de investigación a principios de este año y seleccionaron los primeros nueve proyectos de investigación que contarán con el apoyo del Instituto Privado de Investigación Colaborativa de IA en ocho universidades:

  • Technical University of Darmstadt, Alemania
  • Université Catholique de Louvain, Bélgica
  • Carnegie Mellon University, U.S.A.
  • University of California, San Diego, U.S.A.
  • University of Southern California, U.S.A.
  • University of Toronto, Canadá
  • University of Waterloo, Canadá
  • National University of Singapore, Singapur

El Instituto Privado de Investigación Colaborativa de IA fomentará y apoyará la investigación científica que dará lugar a la resolución de los desafíos del mundo real para la sociedad, y adoptará un enfoque ético para el desarrollo de la Inteligencia Artificial. Al descentralizar la IA y trasladar sus análisis al extremo de la red, las empresas tienen como objetivo liberar los silos de datos, proteger la privacidad y la seguridad, y a su vez mantener la eficiencia.

Este Instituto tendrá como objetivo superar una serie de desafíos a los que se enfrentan las industrias y las sociedades en la actualidad. Esto incluye, pero no se limita, a:

  • Los datos de formación están descentralizados en silos aislados y a menudo son inaccesibles para la formación centralizada.
  • Las soluciones actuales que requieren un único centro de datos de confianza son frágiles, la formación centralizada puede ser fácilmente atacada modificando datos en cualquier lugar entre la recopilación y la nube. No existe un marco para la formación segura descentralizada entre los participantes que pueden no ser de confianza.
  • Los modelos centralizados se vuelven obsoletos rápidamente a medida que los datos en el extremo cambian con frecuencia. Hoy en día los sistemas de muestreo poco frecuentes, la formación y el despliegue pueden dar lugar a modelos obsoletos; no es posible el perfeccionamiento continuo y diferencial.
  • Los recursos informáticos centralizados son costosos y limitados por la comunicación y la latencia.
  • El aprendizaje automático federado, una técnica utilizada para entrenar un algoritmo en múltiples dispositivos perimetrales descentralizados, es limitada. Aunque la IA federada de hoy en día puede acceder a los datos en el extremo, no puede garantizar simultáneamente la precisión, la privacidad y la seguridad.

Michal Pechoucek, director de Tecnología de Avast, añadió: “Con nuestro cualificado equipo de investigación de Inteligencia Artificial, y Avast AI and Cybersecurity Laboratory (AAICL) ubicado en el campus de la Universidad Técnica Checa (CTU), ya estamos siendo testigos de los grandes resultados de nuestra investigación científica sobre la intersección de la IA, el Machine Learning y la ciberseguridad. La colaboración industrial y académica es clave para abordar los grandes problemas de nuestro tiempo, incluida la IA ética y responsable. A medida que la IA sigue creciendo en fuerza y alcance, hemos llegado a un punto en el que la acción es necesaria, no sólo hablarlo. Estamos encantados de unir fuerzas con Intel y Borsetta para desbloquear todo el potencial de la IA para mantener a las personas y sus datos seguros”.

Borsetta se ha unido al Instituto Privado de Investigación Colaborativa de IA debido a su firme creencia de impulsar un marco de preservación de la privacidad para servir de apoyo a nuestro futuro mundo hiperconectado potenciado por la IA. Pamela Norton, CEO de Borsetta, declaró: “La misión del Private AI Collaborative Institute está alineada con nuestra visión de seguridad a prueba de futuro donde los datos están protegidos de forma fiable con servicios de computación perimetral en los que se puede confiar. La confianza será la moneda del futuro, y necesitamos diseñar sistemas perimetrales integrados en IA con confianza, transparencia y seguridad, al tiempo que avanzamos en los valores impulsados por el ser humano que pretenden reflejar”.

Richard Uhlig, investigador senior de Intel, vicepresidente y director de Intel Labs, dijo: «La IA seguirá teniendo un impacto transformador en muchas industrias, y está a punto de convertirse en una fuerza que cambiará la vida en las industrias de la salud, la automoción, la ciberseguridad, las finanzas y la tecnología. Dicho esto, la investigación de la IA responsable, segura y privada es crucial para que se explote su verdadero potencial. El Private AI Collaborative Research Institute estará comprometido con el avance de las tecnologías utilizando principios éticos que ponen a las personas en primer lugar y las mantienen seguras y protegidas. Invitamos a Avast y Borsetta a unirse a nosotros en nuestra misión de identificar el verdadero impacto de la IA en el mundo que nos rodea. Estamos emocionados de tenerlos a bordo para mitigar posibles desventajas y peligros de la IA».

TE PUEDE GUSTAR

EVENTOS

RECIBE NUESTRA NEWSLETTER

*Email:

*Nombre:

*Empresa:

Cargo:

Sector:
     

Please don't insert text in the box below!

ESCUCHA NUESTRO PODCAST

SÍGUENOS EN RRSS

MÁS COMENTADOS

Scroll al inicio