Desarrollar un modelo de IA puede contaminar más que un avión

A pesar de que la pandemia ha provocado un descenso en los niveles de contaminación en gran parte de las industrias. Sin embargo, los sistemas de Inteligencia Artificial se han analizado y los resultados han sido negativos, durante el COVID-19 han generado más toneladas de dióxido de carbono.

Durante los últimos meses se han desarrollo gran cantidad de sistemas de Inteligencia Artificial para facilitar el control de la gente y evitar los contagios por coronaivrus, el problema es que estos sistemas generan grandes cantidades de dioxido de carbono.

Estudio de la Universidad de Massachusetts

La Universidad de Massachusetts ha sido la unica en analizar a fondo qué cantidad de dioxido de carbono se producen al desarrollar un sistemas de Inteligencia Artificial.

Para conocer cuánto contaminaba el proceso de desarrollo de un sistema NLP, calcularon los kilowatios por hora necesarios para el proceso de adiestramiento. Los resultados del calculo se pueden traducir en una factura de la luz y, así se obtienen las emisoines de CO2 asociadas. 

El estudio de ha centrado sobre todo en conocer cuánto contamina un sistema NLP, pero a parte de todos esto datos hay que sumar lo que luego consume el modelo a lo largo de su vida cuando está en funcionamiento.

¿Qué cantidad de datos se suelen manejar para entrenar un sistema de IA?

Los modelos más conocidos de NLP son: GPT-2, Bert y XLNet. Vamos ha conocer qué cantidad de datos se han utilizado en cada uno de ellos para entrenarlos:

  • Para desarrollar el GPT-2 se ha entrenado con 8 millones de páginas web. Ya se ha desarrollado la nueva versión, el GPT-3, que posee el doble de información para su entrenamiento.
  • En el caso de Bert, esta red neuronal de código abierto se ha entrenado con 3.300 millones de palabras.
Tabla presente en el estudio de la Universidad de Massachusetts que muestra el coste estimado de entrenar un modelo de IA en términos de emisiones de CO2 (libras) y de computación en la nube (dólares). Los científicos omiten la huella de energía y carbono para los TPU (unidades de procesamiento tensorial, por sus siglas en inglés) "debido a la falta de información pública sobre el consumo de energía para este hardware".
Resultados de la investigación de la Universidad de Massachusetts

TE PUEDE GUSTAR

EVENTOS

RECIBE NUESTRA NEWSLETTER

*Email:

*Nombre:

*Empresa:

Cargo:

Sector:
     

Please don't insert text in the box below!

ESCUCHA NUESTRO PODCAST

SÍGUENOS EN RRSS

MÁS COMENTADOS

Scroll al inicio
Resumen de privacidad

Las cookies y otras tecnologías similares son una parte esencial de cómo funciona nuestra web. El objetivo principal de las cookies es que tu experiencia de navegación sea más cómoda y eficiente y poder mejorar nuestros servicios y la propia web. Aquí podrás obtener toda la información sobre las cookies que utilizamos y podrás activar y/o desactivar las mismas de acuerdo con tus preferencias, salvo aquellas Cookies que son estrictamente necesarias para el funcionamiento de la web de BigDataMagazine. Ten en cuenta que el bloqueo de algunas cookies puede afectar tu experiencia en la web y el funcionamiento de la misma. Al pulsar “Guardar cambios”, se guardará la selección de cookies que has realizado. Si no has seleccionado ninguna opción, pulsar este botón equivaldrá a rechazar todas las cookies. Para más información puedes visitar nuestra Políticas de Cookies. Podrás cambiar en cualquier momento tus preferencias de cookies pinchando en el enlace “Preferencias de cookies” situado en la parte inferior de nuestra web.