GPT-2

La escritura comenzó en a finales del IV milenio a. C, y eso ya fue todo un acontemiento. Ahora lo es, que un programa solo sea capaz de escribir sobre un tema que nosotros le propongamos.

El periodismo, marketing o páginas webs aprobechan estos sistemas para automatizar el trabajo.

¿Qué es el GPT-2?

En el ebook gratuito «50 conceptos de Machine Learning» publicado por Paradigma explican estos sistemas: «GPT-2 es un modelo generativo de lenguaje creado por OpenAI. Esto significa que genera texto al predecir palabra por palabra, qué palabra sigue en una secuencia en función de lo que el modelo ha aprendido previamente.»

¿Cómo se entrena?

«GPT-2 fue entrenado con 40 GB de texto extraido de Internet. En su versión
más completa define más de 1.500 millones de parámetros. Esto lo hace
realmente disruptivo comparado con aproximaciones anteriores.»

Polémicas

«Tras su lanzamiento, GPT-2 generó mucha publicidad y atención en gran
parte debido a los ejemplos que lo acompañaron, el más famoso un boletín
de noticias que documenta el descubrimiento de unicornios de habla
inglesa en los Andes. También ha sido utilizado en otras aplicaciones como
en el juego AI Dungeon«

TE PUEDE GUSTAR

Bain & Company ha adquirido PiperLab, compañía española especializada en soluciones de Inteligencia Artificial y Machine Learning (ML), con el objetivo de ampliar su oferta

EVENTOS

RECIBE NUESTRA NEWSLETTER

*Email:

*Nombre:

*Empresa:

Cargo:

Sector:
     

Please don't insert text in the box below!

ESCUCHA NUESTRO PODCAST

SÍGUENOS EN RRSS

MÁS COMENTADOS

Scroll al inicio