Las herramientas que detectan texto generado por modelos de inteligencia artificial (IA), como ChatGPT, pueden arrojar resultados engañosos al analizar la Constitución de Estados Unidos de 1787.
Aunque dicha tecnología no existía en la época de su redacción, algunas de estas herramientas clasifican erróneamente el texto como producido por IA. Pero, ¿cuál es la causa de estos falsos positivos?
El creador de GPTZero, Edward Tian, explica que la Constitución de Estados Unidos ha sido incluida repetidamente en los datos de entrenamiento de muchos modelos lingüísticos de IA. Como resultado, estos modelos están condicionados para generar textos similares a la Constitución y otros documentos frecuentemente utilizados en el entrenamiento. Cuando se introduce parte de la Constitución en GPTZero, la IA predice que el texto probablemente fue creado por uno de estos modelos lingüísticos, lo que da lugar a este curioso error.
Los medios de comunicación suelen recibir con agrado el avance tecnológico, pero es importante recordar el valor del trabajo humano. Google ha presentado recientemente una inteligencia artificial generativa destinada a ayudar a los periodistas a crear titulares y noticias.
Sin embargo, un estudio de investigadores de la Universidad de Maryland ha demostrado que los detectores de texto no son confiables en escenarios prácticos. Además, otro estudio de investigadores de la Universidad de Stanford ha revelado que estos detectores tienden a mostrar un sesgo en contra de los hablantes no nativos de inglés, con altas tasas de falsos positivos al atribuir textos escritos por humanos a la IA, lo que podría tener consecuencias negativas en el discurso global.
En resumen, aunque los detectores de texto generados por IA pueden hacer suposiciones sólidas, el margen de error es demasiado amplio como para confiar plenamente en ellos y obtener resultados precisos. Es necesario seguir perfeccionando estas herramientas para garantizar su confiabilidad en el futuro.