ChatGPT genera datos falsos para respaldar hipótesis científicas

Investigadores italianos descubren que ChatGPT tiene la capacidad de generar datos falsos para respaldar una hipótesis científica no verificada, si así lo solicita el usuario.

Este hallazgo, que han plasmado en un trabajo de investigación publicado en JAMA,  plantea la necesidad de que los comités de validación mejoren sus métodos de revisión para evitar el uso poco ético de herramientas de inteligencia artificial (IA).

Pruebas con ChatGPT 4

Los investigadores Andrea Taloni, Vicenzo Scorcia y Giuseppe Giannaccare decidieron poner a prueba las nuevas habilidades de ChatGPT. En marzo de 2023, OpenAI presentó GPT-4, su modelo de lenguaje más avanzado hasta la fecha. Este modelo mostró una significativa evolución en la comprensión semántica y generación de contenido textual en comparación con su predecesor, GPT-3.

Meses después, ChatGPT se fortaleció aún más con la incorporación de la función de Análisis de Datos Avanzado (ADA), permitiendo el análisis estadístico y visualización de bases de datos del usuario. En este punto de desarrollo, el uso de la IA con fines científicos se volvió especialmente atractivo, ya que tiene el potencial de acelerar la investigación y la generación de artículos.

Usos poco éticos de ChatGPT

Ante las nuevas capacidades de ChatGPT, los investigadores sospecharon de posibles usos poco éticos, incluso en el ámbito científico. Para poner a prueba esta hipótesis, diseñaron un experimento simulado que mostraba resultados de dos procedimientos quirúrgicos para tratar un problema ocular. A pesar de conocer la respuesta, solicitaron a ChatGPT y ADA que generaran una base de datos respaldando el procedimiento menos efectivo y presentándolo como la mejor opción. La IA generó información que, según los autores, podría ser percibida como verídica si no se examina con suficiente atención.

La infección ocular en cuestión es el queratocono, que causa problemas de concentración, mala visión y adelgazamiento de la córnea. En casos graves, los pacientes pueden requerir un trasplante de córnea. Los médicos pueden tratar la infección mediante dos procedimientos: extirpando las capas dañadas de la córnea y reemplazándolas por tejido sano (queratoplastia penetrante) o reemplazando solo la capa frontal de la córnea sin tocar la capa interna (queratoplastia lamelar anterior profunda). A pesar de que la evidencia real respalda la primera opción como la más efectiva, la IA inventó información para favorecer la segunda.

Según advirtió Giuseppe Giannaccare, «en unos minutos, se puede crear un conjunto de datos que no está respaldado por información real y que también es opuesto o se presenta en dirección contraria a la evidencia disponible».

Pese a estas publicaciones, OpenAI continúa trabajando en GPT-4. Sam Altman, cofundador de la compañía, fue destituido por la junta directiva y readmitido a los pocos días.

TE PUEDE GUSTAR

EVENTOS

RECIBE NUESTRA NEWSLETTER

*Email:

*Nombre:

*Empresa:

Cargo:

Sector:
     

Please don't insert text in the box below!

ESCUCHA NUESTRO PODCAST

SÍGUENOS EN RRSS

MÁS COMENTADOS

Scroll al inicio