Los peores errores de la inteligencia artificial

Los conocimientos obtenidos a través de la inteligencia artificial, los datos y algoritmos de aprendizaje automático pueden ser de un valor incalculable, pero los errores pueden resultar en la pérdida de reputación, ingresos e incluso vidas.

La revista británica The Economist afirmó hace un par de años que los datos, más que el petróleo, se habían convertido en el recurso más valioso del mundo. Esta idea se ha repetido desde entonces, y las organizaciones de todos los sectores invierten considerablemente en datos y análisis. No obstante, al igual que el petróleo, los datos y el análisis tienen su lado oscuro.

Errores más destacados de la inteligencia artificial

Los conocimientos obtenidos a través del análisis y de las acciones impulsadas por algoritmos de aprendizaje automático pueden proporcionar una ventaja competitiva a las organizaciones. No obstante, los errores pueden tener costos significativos en términos de reputación, ingresos y, en ocasiones, incluso vidas.

Es crucial comprender los datos y lo que estos indican, pero también es esencial comprender las herramientas que se utilizan, conocer los datos en profundidad y tener en cuenta los valores de la organización. A continuación, se presentan cinco casos de errores en análisis e inteligencia artificial de alto perfil de la última década para ilustrar lo que puede salir mal.

Fallo en artículos deportivos periodísticos con la IA

La cadena de periódicos estadounidenses Gannett anunció en agosto la suspensión del uso de una herramienta de inteligencia artificial llamada LedeAI. Esto se debió a que varios artículos generados por esta IA se volvieron virales por ser repetitivos, mal escritos y carecer de información crucial. Después de que estas historias fueran objeto de burlas en las redes sociales, Gannett optó por suspender el uso de LedeAI en todos los mercados locales que habían estado utilizando el servicio.

Rechazo de candidatos debido a su edad

La empresa iTutorGroup acordó el pago de 365,000 dólares para resolver una demanda presentada por la Comisión de Igualdad de Oportunidades en el Empleo de EE. UU. La demanda alegaba que la empresa utilizó un software de reclutamiento impulsado por inteligencia artificial que automáticamente rechazó a solicitantes de 55 años o más y a solicitantes masculinos de 60 años o más. La EEOC afirmó que el software rechazó automáticamente a más de 200 solicitantes calificados.

ChatGPT inventa casos judiciales

Los avances en modelos lingüísticos generativos aumentaron el interés en el potencial transformador de la inteligencia artificial generativa en diversas industrias. ChatGPT, desarrollado por OpenAI, desempeñó un papel central en este aumento de interés, mostrando cómo la IA generativa podría cambiar la naturaleza del trabajo en diferentes áreas. Sin embargo, la tecnología aún tiene mucho que mejorar antes de poder asumir procesos comerciales de manera confiable. El abogado Steven A. Schwartz se encontró en problemas con el juez de distrito estadounidense P. Kevin Castel en 2023 después de utilizar ChatGPT para investigar precedentes en una demanda contra la aerolínea colombiana Avianca. Se descubrió que al menos seis casos presentados en la demanda eran falsos, lo que puso en peligro a Schwartz y a su colega Peter LoDuca.

Algoritmos que no identifican la Covid-19

Durante la pandemia de la Covid-19, muchas organizaciones intentaron emplear algoritmos de aprendizaje automático para agilizar el diagnóstico y la clasificación de pacientes en hospitales. Sin embargo, según el Instituto Turing del Reino Unido, estas herramientas predictivas tuvieron un impacto limitado o nulo. El uso de datos mal etiquetados o de fuentes desconocidas fue una causa común de estas fallas, como informó la revista MIT Technology Review.

TE PUEDE GUSTAR

EVENTOS

RECIBE NUESTRA NEWSLETTER

*Email:

*Nombre:

*Empresa:

Cargo:

Sector:
     

Please don't insert text in the box below!

ESCUCHA NUESTRO PODCAST

SÍGUENOS EN RRSS

MÁS COMENTADOS

Scroll al inicio