2 de cada 3 expertos en IA, partidarios de una regulación inmediata para el desarrollo de los grandes modelos de lenguaje

La IA generativa y los grandes modelos lingüísticos como GPT, BERT o T5 son tendencia clara, pero presentan importantes desafíos relacionados, en su mayoría, con la seguridad y el cumplimiento normativo.

Dos de cada 3 expertos en Inteligencia Artificial (IA) son partidarios de una regulación gubernamental inmediata para el desarrollo de los grandes modelos lingüísticos (LLM), si bien en su mayoría no consideran necesaria una moratoria para seguir desarrollando esta tecnología. Así lo refleja el último informe de expert.ai, multinacional experta en inteligencia artificial (IA) para la comprensión del lenguaje natural.

El informe, titulado “Large Language Models: Opportunity, Risk and Paths Forward”, muestra los resultados de una encuesta realizada el pasado mes de abril entre más de 300 expertos en IA de empresas, proveedores tecnológicos y personal académico para identificar los riesgos asociados a la implantación de los LLM en las compañías en materia de sostenibilidad, responsabilidad social y gobernanza (ESG, por sus siglas en inglés)..

“En los últimos años, modelos LLM como GPT, BERT o T5 han demostrado capacidades inimaginables hasta ahora”, explica Elisa Martínez Frade, vicepresidenta de Ventas de expert.ai para Iberia y Latinoamérica. “Sin embargo, también existen desafíos, muchos de ellos directamente relacionados con la gobernanza y el cumplimiento”.

En marzo de 2023, líderes de la industria, investigadores y otros expertos en IA firmaron una carta abierta en la que pedían una «pausa» de seis meses en el desarrollo de IA a gran escala más allá del GPT-4. argumentando que el uso de IA debería ser «transparente, explicable y empíricamente sólido, fomentando la responsabilidad», y que GPT-4 «no cumple ninguno de estos requisitos, ya que es parcial, engañoso y un riesgo para la privacidad y la seguridad pública».

Preguntados sobre esto, más de la mitad de los participantes (52,2%) afirmó que no es necesaria la moratoria de 6 meses en el desarrollo de los LLM, pero más del 70% están a favor de una regulación gubernamental inmediata para lidiar con el uso malicioso de la IA generativa y promover su adopción en las organizaciones.

Principales desafíos

El informe de expert.ai incluye una pregunta específica en cuanto a los principales hándicaps y desafíos  que se encuentran actualmente a la hora de explotar los LLM. Los encuestados consideran aspectos como la falta de veracidad, los sesgos en la interpretación y el manejo de propiedad intelectual como los principales retos a los que se enfrentan a la hora de evolucionar.

  • La principal preocupación entre los profesionales es la falta de veracidad (69,8%). Un buen ejemplo son las alucinaciones, proceso por el cual el LLM genera texto sin basarse en conocimientos o experiencias del mundo real, lo que le lleva a inventar o fabricar respuestas ficticias o imposibles.
  • En segundo lugar, los encuestados señalan que los modelos de IA generativa como GPT a menudo presentan una gran falta de precisión, e incluso pueden llegar a presentar como hechos informaciones falsas o sesgadas (67,3%). Forrester Research llama a esto “sinsentidos coherentes”.
  • Por detrás se coloca la lucha contra las ciberamenazas (phishing, fraude, ingeniería social…), factor señalado por el 61,1% de los encuestados.
  • Un 59,3% citó como riesgo el hecho de que muchos LLM están formados en base a grandes franjas de información protegida por derechos de autor, lo cual puede dar lugar a filtraciones.

Otra de las cuestiones clave planteadas en la encuesta es la forma en que el uso de LLMs impactará en la política de gobernanza de la organización, y cómo debe trasladarse a los empleados por lo que respecta a su utilización. La respuesta mayoritaria entre los profesionales de la IA (38,8%) fue que se debe controlar su uso, pero aplicando un cierto grado adicional de libertad, mientras que un 24% indicó que se deben implementar restricciones.

TE PUEDE GUSTAR

EVENTOS

RECIBE NUESTRA NEWSLETTER

*Email:

*Nombre:

*Empresa:

Cargo:

Sector:
     

Please don't insert text in the box below!

ESCUCHA NUESTRO PODCAST

SÍGUENOS EN RRSS

MÁS COMENTADOS

Scroll al inicio
Resumen de privacidad

Las cookies y otras tecnologías similares son una parte esencial de cómo funciona nuestra web. El objetivo principal de las cookies es que tu experiencia de navegación sea más cómoda y eficiente y poder mejorar nuestros servicios y la propia web. Aquí podrás obtener toda la información sobre las cookies que utilizamos y podrás activar y/o desactivar las mismas de acuerdo con tus preferencias, salvo aquellas Cookies que son estrictamente necesarias para el funcionamiento de la web de BigDataMagazine. Ten en cuenta que el bloqueo de algunas cookies puede afectar tu experiencia en la web y el funcionamiento de la misma. Al pulsar “Guardar cambios”, se guardará la selección de cookies que has realizado. Si no has seleccionado ninguna opción, pulsar este botón equivaldrá a rechazar todas las cookies. Para más información puedes visitar nuestra Políticas de Cookies. Podrás cambiar en cualquier momento tus preferencias de cookies pinchando en el enlace “Preferencias de cookies” situado en la parte inferior de nuestra web.