La IA superará el nivel de destreza de los expertos en la mayoría de los ámbitos en 10 años

OpenAI advierte del impacto potencialmente catastrófico que el desarrollo incontrolado de modelos de IA podría tener en las sociedades futuras.

Expertos en la materia ya han planteado preocupaciones similares, desde el padrino de la IA hasta los fundadores de empresas de IA como Stability AI e incluso anteriores trabajadores de OpenAI que participaron en el pasado en la formación del GPT LLM. Este llamamiento urgente a un enfoque proactivo hacia la gobernanza y la regulación de la IA ha captado la atención de los reguladores de todo el mundo.

El reto de una superinteligencia segura

OpenAI cree que, una vez abordados estos puntos, el potencial de la IA podrá aprovecharse más libremente para el bien: «Esta tecnología puede mejorar nuestras sociedades, y la capacidad creativa de cada uno para utilizar estas nuevas herramientas seguramente nos asombrará», afirman.

Los autores también explicaron que el espacio está creciendo actualmente a un ritmo acelerado, y eso no va a cambiar. «Detenerlo requeriría algo así como un régimen de vigilancia global, y ni siquiera eso garantiza que funcione», se lee en el blog.

A pesar de estos retos, la dirección de OpenAI sigue empeñada en explorar la cuestión: «¿Cómo podemos garantizar la capacidad técnica para mantener a salvo una superinteligencia?». El mundo no tiene una respuesta ahora mismo, pero sin duda necesita una, una que ChatGPT no puede proporcionar.

En esencia, la idea es mantener la superinteligencia alineada con las intenciones de sus entrenadores, evitando un «escenario foom»: una explosión rápida e incontrolable de las capacidades de la IA que supere el control humano.

Además, hacen hincapié en la necesidad de la «capacidad técnica» para mantener el control sobre la superinteligencia y mantenerla «segura». Lo que esto implica sigue siendo nebuloso, incluso para OpenAI, pero el post advertía contra medidas reguladoras onerosas como licencias y auditorías para la tecnología que no alcance el listón de la superinteligencia.

TE PUEDE GUSTAR

EVENTOS

RECIBE NUESTRA NEWSLETTER

*Email:

*Nombre:

*Empresa:

Cargo:

Sector:
     

Please don't insert text in the box below!

ESCUCHA NUESTRO PODCAST

SÍGUENOS EN RRSS

MÁS COMENTADOS

Scroll al inicio
Resumen de privacidad

Las cookies y otras tecnologías similares son una parte esencial de cómo funciona nuestra web. El objetivo principal de las cookies es que tu experiencia de navegación sea más cómoda y eficiente y poder mejorar nuestros servicios y la propia web. Aquí podrás obtener toda la información sobre las cookies que utilizamos y podrás activar y/o desactivar las mismas de acuerdo con tus preferencias, salvo aquellas Cookies que son estrictamente necesarias para el funcionamiento de la web de BigDataMagazine. Ten en cuenta que el bloqueo de algunas cookies puede afectar tu experiencia en la web y el funcionamiento de la misma. Al pulsar “Guardar cambios”, se guardará la selección de cookies que has realizado. Si no has seleccionado ninguna opción, pulsar este botón equivaldrá a rechazar todas las cookies. Para más información puedes visitar nuestra Políticas de Cookies. Podrás cambiar en cualquier momento tus preferencias de cookies pinchando en el enlace “Preferencias de cookies” situado en la parte inferior de nuestra web.