OpenAI advierte del impacto potencialmente catastrófico que el desarrollo incontrolado de modelos de IA podría tener en las sociedades futuras.
Expertos en la materia ya han planteado preocupaciones similares, desde el padrino de la IA hasta los fundadores de empresas de IA como Stability AI e incluso anteriores trabajadores de OpenAI que participaron en el pasado en la formación del GPT LLM. Este llamamiento urgente a un enfoque proactivo hacia la gobernanza y la regulación de la IA ha captado la atención de los reguladores de todo el mundo.
El reto de una superinteligencia segura
OpenAI cree que, una vez abordados estos puntos, el potencial de la IA podrá aprovecharse más libremente para el bien: «Esta tecnología puede mejorar nuestras sociedades, y la capacidad creativa de cada uno para utilizar estas nuevas herramientas seguramente nos asombrará», afirman.
Los autores también explicaron que el espacio está creciendo actualmente a un ritmo acelerado, y eso no va a cambiar. «Detenerlo requeriría algo así como un régimen de vigilancia global, y ni siquiera eso garantiza que funcione», se lee en el blog.
A pesar de estos retos, la dirección de OpenAI sigue empeñada en explorar la cuestión: «¿Cómo podemos garantizar la capacidad técnica para mantener a salvo una superinteligencia?». El mundo no tiene una respuesta ahora mismo, pero sin duda necesita una, una que ChatGPT no puede proporcionar.
En esencia, la idea es mantener la superinteligencia alineada con las intenciones de sus entrenadores, evitando un «escenario foom»: una explosión rápida e incontrolable de las capacidades de la IA que supere el control humano.
Además, hacen hincapié en la necesidad de la «capacidad técnica» para mantener el control sobre la superinteligencia y mantenerla «segura». Lo que esto implica sigue siendo nebuloso, incluso para OpenAI, pero el post advertía contra medidas reguladoras onerosas como licencias y auditorías para la tecnología que no alcance el listón de la superinteligencia.