El Pentágono creará una herramienta de IA capaz de automatizar hipótesis científicas

El proyecto Automating Scientific Knowledge Extraction lanzado por DARPA será la primera oportunidad de investigación con el objetivo principal de desarrollar aplicaciones de IA automatizando los pasos del proceso científico.

El Pentágono, a través de un proyecto lanzado por DARPA (Agencia de Proyectos de Investigación Avanzada de Defensa) está buscando equipos para construir una herramienta de Inteligencia Artificial (IA) que pueda generar y probar automáticamente sus propias hipótesis científicas.

El proyecto Automating Scientific Knowledge Extraction (ASKE), se convertirá en la primera oportunidad de investigación bajo el nuevo programa de Exploración de IA de DARPA, cuyo objetivo es el de desarrollar aplicaciones de IA automatizando esencialmente los pasos del proceso científico. La herramienta permitiría a quienes tomar las decisiones, aplicar los descubrimientos del laboratorio al mundo real.

«La automatización de los procedimientos de inferencia basados en modelos podría aumentar la velocidad y la precisión con que estos modelos se pueden usar para abordar cuestiones clave de seguridad nacional en órdenes de magnitud. La agencia aseguró que el sistema podría utilizarse para verificar los resultados de los estudios científicos y monitorear los «eventos económicos, políticos, sociales o ambientales frágiles» explicaba DARPA en su web.

¿Cómo funcionaría?

Una vez desarrollado, el sistema ASKE actuaría más o menos como su propio científico, tomando modelos de investigaciones existentes y actualizándolos automáticamente para dar cuenta de la nueva información.

La herramienta se encargaría de localizar de forma automática nuevos datos y recursos científicos, diseccionarlos para obtener información útil, comparar esos hallazgos con la investigación existente y luego generar nuevos modelos. El sistema crearía y probaría sus propias hipótesis para refinar aún más sus predicciones.

El programa se ejecutará en dos partes: los equipos estudiarán la viabilidad de la herramienta en la primera fase y demostrarán una prueba de concepto en la fase dos.

La Inteligencia Artificial es una herramienta poderosa cuyo uso debe controlarse con sumo cuidado. A principios de mes, un grupo de 116 expertos en robótica e IA aprovechó el Congreso Internacional de Inteligencia Artificial (IJCAI) celebrado en Australia, para a escribir una carta a Naciones Unidas.

Los expertos, entre los que se encuentran caras conocidas como la de Elon Musk,fundador de Tesla y SpaceX, y Mustafa Suleyman, cofundador de DeepMind (propiedad de Google), solicitaban la prohibición de la creación de robots y máquinas inteligentes para la guerra.

TE PUEDE GUSTAR

OpenAI ha anunciado  la generación de imágenes en ChatGPT, que comenzará a implementarse para los usuarios de ChatGPT Plus, Pro, Team y Free como

EVENTOS

RECIBE NUESTRA NEWSLETTER

*Email:

*Nombre:

*Empresa:

Cargo:

Sector:
     

Please don't insert text in the box below!

ESCUCHA NUESTRO PODCAST

SÍGUENOS EN RRSS

MÁS COMENTADOS

Scroll al inicio
Resumen de privacidad

Las cookies y otras tecnologías similares son una parte esencial de cómo funciona nuestra web. El objetivo principal de las cookies es que tu experiencia de navegación sea más cómoda y eficiente y poder mejorar nuestros servicios y la propia web. Aquí podrás obtener toda la información sobre las cookies que utilizamos y podrás activar y/o desactivar las mismas de acuerdo con tus preferencias, salvo aquellas Cookies que son estrictamente necesarias para el funcionamiento de la web de BigDataMagazine. Ten en cuenta que el bloqueo de algunas cookies puede afectar tu experiencia en la web y el funcionamiento de la misma. Al pulsar “Guardar cambios”, se guardará la selección de cookies que has realizado. Si no has seleccionado ninguna opción, pulsar este botón equivaldrá a rechazar todas las cookies. Para más información puedes visitar nuestra Políticas de Cookies. Podrás cambiar en cualquier momento tus preferencias de cookies pinchando en el enlace “Preferencias de cookies” situado en la parte inferior de nuestra web.