“Cualquier debate en torno a la ética digital debería tener en el centro a las personas”

Ezequiel Paura es Data Scientist. Con formación en ciencias sociales y especializado en metodologías de investigación aplicada, utiliza el aprendizaje automático para predecir el comportamiento humano. Sus trabajos más recientes se centran en la programación del lenguaje natural y la visión computacional, desarrollando sistemas de inteligencia artificial en la nube para Keepler Data Tech.

Hablamos con él para entender mejor la Inteligencia Artificial que nos rodea hoy día y cómo hay que empezar a dar pasos en serio hacia una regulación basada en evidencias que permitan crear un marco regulador apropiado para el desarrollo y uso adecuado de estas tecnologías emergentes.  

Big Data Magazine (BDM): Recientemente, el CTO de LG, Dr. Park, clasificó la IA en 4 niveles de experiencia: eficiencia, personalización, razonamiento y exploración. ¿En qué fase dirías que estamos en uso más extendido?

Ezequiel Paura (EP): Es interesante esta clasificación porque, al estar centrada en los dispositivos de uso personal, intenta imaginar un camino de desarrollo de la IA muy ligada a la vida diaria (de ahí “experiencia” en el sentido del quehacer humano, no del expertise).

En estos cuatros niveles de experiencia, ubicaría el estado más extendido de la IA actual en el de la eficiencia. En este nivel las funciones específicas del dispositivo se pueden automatizar a través de comandos simples. Aquí se encuentran la mayoría de los productos de reconocimiento de voz que existen hoy en el mercado. El sistema de IA ajusta automáticamente su comportamiento en relación con parámetros de entrada preestablecidos que recibe a través de sensores (micrófonos, termómetros, detectores de movimiento, etc.), de esta forma maximiza la eficiencia de las interacciones con el usuario.

El siguiente nivel, personalización, se centra en el aprendizaje de patrones para optimizar y personalizar las funciones del dispositivo. Aquí los dispositivos y servicios aprenden a partir de los datos de interacciones con el entorno y los usuarios, y adaptan su comportamiento en consecuencia. Un ejemplo puede ser la nueva generación de robots aspiradores que aprenden de sus propios errores, atascos, etc.

El tercer nivel, el del razonamiento, implica que los sistemas de IA sean capaces de comprender la relación de causa-efecto y aprender a partir de esa relación. Hoy en día no existen ejemplos de dispositivos con esta capacidad.

Por último, la exploración es el nivel en el cual LG imagina un futuro donde los sistemas de IA podrán desarrollar nuevas capacidades a partir del testeo de hipótesis y el aprendizaje constante. Esto parece aún muy lejano.

Respecto al uso, diría que está extendido en el sentido que prácticamente cualquier persona con acceso a un ordenador e internet es capaz de entrenar un modelo IA. Pero la democratización es un concepto mucho más exigente. Si bien hay avances en esta dirección, también los hay en la dirección contraria. Por ejemplo, los últimos avances significativos en Procesamiento del Lenguaje Natural o Visión por Computador, requirieron de un gran poder computacional, al que muy pocas empresas o universidades pueden acceder. Esto generó que en los últimos años, las conferencias donde se presentan estos avances estén prácticamente dominadas por las grandes empresas de tecnología y donde cada vez es más difícil que puedan acceder universidades no-élite, empresas e investigadores independientes. Esta reducción en la diversidad no sólo afecta negativamente a la comunidad de IA sino también al conjunto de la sociedad, donde la IA permea cada vez más.

BDM: Y realmente, desde una visión experta como la tuya, ¿en qué nivel real estamos en un entorno más experimental?

EP: Aún en entornos experimentales, mi opinión es que estamos lejos de que estos sistemas puedan desarrollar todas las tareas que un humano realiza (lo que se conoce como Inteligencia Artificial General, IAG). Ver a un ordenador ganarle al campeón mundial de ajedrez o Go, puede llevarnos a pensar que si es capaz de eso, será capaz de tareas mucho más sencillas. Pero la realidad es que no. Estos sistemas tienen un altísimo grado de especialización que no es fácilmente trasladable a otras tareas. Ninguno de estos modelos es capaz de razonar acerca de su proceso de aprendizaje, de explicar sus decisiones. De la misma manera en la que aún los modelos más potentes de PNL, no son capaces de entender el lenguaje, sólo imitarlo. Poder razonar sobre el proceso de aprendizaje es una condición necesaria para  que diferentes sistemas de IA sean capaces de comunicarse entre sí.

La conversación en la comunidad de IA sigue muy viva respecto a si es realizable o deseable llegar a la IAG. Incluso la definición exacta de IAG sigue en debate, pero respecto a si ya llegamos o no, la respuesta está mucho más clara y es que no, todas las manifestaciones de IA que conocemos hasta hoy son sistemas de IA específicos.

BDM: Hay regulación que esté frenando el avance de la IA o son las propias compañías quienes no están dando un paso más de forma consciente.

EP: Al menos a nivel nacional o europeo, no hay aún una regulación marco para IA (sólo instrumentos específicos para algún sector, como el financiero), aunque se está trabajando en ello. Es posible que el temor a que esa regulación no genere un ecosistema adecuado para la innovación y el desarrollo esté retrasando el avance, pero no tengo evidencias de que sea así.

BDM: Las decisiones automatizadas que pueda tomar una IA suscitan debate y, quizás, incluso miedo en cierto ámbito de la sociedad. ¿Hay motivos para ello?

EP: Motivos para el debate hay, definitivamente. En el último tiempo empezó a calar en la opinión pública una preocupación por los efectos negativos que puede traer el uso extendido de la IA. Por ejemplo, si pueden ser justas las decisiones de un algoritmo o si es posible explicar el porqué de esas decisiones.

Parafraseando al Prof. Luciano Floridi, la IA, como una nueva forma de agencia humana, multiplica y multiplicará aún más las oportunidades de hacer cosas. Cosas buenas y cosas malas. Pero es importante entender que somos las personas las responsables sobre esas acciones, no los algoritmos. Cualquier debate en torno a la ética digital debería tener en el centro a las personas.

BDM: Se habla últimamente mucho los sesgos de los algoritmos, aquellos que “penalizan” por rentas, por sexo, por raza… ¿Cómo se mitigan este tipo de sesgos desde la ciencia de datos? ¿Debe preocuparse el usuario medio por esto?

EP: Algo importante a aclarar es que cuando decimos que existen “algoritmos sesgados” lo que estamos queriendo decir es que personas (con sus naturales sesgos) desarrollan algoritmos. Es importante la distinción porque sino podemos caer en el error de pensar que las tecnologías pueden ser neutras. Y no es así. De manera más o menos transparente, las tecnologías están permeadas por el sistema de valores de sus creadores.

Como ejemplo podemos pensar en investigaciones recientes en el área de ML que pretenden descubrir correlaciones entre características faciales y, por ejemplo, la orientación sexual o política de las personas. Si bien la tecnología cambia, y con ello su impacto, los problemas éticos son similares a los que la sociedad enfrentó en el siglo XIX frente al auge de la frenología. La IA exacerba la posibilidad de daño de estas prácticas, pero los problemas éticos son similares a los del pasado. Tanto en las ciencias sociales como en la medicina, existe una tradición de reflexión acerca de la ética de la investigación, el preguntarnos antes si debemos (realizar una experimento por ejemplo) que si es técnicamente posible.

Esto no quiere decir que desde la tecnología no se puedan aportar soluciones. Hoy disponemos de herramientas que están ayudando a que contemos con sistemas de IA más seguros para todos.

Muchas veces se etiquetan a los sistemas de IA, y en especial cuando se trata de redes neuronales, como “cajas negras” donde no sabemos qué pasa al interior. Ingresan unos datos, se generan unas predicciones, pero en el medio la oscuridad total. Esto no puede estar más alejado de la realidad. Es una caja muy compleja, donde ocurren muchas operaciones matemáticas muy rápido, pero es posible abrir esa caja, auditarla, probar sus componentes por separado. Por ejemplo, hay una variedad de herramientas que explican el porqué de una decisión automatizada: si un algoritmo rechaza una solicitud de crédito, estas herramientas nos indican qué características tuvieron más peso en la decisión: ¿Fueron los ingresos del solicitante? ¿Fue su edad? ¿Su género? Esto no es suficiente, pero es definitivamente necesario y, como comentas, ayuda a mitigar el impacto.

Respecto a si el usuario medio debería preocuparse, creo que es correcto preocuparse pero la preocupación por sí sola no es de mucha ayuda. Todo los grandes avances tecnológicos generaron preocupación a nivel social. Incluso la bicicleta fue objeto de controversia cuando se empezó a extender su uso (aunque a veces se difundan versiones equivocadas). Es normal que ante la emergencia de una nueva tecnología, tanto el conocimiento del usuario medio como la regulación vayan por detrás. Mi opinión es que la preocupación debería estar enfocada en avanzar en estas dos vías.

BDM: Volviendo al tema de la regulación, Facebook ha impulsado la iniciativa Open Loop, en la que Keepler ha participado como una de las 10 empresas europeas de IA involucradas. ¿En qué consiste el proyecto?

EP: El proyecto Open Loop persigue conectar a las autoridades encargadas de formular políticas públicas con empresas de tecnología, que luego serán las encargadas de implementar esas políticas. El objetivo es generar recomendaciones basadas en evidencia, para que los responsables políticos puedan contar con un mayor conocimiento sobre cómo estos instrumentos impactarán en el mundo real.

La metodología consiste en generar y probar en la práctica prototipos de políticas y legislación de una manera similar a la que se desarrolla tecnología: “fases alfa para investigar y probar diferentes vías regulatorias; y fases beta para iterar y refinar estos marcos antes de compartirlos de manera más amplia.” (Norberto Andrade, sic).

BDM: Empresas de Europa, América y Asia han formado parte de este “experimento global”, ¿qué roles han jugado cada continente?

EP: En cada continente, Open Loop co-crea y/o evalúa un prototipo legal que pueda influir en el marco regulatorio específico de esa región en temas de IA. Por ejemplo, en Asia Open Loop trabajó con las agencias encargadas del gobierno de la IA y 12 empresas de la región Asia-Pacífico con el objetivo de probar y mejorar dos instrumentos de gobierno de IA en Singapur.

En el capítulo europeo se trabajó en un marco de evaluación de riesgos de IA, algo similar a la Evaluación de Impacto relativa a la Protección de Datos que introdujo el RGPD. Aquí el objetivo fue generar recomendaciones, como parte del proceso de consulta y debate abierto por la Comisión Europea en su Estrategia de Inteligencia Artificial.

En el caso de México, donde el programa está aún en marcha, Open Loop está evaluando un prototipo legal para poder emitir una recomendación a la autoridad competente. Éste que usado como insumo dentro de un marco de gobernanza para la transparencia y explicabilidad en los sistemas de IA.

Además de la metodología de trabajo, lo que tienen en común estos instrumentos de gobernanza es que convierten principios éticos en prácticas concretas de implementación. Esto permite que las organizaciones que desarrollamos productos de IA podamos operacionalizar de una manera ágil esos principios.

TE PUEDE GUSTAR

EVENTOS

RECIBE NUESTRA NEWSLETTER

*Email:

*Nombre:

*Empresa:

Cargo:

Sector:
     

Please don't insert text in the box below!

ESCUCHA NUESTRO PODCAST

SÍGUENOS EN RRSS

MÁS COMENTADOS

Scroll al inicio
Resumen de privacidad

Las cookies y otras tecnologías similares son una parte esencial de cómo funciona nuestra web. El objetivo principal de las cookies es que tu experiencia de navegación sea más cómoda y eficiente y poder mejorar nuestros servicios y la propia web. Aquí podrás obtener toda la información sobre las cookies que utilizamos y podrás activar y/o desactivar las mismas de acuerdo con tus preferencias, salvo aquellas Cookies que son estrictamente necesarias para el funcionamiento de la web de BigDataMagazine. Ten en cuenta que el bloqueo de algunas cookies puede afectar tu experiencia en la web y el funcionamiento de la misma. Al pulsar “Guardar cambios”, se guardará la selección de cookies que has realizado. Si no has seleccionado ninguna opción, pulsar este botón equivaldrá a rechazar todas las cookies. Para más información puedes visitar nuestra Políticas de Cookies. Podrás cambiar en cualquier momento tus preferencias de cookies pinchando en el enlace “Preferencias de cookies” situado en la parte inferior de nuestra web.