Los expertos están hablando, y consideran que crear certificados eticos para los software de Inteligencia Artificial y controlar los usos que se les da a estos es una necesidad actualmente.
En octubre de 2018 la IEEE creó el Programa de Certificación de ética para sistemas autónomos e inteligentes (ECPAIS). El objetivo era crear una certificación común para avalar que la Inteligencia Artificial que está utilizando una empresa sigue unos parámetros éticos y seguros.
En los últimos meses se esta mirando con lupa todo esto. Globalmente, ha aparecido una preocupación por los efectos de los algoritmos en la sociedad, ya que estos influyen en las personas y cambian las formas de ejercer el poder.
Ahora, están animando a los desarrolladores a nivel mundial a utilizar los criterios de su certificado para conducirse a crear sistemas confiables en entornos de negocios y consumidores. Algunos de los criterios que han pautado están relacionados con la transparencia, la rendición de cuentras y la reducción del sesgo algorítmico en el desarrollo de los sistemas autónomos e inteligentes.
Este certificado no es lo único que han hecho, también han lanzado una publicación titulada «Ethically Aligned Design«, el documento se ha creado con la participación de mñas profundiza en la creación de más de 600 expertos globales que describen más de 100 recomendaciones especificas para guiar el diseño, el desarrollo, el despliegue y el uso de sistemas autónomos e inteligentes.
Sin embargo, no son los únicos que se han preocupado por el tema. En septiembre de 2019, el Foro Económico Mundial publicó una serie de directrices con las que guiarse a la hora de contratar IA, a fin de ayudar a los gobiernos a salvaguardar el beneficio y el bienestar públicos. En el documento hablan de «En general, las directrices tienen por objeto guiar a todas las partes involucradas en el ciclo de vida de la contratación (funcionarios de políticas, funcionarios de adquisiciones, científicos de datos, proveedores de tecnología y sus líderes) hacia el objetivo general de salvaguardar el beneficio y el bienestar público»
La Comisión Europea tampoco se ha quedado atrás, ya que recinetemente, el 19 de febrero de 2020, inició una Consulta sobre Inteligencia Artificial con la publicación de un libro blanco. Siendo esta la primera vez que se daba un efoque europeo al tema. En el libro podemos leer que hablan ya de la certificación, porque dice «La evaluación previa de la conformidad podría incluir procedimientos de ensayo, inspección o certificación. Podría incluir comprobaciones de los algoritmos y de los conjuntos de datos utilizados en la fase de desarrollo.»
Otras personas que se han manifestado recientemente sobre el tema
En los últimos meses, han sido varias personas las que han hecho algún tipo de declaración o comentario sobre el tema. Entre ellas econtramos a Sundar Pichai, consejero delegado de Google, quien a principio de febrero publicó una carta en la que aseguraba no tener «la menor duda» de la necesidad de regular la inteligencia artificial.
Más recientemente, el eurodiputado Iban García del Blanco propuso en la Comisión de Asuntos Jurídicos del Parlamento Europeo, basandose en su informe sobre aspectos éticos de la inteligencia artificial, la robótica y las tecnologías conexas, la necesidad de crear un certificado europeo para los productos tecnológicos, inteligencia artificial y robótica, desarrollados según principios éticos.