Searcher
Back

El reto de Telefónica ante el uso responsable de la Inteligencia Artificial

 

En la sociedad actual, cada día se utilizan más tecnologías como el Machine Learning (aprendizaje automático) o la Inteligencia Artificial (AI) y se espera que su aplicación crezca exponencialmente en los próximos años.

Este tipo de tecnologías se valen de grandes cantidades de datos para aprender a partir de patrones y, finalmente, tomar decisiones autónomas. De hecho, el desarrollo de sistemas avanzados de IA no sería posible sin el acceso a grandes conjuntos de datos (por ejemplo, grabaciones de voz, fotos, etc.). Dado que los datos determinan cómo funcionan tanto la IA como el Machine Learning, ¿cómo podemos asegurar que no estén sesgados y que, por tanto, reproduzcan comportamientos injustos en la vida real? El debate sobre el uso ético de los datos tan solo acaba de empezar.

En Telefónica, consideramos que el uso de inteligencia artificial y algoritmos debe estar centrado en las personas, ha de ser ético y evitar la discriminación indebida. Como explicamos en nuestro Manifiesto Digital, al igual que el impacto medioambiental de la producción se considera una responsabilidad corporativa en la actualidad, las empresas también han de ser responsables del impacto de la IA en las sociedades.

 

Reto Inteligencia Artificial Responsable Telefónica

 

Con el fin de avanzar desde el establecimiento de unos principios de IA hacia una IA responsable, hemos organizado un Reto para fomentar el uso responsable de la IA. El objetivo es doble:

 

1. Averiguar si las preocupaciones relacionadas con el uso responsable de los datos se limitan a unos pocos casos muy visibles, o si se están dando a una escala mucho mayor. Algunos temas de interés sobre este objetivo son:

  • Detectar, explicar y dar relevancia a los casos de discriminación injusta por el uso o implementación indebidos de sistemas de IA.
  • Identificar y dar relevancia a conjuntos de datos abiertos que contengan sesgos no deseados que puedan afectar a grupos protegidos.

 

2. Desarrollar herramientas y algoritmos que ayuden a detectar y mitigar inquietudes, como por ejemplo:

  • Herramientas para explicar las conclusiones alcanzadas por un algoritmo de IA para mitigar el temor a la IA "inexplicable".
  • Herramientas para detectar discriminaciones en conjuntos de datos relacionados con datos sensibles (que afecten a grupos protegidos).
  • Herramientas para detectar correlaciones en conjuntos de datos entre variables normales y sensibles.
  • Herramientas para volver a identificar datos anónimos en conjuntos de datos públicos.
  • Herramientas para detectar los resultados no equilibrados de algoritmos en subgrupos de población en cuanto a falsos positivos y negativos.
  • Métodos y herramientas para proporcionar una calificación "ética" de conjuntos de datos.

 

El reto está abierto desde el 14 de noviembre hasta el 15 de diciembre (de 2018) y se informará a los ganadores antes del 31 de diciembre.

 

¡Inscríbete ahora y no te pierdas la oportunidad de compartir cómo crees que se puede alcanzar un uso más responsable de la Inteligencia Artificial!

 

Consulta las bases y condiciones en la página web: https://mailchi.mp/luca-d3/challenge

 

RELATED POSTS

Richard Benjamin Richard Benjamins


Data & AI Ambassador at Telefónica

Adrián Valles Inarrea Adrián Valles Inarrea


Data Scientist Intern, LUCA