IA y algoritmos

La Inteligencia Artificial (IA) es una tecnología esencial para el avance cualitativo de nuestro sistema productivo, científico, educativo, medioambiental y social. Sin embargo, su diseño y uso no está exento de riesgos. De ahí que sea necesario evaluar su impacto y en caso necesario establecer unos límites formales y principios éticos para salvaguardar los Derechos Humanos y el Estado de derecho.

Uno de nuestros objetivos es generar un marco de certidumbre que aporte valor añadido a nuestras empresas y que, además de ser competitivas, sean reconocidas en el mundo como seguras y merecedores de confianza.

Telefónica es un agente activo en el ecosistema de la Inteligencia Artificial con una amplia gama de servicios y actividades con el  Big Data LUCA, Aura (nuestro asistente virtual basado en IA) o en la mejora de la eficiencia de los procesos internos. 

Principios y gobernanza de la Inteligencia Artificial de Telefónica

Telefónica ha liderado, dentro del sector privado, la definición de unos principios éticos para la IA de aplicación en la compañía. Estos principios son aplicables no solo al diseño, desarrollo y uso de productos y servicios por parte de los empleados de la compañía, sino también por proveedores y terceras partes.

La dificultad reside en la puesta en práctica de esos principios en el proceso de desarrollo de negocios y productos. Para abordar esta problemática, entre otras iniciativas, hemos desarrollado un modelo de gobernanza de IA de tres niveles dentro de la compañía.

El enfoque de Telefónica sobre la regulación de la IA

El primer paso para abordar la imposición de obligaciones o regular cualquier nueva tecnología o innovación, como es el caso de la IA, es analizar si el marco legal existente puede abordar los posibles riesgos que presente.  Una nueva regulación debe limitarse a dar solución a los problemas identificados sin extenderse más allá de lo que sea estrictamente necesario. Por un lado, la regulación de la Inteligencia Artificial debería considerar un enfoque basado en el riesgo graduado en varios niveles, en el que los usos de la IA de alto riesgo que puedan provocar daños graves o tener un impacto relevante en los Derechos Humanos deberían estar sujetos a salvaguardias ex-ante. Estas salvaguardias podrían aplicarse en forma de una prueba de conformidad que la IA debería superar antes de la comercialización del producto. 

Por otro lado, los usos que no sean de alto riesgo no deberían estar sujetos a obligaciones o regulaciones adicionales, y podría aplicarse un sistema de etiquetado voluntario para fomentar la confianza de los usuarios en el uso de dichas aplicaciones. Además, la adopción por parte de las empresas de Principios y esquemas de autorregulación puede reforzar aún más un ecosistema de confianza en la IA.

Más información