Háblanos un poco de ti. ¿En qué consiste tu trabajo en Telefónica?
Actualmente, formo parte del equipo de AI Ethics de Telefónica. Desde este equipo, nos encargamos de asegurar un uso responsable y ético de la inteligencia artificial en Telefónica, jugando un papel crucial en la gobernanza de la IA de Telefónica.
Llevo aproximadamente 4 años en este equipo, siendo testigo de su nacimiento y evolución, lo cual ha sido muy satisfactorio. Desde mi llegada a Telefónica en 2018 como UX Designer, no he parado de aprender, y estos últimos años han sido especialmente intensos en términos de aprendizaje y adaptación, ya que trabajar en IA implica estar en constante desarrollo y descubrimiento.
El equipo de AI Ethics es el responsable, junto al equipo de Compliance Global -con el que trabajamos estrechamente- de garantizar una correcta implementación del modelo de gobernanza de IA. Trabajamos de manera transversal en el grupo Telefónica, lo que implica tener contacto con todas las áreas y diversos perfiles de la compañía. Esto también proporciona un aprendizaje muy valioso, lo cual me encanta.
Nuestro modelo de gobierno de la IA fue aprobado en 2023, y define procesos y determina roles asociados a responsabilidades concretas, que nos permiten aprovechar todo el potencial de la IA al tiempo que protegemos a las personas y minimizamos los posibles riesgos durante todo el ciclo de vida de los sistemas de inteligencia artificial en todas las actividades en las que el Grupo Telefónica participa: diseño, desarrollo, adquisición, comercialización y utilización. Este modelo nos permite también cumplir con las regulaciones en IA que nos apliquen, como el AI Act en Europa (primera regulación en materia de IA en todo el mundo).
Uno de los procesos clave en la gobernanza es la gestión del análisis de riesgos de los casos de uso de IA, del que también somos responsables. A través de este análisis, podemos evaluar si nuestros Principios de Inteligencia Artificial se cumplen de manera adecuada. También analizamos si existen riesgos relacionados con las personas, el medio ambiente o la sociedad. El resultado del análisis son una serie de medidas que le proporcionamos a las unidades de negocio para mitigar los riesgos detectados, asegurando que nuestros productos y servicios con IA salen a producción con todas las garantías.
También nos encargamos de promover una cultura de la IA responsable, que es clave en la transformación cultural que requiere la adopción de la inteligencia artificial en las empresas. La IA ya no es cosa de sólo unos pocos perfiles técnicos, ya la encontramos en todas las áreas de la compañía. Por eso es necesario crear una cultura de confianza, y mejora continua, asegurando que la IA se implementa de manera efectiva, alineada con los valores del Telefónica y con un impacto positivo en empleados y usuarios finales.
¿En qué consiste la IA responsable?
Una inteligencia artificial responsable es aquella que es desarrollada de forma confiable y centrada en las personas. Está diseñada de forma que respeta y promueve la protección de la seguridad, la salud, los Derechos Humanos y el medioambiente.
Nuestro fuerte compromiso con los Derechos Humanos hace que trabajemos para identificar, prevenir y mitigar los posibles impactos negativos que la tecnología pueda tener en las personas, en la sociedad o en el medioambiente. Consideramos que la IA puede contribuir a crear una sociedad más inclusiva y a ofrecer mejores oportunidades para todos.
Telefónica fue una de las primeras compañías del mundo en tener unos principios éticos de inteligencia artificia para garantizar un impacto positivo en la sociedad. Nuestros principios de IA, que definimos y publicamos por primera vez en 2018, son el código ético que nos ha orientado en el diseño, el desarrollo y la implementación de una IA responsable.
Estos principios están completamente alineados con los valores de Telefónica. En 2024 los actualizamos para poder incluir toda la madurez adquirida en su aplicación desde 2018. También aprovechamos para crear un nuevo principio, “Una IA comprometida con el medioambiente”, para reforzar nuestro compromiso con el impacto medioambiental.
¿Cómo puede utilizarse la inteligencia artificial de forma responsable?
La aplicación de la IA puede conllevar algunos impactos negativos que muchas veces son no intencionados y que pueden impactar a las personas, la sociedad, el medioambiente, como, por ejemplo:
- Posibles sesgos derivados de los datos utilizados o de las personas que desarrollan los modelos que pueden generar discriminaciones hacia ciertos grupos de personas.
- Falta de transparencia y de compresión de sus respuestas.
- Fallos de ciberseguridad y privacidad.
- Falta de supervisión humana, lo que puede provocar errores y decisiones no éticas.
- El consumo de recursos naturales o aumento de la huella de carbono…
Para evitar este tipo de impactos negativos, debemos reflexionar sobre ellos al construir nuestros casos de uso de IA. Nuestros principios de IA guían a las áreas de negocio en estas reflexiones y nuestro modelo de gobernanza proporciona medidas para evitar o minimizar estos riesgos. Los programas de formación y concienciación son fundamentales a la hora de reforzar estos elementos.
Si hablamos de cómo usar la IA generativa de forma responsable en nuestro día a día, debemos conocer las limitaciones que ésta tiene y gestionar nuestras expectativas sobre lo que nos permite hacer. No debemos olvidar que sus resultados pueden ser imprecisos, sesgados e incluso a veces erróneos. Por tanto, es fundamental que supervisemos el contenido de las respuestas que nos ofrece.
¿Qué perfil profesional se necesita para este tipo de trabajos?
La incorporación de este tipo de equipos y roles en las empresas es una práctica relativamente reciente. La gestión de la IA ha pasado de ser un reto únicamente técnico a ser un reto organizacional, como comentaba antes. Para la gestión de estos procesos, se necesita un enfoque multidisciplinar que combine conocimientos técnicos, humanísticos y legales. Además, es importante estar cerca del negocio para poder hacer una implementación efectiva en la práctica del día a día.
En Telefónica, diversos perfiles colaboran para asegurar el uso responsable de la IA, incluyendo áreas de negocio, técnicas, legales, de sostenibilidad, privacidad, auditoría y ciberseguridad, entre otras.
Los perfiles de humanidades son fundamentales en el desarrollo de la inteligencia artificial porque aportan perspectivas que la tecnología por sí sola no puede abordar. Necesitamos unir el conocimiento técnico con una visión crítica y humanística que integre la ética, el comportamiento humano y la diversidad e inclusión para beneficiar a la sociedad.
En el desarrollo de una IA responsable es muy importante la diversidad en los equipos, porque ayuda a crear sistemas más justos, equitativos y alineados con las necesidades de diferentes personas. En Telefónica, promovemos la diversidad en nuestros equipos de IA para asegurar que nuestras soluciones sean justas, inclusivas y responsables.
¿Qué puede hacerse para promover la cultura de inteligencia artificial responsable?
Formación, formación y más formación. Para promover una cultura de IA responsable, es necesario capacitar a los empleados acerca de las oportunidades y los riesgos que ofrece la IA y dotarles de las habilidades necesarias para desarrollar e implementar esta tecnología de manera responsable, en coherencia con nuestro modelo de gobierno y nuestros principios éticos de IA. Además, trabajamos para fomentar un enfoque de pensamiento crítico para que los empleados puedan evaluar de manera más efectiva las implicaciones éticas y sociales de la IA.
Desde el equipo de AI Ethics, también nos esforzamos para garantizar que todos los roles involucrados en la gobernanza de la IA en Telefónica estén adecuadamente preparados para asumir sus funciones mediante programas de bienvenida, sesiones de formación específicas, y una colaboración estrecha y continua. Todo esto, se materializa en la promoción de buenas prácticas en el marco de nuestra gobernanza de IA.
Para hacer esta información accesible a todos los empleados, hemos publicado dos guías: la “Guía de IA Generativa para empleados” que ofrece una serie de directrices a la hora de usar IA generativa en el día a día y la “Guía de IA responsable para áreas de negocio”, dirigida a orientar a los equipos en un desarrollo responsable de productos y servicios con IA.
En resumen, la promoción de una cultura de inteligencia artificial responsable requiere un compromiso continuo con la formación y la colaboración. Equipar a los empleados con el conocimiento y las habilidades necesarias es fundamental para garantizar que la IA se aplique de manera ética y eficaz.
¿A qué personas que trabajan en Telefónica nominas para esta entrevista que consideres excelente en su trabajo?
Tengo la gran suerte de trabajar con profesionales excepcionales, que cumplen con sus roles dentro de la gobernanza de la IA de manera sobresaliente y cuya dedicación a este proyecto es ejemplar. Me gustaría nominar a:
- Javier Sáez Tovar que participa como RAI Champion (Responsible AI Champion – rol clave en la gobernanza) de Telefónica Tech y que aporta un gran valor al proyecto con su visión legal y jurídica, además de su proactividad.
- Blanca Gómez Gómez, del equipo de Compliance Global, que trabaja arduamente en hacer que este proyecto sea una realidad y cuya predisposición y profesionalidad son clave en su implementación.