¿Es posible conseguir una Inteligencia Artificial ética?

Ha llegado el momento de decidir qué principios éticos deben regir el uso de la Inteligencia Artificial y cuáles son los límites de esta tecnología.

Raquel Carretero Juárez

Raquel Carretero Juárez Seguir

Tiempo de lectura: 5 min

La Inteligencia Artificial (IA) se está desarrollando a pasos agigantados y se espera que su aplicación se multiplique exponencialmente a corto plazo. En el año 2019, el crecimiento del mercado mundial de IA aumentó en un 154% y alcanzará un valor cercano a los 31.236 millones de dólares en el año 2025, según estimaciones de Statista. Estas cifras revelan que la IA será una de las tecnologías con más impacto en la sociedad en las próximas décadas y nos lleva a preguntarnos cómo debemos gestionar los cambios que traerá consigo.

La ciencia ficción, con títulos como Matrix, Terminator o Transformers, ha contribuido a crear una percepción general de amenaza en la utilización robots y sistemas de IA autónomos que se rebelan contra la humanidad. Salvando las distancias con el cine y pensando en las oportunidades que la IA ofrece para el progreso de la sociedad, ha llegado el momento de acordar qué principios éticos deberían regir el uso de esta tecnología y cuáles son sus límites.

Para debatir sobre este tema, Daniel Escoda (Director de Regulación, Privacidad y Derecho de la Competencia, Telefónica España), Richard Benjamins (Data and AI Ambassador, Telefónica S.A.) y Christoph Steck (Director de Políticas Públicas e Internet, Telefónica S.A.) se reunieron con los alumnos de 42 Madrid para analizar los riesgos derivados del uso de esta tecnología y repasar las iniciativas empresariales e institucionales que se están llevando a cabo en este campo.

42 Madrid, el campus de programación sin profesores y sin horarios más revolucionario en España, se convirtió en el punto de encuentro perfecto para que el derecho, la ciencia y las políticas públicas respondieran a todas las preguntas e inquietudes de los alumnos que están participando actualmente en el programa y que, en el futuro, se dedicarán a profesiones digitales.

Cerebro Inteligencia Artificial

¿Qué valores o principios éticos deben regir la IA?

Los dilemas éticos que presenta la tecnología en general no son nuevos. Ya en 1985, Judith Jarvis se preguntaba en un artículo publicado en The Yale Law Journal por cuestiones complejas tan conocidas como el dilema del tranvía (The trolley problem). Para ello, debemos imaginar una persona que conduce un tranvía sin frenos y tiene ante sí una bifurcación del camino en dos vías: en el camino de la izquierda hay cinco personas y, en el de la derecha, solo hay una. ¿Qué decisión debe tomar el conductor? ¿Sería lícito matar a una persona para salvar a las otras cinco?

El conductor tendría que tomar una decisión basada en criterios éticos para resolver esta complicada ecuación. ¿Qué ocurriría si una máquina basada en IA tuviera que tomar esta decisión? ¿En qué valores o principios basaría su elección? Es fundamental dotar a la IA de principios, valores o códigos éticos que condicionen las decisiones que toman estas máquinas en nombre del ser humano.

“La tecnología está aquí. Ahora es el momento de los valores y debemos elegir cuáles regirán el mundo digital”, Christoph Steck.

Christoph Steck

Christoph Steck durante su intervención en 42 Madrid.

El debate sobre este asunto está adquiriendo cada vez más importancia por las consecuencias que tendrá para la economía, los sistemas democráticos y hasta en el campo militar.

Actualmente, World Economic Forum detalla que el 71% de horas totales de trabajo las desempeñan humanos, frente al 29% que realizan las máquinas o los algoritmos. En tan solo dos años, se estima que esta cifra haya cambiado a un 58% de horas de trabajo realizadas por personas y un 42% por máquinas o algoritmos. En términos cuantitativos, se espera un desplazamiento de 75 millones de puestos de trabajo, aunque podrán surgir otros 133 millones de nuevos empleos con funciones laborales distintas.

Más allá del impacto en la economía, la propagación de noticias falsas (fake news) creadas y distribuidas mundialmente a gran velocidad está impactando directamente en la formación de la opinión pública y en el normal funcionamiento de la democracia. Así lo demuestra el último Eurobarómetro (2018), que constata que el 83% de los europeos afirman que las noticias falsas representan un peligro para la democracia.

En el ámbito militar, los conocidos como “killer robots” están revolucionando el mundo de las armas, al ser capaces de seleccionar y atacar objetivos sin necesidad de interacción por parte de operadores humanos.

“Los principios éticos que necesitamos aplicar a la Inteligencia Artificial nunca serán suficientes si no respetan”, Richard Benjamins.

Richard Benjamins

Richard Benjamins durante su intervención en 42 Madrid.

Distintas empresas, instituciones internacionales y gobiernos han comenzado a desarrollar principios éticos para la aplicación de la IA para evitar estos posibles efectos negativos y potenciar las oportunidades que presenta para el desarrollo de la sociedad.

En esta línea, un reciente estudio de Harvard revela la proliferación de principios o directrices sobre cómo debe construirse y utilizarse la IA en empresas, gobiernos y otros grupos de interés. Entre las treinta y dos iniciativas que condensa el estudio, destaca el caso de Telefónica, como primera empresa de telecomunicaciones que se dotó de Principios de Inteligencia Artificial para garantizar un impacto positivo en la sociedad. Este es nuestro compromiso para diseñar, desarrollar y utilizar la Inteligencia Artificial con integridad y transparencia para asegurarnos de que asumimos los beneficios y retos de la tecnología de forma ética y responsable en toda nuestra organización.

En la esfera internacional, también son reseñables las Directrices éticas para una IA de confianza, publicadas por las Comisión Europea en abril de 2019, tras un proceso de consulta pública que contó con la contribución de más de 500 actores, entre ellos, Telefónica. Incluso el Vaticano ya está avanzando en esta dirección, con iniciativas como “Common Good in the Digital Age”.

Todas estas iniciativas tienen un objetivo común: diseñar, desarrollar y aplicar una Inteligencia Artificial centrada en las personas. Esta es la premisa que propusimos en nuestro Manifiesto Digital, donde exponemos la necesidad de desarrollar una IA ética, responsable y transparente.

Esto tan solo es el comienzo del viaje. Es necesario seguir trabajando continuamente para mejorar y abordar cualquier nuevo reto potencial que surja a partir de la Inteligencia Artificial y su aplicación.

Compártelo en tus redes sociales


Medios de comunicación

Contacta con nuestro departamento de comunicación o solicita material adicional.

Logo Centenario Telefónica Celebra con nosotros el Centenario de Telefónica
EMPIEZA LA AVENTURA