Inteligencia Artificial, regulación y ética

“Sin privacidad no hay igualdad. Si se nos trata en base a nuestros datos, no se nos trata como a personas que son iguales”, afirma Véliz, autora del libro “Privacidad es poder”, elegido libro del año por The Economist en 2020.

Regulación Inteligencia Artificial

Tiempo de lectura: 7 min

La Inteligencia Artificial está cada vez más presente en sectores de la industria, la automoción, la salud o la mercadotecnia, entre otros, lo que obliga a una necesaria regulación, así como unas normas éticas que la guíen

Son aspectos clave con el objetivo de que esta disciplina, que tiene un grandísimo potencial, pueda seguir  avanzando en la mejora de la calidad de vida de los ciudadanos. Y es que se trata de unas normas que preserven los derechos fundamentales y la privacidad de las personas

Ejes de la Inteligencia Artificial 

En este sentido, el catedrático de Ciencias de la Computación e Inteligencia Artificial de la Universidad de Granada, Francisco Herrera, habla de una Inteligencia Artificial “confiable”, que debe basarse en tres pilares, como son el desarrollo de sistemas conforme a la ley, la ética y un correcto funcionamiento que prevea medidas ante cualquier efecto adverso. 

A estos tres ejes, suma otros siete requisitos que se piden a los sistemas inteligentes, como son intervención humana, robustez, gestión de la privacidad de datos, transparencia, diversidad y no discriminación, bienestar social y medioambiental y rendición de cuentas. 

Por su parte, el profesor titular de Filosofía del campus granadino y experto en Ética Tecnológica Francisco Damián Lara alerta de que los expertos en ética se encuentran “abrumados”, dado que lo que está por venir es “tremendo”. 

“Nunca la humanidad se ha enfrentado a retos tecnológicos tan grandes, es una cuarta revolución industrial que afecta a los valores esenciales”, apunta. 

Por ello, Lara se pregunta cuestiones como “¿Hasta qué punto la inteligencia artificial puede suponer ciertas discriminaciones por cuestiones técnicas? ¿Si entrenas a una máquina con datos históricos ya sesgados, acabará por repetir tales sesgos?”, y defiende el diseño de sistemas de IA que no supongan, por ejemplo, una amenaza a la igualdad. 

Regulación de la Inteligencia Artificial 

A la cabeza de la regulación de la Inteligencia Artificial está la Unión Europea, ante la mirada de países como Estados Unidos o China, que esperan conocer el modelo en el que se trabaja en Europa, para empezar ellos a legislar. 

El pasado mes de mayo, el Parlamento Europeo aprobó el ‘Informe sobre Inteligencia Artificial en la Era Digital’, que marca las líneas a seguir a la que será la legislación pionera en Inteligencia Artificial. Este informe parte de la propuesta de reglamento realizada previamente por la Comisión Europea para armonizar la normativa sobre IA, en abril de 2021.  

En el trabajo aprobado por el Europarlamento se destaca que «muchos regímenes autoritarios» utilizan la inteligencia artificial para «controlar, espiar y vigilar» a sus ciudadanos y concluye que «cualquier forma de marcaje sin restricción a gran escala por parte de las autoridades públicas» es contraria a los valores europeos. 

El texto además señala que hay «empresas de la Unión Europea» que han vendido a regímenes autoritarios de países no pertenecientes a la UE sistemas biométricos cuyo uso sería ilegal en la UE». 

Ley de intercambio de datos 

Además, la Comisión aprobó el pasado mayo, una ley de gobernanza de datos, que fomenta el intercambio de información entre empresas, ciudadanos y el sector público para aprovechar el potencial económico de un sector que prevé gestionar 175 zettabytes (175 billones de gigabytes) en 2025. 

Se establece la creación de ‘intermediarios de datos‘, unas nuevas entidades que se encargarán de almacenar y procesar los datos, y que incluye un servicio de intermediación entre quienes quieran usarlos, ya sea el sector público o el privado. 

Estos entes tendrán que demostrar la neutralidad de su servicio de intermediación para garantizar que los datos intercambiados se usarán con los fines previstos y no los venderán a otras empresas para obtener un beneficio económico. 

El nuevo reglamento, que empezará a aplicarse en septiembre del año que viene, también fomenta la reutilización de datos en poder del sector público que están protegidos por derechos de propiedad intelectual, en ámbitos como la agricultura, la sanidad o el medio ambiente. 

Además, prevé el intercambio de datos para fines altruistas, como investigaciones médicas. 

Esta normativa forma parte de las nuevas leyes que está promoviendo Bruselas para regular la economía digital y fomentar el intercambio de datos, como la futura directiva de inteligencia artificial, la ley para incentivar el internet de las cosas o el Reglamento General de Protección de Datos, aprobado en 2016. 

España, protagonista en IA 

El catedrático Francisco Herrera destaca el papel que desempeña España en esta materia, como lo demuestra que se negocia con la UE el convertirse en país piloto sobre Inteligencia Artificial. Además. España se puede convertir en el primer país de la Unión Europea con una agencia estatal de supervisión (AESIA), cuya sede está en periodo de decisión, y que se antepondrá a la entrada en vigor del futuro Reglamento europeo sobre IA. 

Este programa piloto quiere ayudar a las empresas a desarrollar sistemas de inteligencia artificial que no invadan la vida privada y permitan mitigar riesgos en ámbitos como el sanitario, según la directiva que está negociando la Unión Europea. 

Para ello, el Ejecutivo español lanzará invitaciones para que todas las compañías que quieran participar en esta iniciativa presenten sus proyectos en materia de inteligencia artificial, de tal manera que las seleccionadas puedan colaborar durante tres meses con las autoridades para analizar si cumplen los requisitos de la normativa europea. 

El programa permitirá a los innovadores probar sus sistemas de inteligencia artificial en ambientes controlados y obtener certeza legal sobre cómo aplicar las normas. 

Esta iniciativa piloto se enmarca dentro de la presidencia española de la UE del segundo semestre de 2023, en el que España tendrá que cerrar las negociaciones de la directiva europea sobre Inteligencia Artificial que se espera entre en vigor en 2024

Ética y confianza 

Más allá de la regulación legal, está la ética con la que se debe trabajar la Inteligencia Artificial y el reto que esta herramienta debe proporcionar a los ciudadanos. 

En este sentido, destacan proyectos como las de la UNESCO y Telefónica, plasmado en  una  Carta de Intenciones con el fin de desarrollar iniciativas conjuntas que promuevan, impulsen e implementen la Recomendación sobre la Ética de la Inteligencia Artificial (IA) aprobada por la Conferencia General de la UNESCO en noviembre 2021. 

En ella, se demanda valores como el respeto, protección y promoción de los derechos humanos, las libertades fundamentales y la dignidad humana; la prosperidad del medio ambiente y los ecosistemas; garantizar la diversidad y la inclusión, y vivir en sociedades pacíficas, justas e interconectadas 

Francisco Herrera, que además forma parte del Consejo Asesor de Inteligencia Artificial de España, señala que “no estamos hablando de una inteligencia artificial que sustituya al humano”, sino que “va a colaborar con él. Y para que confiemos en ella tiene que tener unas garantías éticas y técnicas”. 

Cuestión en la que Lara señala que “el reto de la inteligencia artificial es el de la confianza”, e incide en la importancia de que “nos tomemos en serio explicar cómo una máquina ha podido aprender, que sea transparente, si es capaz de ser autónoma, cómo se respondería si genera un daño, quién paga el jarrón roto”. 

Por su parte, Carissa Véliz, profesora de Filosofía en el Instituto para la Ética en Inteligencia Artificial y miembro del Hertford College de la Universidad de Oxford, señala en un artículo en el Informe Sociedad Digital en España 2022, de la Fundación Telefónica, que la privacidad es fundamental para el desarrollo de una sociedad digital inclusiva centrada en la ciudadanía. 

Sin privacidad, no hay igualdad 

Carissa Véliz demanda que “para que la ciudadanía sea fuerte, tiene que tener la mayor parte del poder político, y en la era digital eso implica tener control sobre los datos”.  

Por ello, reclama a las instituciones que sí son “nuestras aliadas en la recuperación de nuestra privacidad serán también aliadas de la democracia».  

“Ante la amenaza de tendencias autoritarias, la tarea de las democracias es proteger la privacidad y exportarla en forma de cultura, estándares legales y tecnologías que sean respetuosas de los derechos de la ciudadanía”, concluye. 

Los derechos de la ciudadanía, bajo esa esencia, es mediante la que tiene que seguir creciendo la Inteligencia Artificial, de la mano de los seres humanos, pero nunca de espaldas o de tapado a ellos. 


Medios de comunicación

Contacta con nuestro departamento de comunicación o solicita material adicional.