Searcher
Back

Regulación de la IA: un enfoque europeo basado en el riesgo para Europa

 

La Unión Europea propone aplicar regulación ex-ante a la Inteligencia Artificial de alto riesgo para permitir un desarrollo fiable y seguro de esta tecnología en Europa.

Uno de los dos documentos estratégicos presentados por la Unión Europea el pasado febrero fue el Libro Blanco sobre Inteligencia Artificial (IA). En las semanas previas a su publicación, se compartieron dos borradores inacabados, lo que suscitó algunos debates interesantes. En uno de ellos se proponía establecer una moratoria de tres años, es decir prohibir por un plazo de tres años, para el uso del reconocimiento facial en los espacios públicos. Este “globo sonda” puso de relieve las opiniones divergentes sobre esta cuestión de dos agentes relevantes en el desarrollo de la IA: Google y Microsoft. Mientras que el CEO de Alphabet apoyó la propuesta de la moratoria, el director jurídico de Microsoft mostró su oposición a la medida. Este desacuerdo ha añadido algo de picante a la espera de la publicación del Libro Blanco que determinará el papel que desempeñará Europa en la carrera de la IA en los próximos años. 

El mencionado Libro Blanco propone una estrategia industrial de la IA para que Europa adopte y lidere el desarrollo de esta tecnología y establece opciones para un marco legislativo que impulse la confianza en la IA respetando los derechos fundamentales y la ética de Europa. El marco normativo propuesto para la IA puede resumirse en tres ideas básicas

  • El marco jurídico actual de la UE, que ya se aplica a la IA, debe adaptarse para hacer frente a los desafíos que plantean las características específicas de la IA.
  • La IA de alto riesgo debe ser regulada ex-ante, lo que incluye pasar por un proceso de certificación para garantizar el cumplimiento de las obligaciones definidas antes de su uso.
  • La IA no identificado como de riesgo alto no está sujeta a una regulación específica, pero puede adherirse voluntariamente a un sistema de etiquetado (labeling scheme) que se definirá para proporcionar un mayor grado de confianza en el servicio a los ciudadanos. El cumplimiento de las obligaciones incluidas en el sistema de etiquetado es obligatorio para quienes se adhieran voluntariamente a él.

El enfoque basado en el riesgo, como ya se propuso en el dictamen de la Comisión de Ética de los Datos del Ministerio Federal del Interior de Alemania, parece un enfoque adecuado para hacer frente a los problemas de la Inteligencia Artificial. Ciertamente, los efectos jurídicos y sobre los derechos humanos de un sistema basado en la Inteligencia Artificial para recomendar películas a un cliente de Movistar TV varían enormemente a efectos ede un vehículo de conducción totalmente autónomo o un sistema que evalúe la probabilidad de éxito de un trasplante de corazón a un paciente entre un grupo de posibles receptores. De este modo, el enfoque legislativo y regulatorio debe ser una combinación de normas ex-ante y ex-post con una intervención creciente al aumentar los riesgos; es decir, que abarquen desde una intervención más ligera o nula para la IA de bajo riesgo, hasta una intensa intervención para la IA de alto riesgo.

Como siempre ocurre con las propuestas regulatorias, el diablo se esconde en los detalles, lo que significa que se necesita una definición más precisa del marco para evaluar si es adecuado para alcanzar el propósito deseado. Estas son algunas preocupaciones y opciones de mejora a la propuesta de la UE:

  • El doble criterio acumulativo para definir la IA de alto riesgo, basado en el sector de las aplicaciones y el caso de uso, parece adecuado. Se necesita una definición más precisa para proporcionar seguridad jurídica sobre lo que es de alto riesgo y, por lo tanto, está sujeto a la regulación ex-ante. A este respecto, tratar la identificación biométrica como un caso especial de alto riesgo sin recurrir a una moratoria temporal para su uso es un enfoque positivo que evita que Europa se quede atrás y que sus industrias se vean limitada en el desarrollo de casos de uso.     
  • Es necesario definir con mayor precisión el conjunto de obligaciones previstas para la IA de alto riesgo para que sean eficaces y aplicables. Esto es importante para la definición del proceso de certificación previa, que no debe ser demasiado gravoso ni tener repercusiones significativas en el tiempo de comercialización de los servicios de Inteligencia Artificial: el tiempo necesario para superar el proceso de certificación debe ser breve. El ritmo frenético de cambio de las nuevas tecnologías y la IA, las posibles actualizaciones continuas de los sistemas de IA y la capacidad de autoaprendizaje de algunas de ellas deben tenerse muy en cuenta para que los procesos de certificación sigan siendo eficaces y, al mismo tiempo, no retrasen la evolución y la mejora de la IA.
  • Si bien la regulación ex-ante y el proceso de certificación previa es un enfoque válido, en la propuesta no se considera la adopción de espacio de innovación seguros (regulatory sandboxes). En esta etapa temprana, estos espacios o sandboxes podrían fomentar un marco más propicio para la innovación y, al mismo tiempo, ofrecer un entorno más seguro y fiable para los nuevos sistemas de IA y para que las autoridades obtengan un conocimiento más profundo sobre la supervisión y la aplicación de la regulación.   
  • En el Libro Blanco se propone un nuevo marco para la IA en Europa, pero la IA ya está desempeñando un papel en nuestras vidas que será mucho más relevante cuando este marco se apruebe y se aplique; algunos de los usos se calificarán como de alto riesgo mientras que otros no. Por lo tanto, es necesario realizar una evaluación de los efectos de esta nueva regulación en los servicios ya existentes basados en la IA y de la forma en que se aplicará. Ello debería permitir que esos servicios no se interrumpan y al mismo tiempo fomentar la definición de un marco más eficaz y adecuado para la IA.
  • El alcance del marco propuesto, que afecta a todos los proveedores de productos o servicios basados en IA que se ofrecen en la UE, independientemente del lugar en que se encuentre el proveedor -de manera similar a lo que ocurre con el RGPD-, allana el camino hacia un campo de juego equilibrado o level playing field, donde todas las empresas puedan competir en igualdad de condiciones. No obstante, debe evitarse la capacidad de elección de las implementaciones más flexibles. Por ello, la UE debería predefinir, para cada sector -financiero, farmacéutico, aeronáutico, dispositivos médicos, protección del consumidor, etc.- la autoridad de que Estado miembro tendrá el mandato para supervisar las empresas que no están basadas en la UE y que prestan servicios en dicho sector.      

Ai y EU

 

Tras el arduo trabajo de los funcionarios de la UE que condujo a la publicación el 19 de febrero del Libro Blanco sobre Inteligencia Artificial, la mala noticia para ellos es que aún quedan muchos días de esfuerzo y dedicación para la adopción final de una estrategia y un marco normativo para la IA en la Unión Europea. El 14 de junio es el próximo hito relevante para este proceso, cuando finalice el período de comentarios de la consulta abierta para este Libro Blanco.

La buena noticia para los funcionarios europeos, y para toda Europa, es que el Libro Blanco es un primer paso en la dirección correcta para que Europa lidere el desarrollo y adopción de una IA centrado en el ser humano, ético y basado en los valores europeos. Los cambios adoptados tras los dos borradores no oficiales del Libro Blanco son alentadores, que junto con el proceso de consulta asegura un enfoque aún más adecuado para el objetivo previsto de una IA confiable en Europa. Ahora todos deberíamos contribuir al debate sobre el nuevo marco normativo de la IA para construir una Europa mejor y más fuerte en la que nadie se quede atrás. 

RELATED POSTS