El uso de la IA puede generar una serie de riesgos que deben ser valorados y mitigados. Por eso, cuando se desarrolla o utiliza un sistema de IA, se deben considerar los siguientes riesgos:
1. Riesgo en Derechos Fundamentales
Los sistemas de IA pueden afectar a la dignidad humana, a la privacidad, a la libertad de información, a la no discriminación, al derecho a la educación, a la protección de los consumidores y a la igualdad de género, entre otros. De manera no intencionada, pueden perpetuar sesgos y discriminaciones presentes en los datos de entrenamiento, afectar la autonomía de las personas interfiriendo en la toma de decisiones y generar decisiones sesgadas.
Medidas: garantizar la supervisión humana, establecer métricas para detectar y corregir sesgos en los datos utilizados. Optimizar la transparencia de las operaciones de IA, diseñar interfaces accesibles e informar a los usuarios que interactúan con un sistema de IA.

2. Riesgo en Privacidad
Los sistemas de IA podrían implicar una exposición o tratamiento inadecuado de datos personales que se procesen o generen durante el entreno o uso del sistema. Pueden recopilar, procesar y almacenar grandes cantidades de datos personales, como datos biométricos, de salud, etc. Este manejo puede llevar a la intrusión en la vida privada de las personas y resultar en la exposición no autorizada, manipulación o mal uso de dicha información.
Medidas: asegurar que el tratamiento sea adecuado, necesario y proporcional y especificar los tipos de datos personales y tratamientos realizados. Se debe incorporar la privacidad desde el diseño y realizar evaluaciones de riesgos.
3. Riesgo de Seguridad Personal
Los sistemas de IA podrían afectar a la seguridad de las personas causando daño físico o violencia en los individuos. Pueden malinterpretar datos o tomar decisiones que resulten en acciones perjudiciales, como accidentes con vehículos autónomos o errores en sistemas de control.
Medidas: evaluar e identificar vulnerabilidades periódicamente, instaurar protocolos de seguridad actualizados y mantener un monitoreo para asegurar la integridad de las personas.

4. Riesgo sobre la Salud Mental
El sistema de IA podría causar daños psicológicos o afectar a la salud mental de las personas. Esto puede ocurrir debido a interacciones con sistemas automatizados que no tengan en cuenta las necesidades emocionales humanas, que las utilicen de forma interesada, o que generen contenidos que promuevan estereotipos negativos, acoso o dependencia.
Medidas: evaluar y monitorear que el sistema no cause daños psicológicos, garantizar transparencia en su funcionamiento y educar a los usuarios para su manejo responsable.
5. Riesgo sobre la Sociedad
Los sistemas de IA pueden tener un impacto negativo para el bienestar individual, comunitario y social. Esto puede ocurrir mediante la amplificación de sesgos, concentración de poder, erosión de la privacidad, manipulación de la opinión pública, desplazamiento laboral o la toma de decisiones automatizadas que perjudique a ciertos grupos.
Medidas: evaluar el impacto social antes y durante el desarrollo del sistema y promover un uso justo y equitativo. Tomar un enfoque inclusivo para garantizar que los beneficios de la IA estén disponibles y accesibles independientemente de los diferentes grupos de edad, culturas, etc.

6. Riesgo en el Medio Ambiente
Los sistemas de IA pueden no ser respetuosos con el medio ambiente debido al consumo energético y las emisiones de carbono durante todo su ciclo de vida. Esto incluye el gasto energético de centros de datos, la huella de carbono del tráfico de datos y procesamiento en la nube y los desechos electrónicos generados, entre otros.
Medidas: implementar sistemas con la capacidad computacional adecuada a las necesidades específicas para evitar el uso excesivo de recursos, medir y controlar las emisiones de carbono y gestionar responsablemente la eliminación de hardware obsoleto.
7. Riesgo en Propiedad Intelectual
Los sistemas de IA podrían infringir los derechos de protección intelectual de sus legítimos titulares en los contenidos de entrada o de salida del sistema. Esto incluye el uso de datos sin la autorización pertinente, la creación de contenidos derivados y la falta de documentación y trazabilidad del uso de obras preexistentes, entre otros.
Medidas: entrenar el sistema con datos e información para los cuales se tienen lo derechos suficientes y confirmar que el sistema utilizado no infringe los derechos de propiedad intelectual en su salida generada.

8. Riesgo en Ciberseguridad
Las infraestructuras que soportan los sistemas de IA pueden tener vulnerabilidades de seguridad y ser objeto de ataques cibernéticos. Los accesos no autorizados podrían dar lugar a la manipulación de datos de entrenamiento, la extracción de información sensible del modelo o sus usuarios, o la indisponibilidad del servicio.
Medidas: incorporar la seguridad desde el diseño, considerando desde el inicio las posibles vulnerabilidades de ciberseguridad. Establecer políticas de acceso y uso, realizar auditorías y evaluaciones de seguridad, proteger la infraestructura física y cibernética, entrenar al personal en ciberseguridad y supervisar constantemente para prevenir y mitigar ciberataques.