Buscador
Atrás

De los principios de IA a la IA responsable: retos

 

La adopción de principios de Inteligencia Artificial por parte de las empresas, como Telefónica, es un paso muy relevante en el futuro de esta tecnología. Dado que ya se han identificado varios riesgos derivados de esta tecnología, numerosas compañías han publicado sus principios de IA para asegurarse de que sus actividades permanecen en el lado "bueno". Sin embargo, esta actividad de las organizaciones individuales no es suficiente y aún necesitamos más para conseguir una IA sostenible en nuestras sociedades. Por eso, gobiernos e instituciones internacionales también deben actuar. En Telefónica, consideramos que los principios de Inteligencia Artificial han de incluir desafíos como:

 

1. Autonomía de los sistemas de IA y responsabilidad

Cuando los sistemas son autónomos y de autoaprendizaje, la responsabilidad por el comportamiento y las acciones de dichos sistemas son menos evidentes. En el mundo anterior a la IA, el usuario era el responsable del uso incorrecto del dispositivo, mientras que el dispositivo se encontraba bajo la responsabilidad del fabricante. Cuando los sistemas son autónomos y aprenden con el tiempo, algunos comportamientos podrían no estar previstos por el fabricante. Por lo tanto, es más difícil decidir quién sería responsable en caso de que algo salga mal. Un claro ejemplo de esto son los coches sin conductor. Hay debates en curso sobre si se necesita establecer un nuevo tipo de persona jurídica para sistemas autónomos de autoaprendizaje, como un estatuto jurídico para los robots[i], pero esta medida genera cierta controversia[ii]. Aunque esta cuestión está aún debatiéndose, los defensores que indican que la legislación actual es suficiente parecen ser mayoría por el momento.

 

2. IA y el futuro del trabajo

La IA puede asumir un gran volumen de tareas aburridas, repetitivas o peligrosas. Pero si esto sucede a gran escala, ¿podrían desaparecer muchos puestos de trabajo y aumentaría considerablemente el desempleo[iii]? Si cada vez trabajan menos personas, los gobiernos recibirán menos impuestos sobre la renta, mientras que los costes de las prestaciones sociales aumentarán debido al aumento del desempleo. ¿Cómo puede hacerse sostenible? ¿Debe haber un "impuesto a los robots”[iv],[v],[vi]? ¿Cómo se podrán pagar las pensiones cuando cada vez trabajen menos personas? ¿Hay una necesidad de una renta básica universal (RBU) para todo el mundo[vii]? Si la IA se lleva la mayoría de los trabajos actuales, ¿de qué vivirán todas las personas desempleadas?

 

3. La relación entre las personas y los robots

¿Cómo deben relacionarse las personas con los robots? Si los robots son más autónomos y aprenden durante su "vida útil", ¿cuál debe ser la relación (permitida) entre robots y personas? ¿Podríamos tener a un jefe robot o un sistema de IA[viii]? En Asia, los robots ya cuidan a ancianos, acompañándolos en su soledad[ix],[x],[xi]. Y las personas ¿podrían casarse con robots[xii]?

 

4. Concentración de datos, poder y riqueza

El poder y la riqueza se concentran en algunas empresas de gran tamaño[xiii] [xiv]. Actualmente, la IA está dominada por algunas compañías digitales, incluidas las conocidas como GAFAM[xv] y algunas macrocompañías chinas (Baidu, Alibaba, Tencent). Esto se debe principalmente a que las organizaciones que tienen acceso a grandes cantidades de datos es más probable que tiendan a la creación de oligopolios[xvi]. Además de la falta de competencia, existe el peligro de que esas compañías mantengan la IA como conocimiento en posesión, y no compartan nada con la sociedad si no es para conseguir el precio más alto posible[xvii]. Otra preocupación de esta concentración es que las empresas pueden ofrecer IA de alta calidad como un servicio, basado en sus datos y algoritmos que tienen en posesión (caja negra). Cuando se utilizan estos servicios de IA para servicios públicos, el hecho de que sea una caja negra (información sin sesgos, atributos no deseados, rendimiento, etc.) suscita dudas importantes, como cuando el departamento de policía de Los Ángeles anunció que usa el reconocimiento facial de Amazon (Rekognition) para la vigilancia policial[xviii] [xix]. A este respecto, el Instituto de Datos Abiertos de Londres ha iniciado un interesante debate sobre si los datos y algoritmos de IA deben ser cerrados, compartidos o abiertos[xx].

 

5. Uso malintencionado de la IA

Todos los puntos mencionados anteriormente son problemas porque la IA y los datos se aplican con la intención de mejorar u optimizar nuestras vidas. Sin embargo, como cualquier tecnología, la IA y los datos también pueden utilizarse con intenciones perversas.[xxi]. Piense en ataques cibernéticos con IA[xxii], terrorismo o en la influencia en eventos importantes con noticias falsas[xxiii], etc.

 

6. Sistemas de armas autónomas letales

La IA también puede aplicarse para la guerra y las armas, y especialmente los sistemas de armas autónomas letales (LAWS, por sus siglas en inglés) son un tema polémico. Que los gobiernos permitan LAWS o no es una decisión política explícita. Algunos consideran este buen uso, mientras que otros podrían llamarlo mal uso de IA. Varias organizaciones están trabajando en un tratado internacional para prohibir los "robots asesinos"[xxiv].  El problema ha estado en boga en los últimos meses, gracias a que los empleados de Google publicaron una carta a su director ejecutivo cuestionando la participación de la compañía en proyectos de defensa[xxv]. Este acto ha provocado que Google reconsidere su posición y ha declarado que no participará en dichas iniciativas.

 

Inteligencia Artificial

 

Para obtener respuestas a estas preocupaciones, gobiernos nacionales e instituciones internacionales han establecido grupos de expertos para elaborar propuestas[xxvi],[xxvii] ,[xxviii], orientados a debatir sobre los problemas mencionados y otros temas de interés, como las inversiones y las capacidades.  Por otra parte, la Comisión Europea ha establecido un grupo de expertos en IA[xxix] de alto nivel para ayudar a desarrollar políticas para IA relacionadas con inversiones, capacidades y un marco ético y legal adecuado.

En junio de 2018, Telefónica publicaba su Manifiesto Digital para establecer el punto de partida de nuestros principios de IA. El Manifiesto Digital no solo se centra en la IA, sino en la necesidad de establecer un nuevo acuerdo digital para renovar nuestras políticas sociales y económicas y modernizar nuestras democracias para la era digital. Los pilares básicos del Manifiesto son: inclusión, transparencia, rendición de cuentas, responsabilidad y equidad en áreas como la conectividad a Internet, la educación, el empleo, los datos y la IA y las plataformas digitales globales.

Estamos viviendo un momento fascinante y, aunque existen riesgos asociados a la captación masiva de datos e IA, creemos que hay más oportunidades para hacerlo "bien" que riesgos que para hacerlo "mal", pero debemos estar preparados.

 


[i] (2017, 01). MOTION FOR A EUROPEAN PARLIAMENT RESOLUTION. European Parliament. 05, 2018, http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//NONSGML+REPORT+A8-2017-0005+0+DOC+PDF+V0//EN

[ii] (2018, 01). OPEN LETTER TO THE EUROPEAN COMMISSION ARTIFICIAL INTELLIGENCE AND ROBOTICS. Robotics Openletter. 05, 2018, http://www.robotics-openletter.eu/

[iii] (2017, 05). Technology, jobs, and the future of work. mckinsey&company. 05, 2018, https://www.mckinsey.com/global-themes/employment-and-growth/technology-jobs-and-the-future-of-work

[iv] (2017, 03). Robots won't just take our jobs – they'll make the rich even richer. The guardian. 05, 2018, https://www.theguardian.com/technology/2017/mar/02/robot-tax-job-elimination-livable-wage

[v] (2017, 02). The robot that takes your job should pay taxes, says Bill Gates. Quartz. 05, 2018, https://qz.com/911968/bill-gates-the-robot-that-takes-your-job-should-pay-taxes/

[vi] (2017, 02). European parliament calls for robot law, rejects robot tax. Reuters. 05, 2018, https://www.reuters.com/article/us-europe-robots-lawmaking-idUSKBN15V2KM

[vii] 017, 12). We could fund a universal basic income with the data we give away to Facebook and Google. The next web. 05, 2018, https://thenextweb.com/artificial-intelligence/2017/12/05/we-could-fund-a-universal-basic-income-with-the-data-we-give-away-to-facebook-and-google/

[viii] (2016, 09). Why a robot could be the best boss you've ever had. The guardian. 05, 2018,https://www.theguardian.com/media-network/2016/sep/09/robot-boss-best-manager-artificial-intelligence

[ix] (2017, 08). Robot caregivers are saving the elderly from lives of loneliness. Engadget. 05, 2018, https://www.engadget.com/2017/08/29/robot-caregivers-are-saving-the-elderly-from-lives-of-loneliness/

[x] (2018, 02). Japan lays groundwork for boom in robot carers. The guardian. 05, 2018,https://www.theguardian.com/world/2018/feb/06/japan-robots-will-care-for-80-of-elderly-by-2020

[xi] (2018, 03). HOW ROBOTS WILL FIND YOU IN RETIREMENT HOMES AND TAKE YOU TO BINGO: A VISION FOR PERSON SEARCH AND TASK PLANNING. IEEE Intelligent Systems. 05, 2018,https://publications.computer.org/intelligent-systems/2018/03/27/robots-retirement-homes/

[xii] (2017, 04). Chinese man 'marries' robot he built himself. The guardian. 05, 2018, de https://www.theguardian.com/world/2017/apr/04/chinese-man-marries-robot-built-himself

[xiii] (2018, 01). Report: AI will increase the wealth inequality between the rich and poor. AI News. 05, 2018,https://www.artificialintelligence-news.com/2018/01/11/ai-wealth-inequality/

[xiv] (2016, 12). AI could boost productivity but increase wealth inequality, the White House says. CNBC. 05, 2018,https://www.cnbc.com/2016/12/21/ai-could-boost-productivity-but-increase-wealth-inequality-the-white-house-says.html

[xv] Google, Amazon, Facebook, Apple, Microsoft

[xvi] 2016, 11). AI could boost productivity but increase wealth inequality, the White House says. CNBC. 01, 2018,https://siliconangle.com/blog/2018/03/01/democratized-ai-could-put-the-tech-oligopoly-in-its-place-ibmml/

[xvii] (2018, 02). GOOGLE MUST BE STOPPED BEFORE IT BECOMES AN AI MONOPOLY. Wired. 05, 2018, https://www.wired.com/story/google-artificial-intelligence-monopoly/

[xviii] (2018, 05). Amazon is selling police departments a real-time facial recognition system. The Verge. 01, 2018, https://www.theverge.com/2018/5/22/17379968/amazon-rekognition-facial-recognition-surveillance-aclu

[xix] (2018, 05). Amazon Pushes Facial Recognition to Police. Critics See Surveillance Risk.. The New York Times. 05, 2018,https://www.nytimes.com/2018/05/22/technology/amazon-facial-recognition.html

[xx] (2018, 04). The role of data in AI business models (report). Open Data Institute. 05, 2018, https://theodi.org/article/the-role-of-data-in-ai-business-models/

[xxi] (2018, 02). The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation. Open Data Institute. 05, 2018,https://img1.wsimg.com/blobby/go/3d82daa4-97fe-4096-9c6b-376b92c619de/downloads/1c6q2kc4v_50335.pdf

[xxii] (2018, 02). Artificial intelligence poses risks of misuse by hackers, researchers say. Reuters. 05, 2018,https://www.reuters.com/article/us-cyber-tech/artificial-intelligence-poses-risks-of-misuse-by-hackers-researchers-say-idUSKCN1G503V

[xxiii] (2018, 04). Artificial intelligence is making fake news worse. Business Insiders. 05, 2018,http://uk.businessinsider.com/artificial-intelligence-is-making-fake-news-worse-2018-4

[xxiv] (2018, 04). France, Germany under fire for failing to back ‘killer robots’ ban. Politico. 05, 2018,https://www.politico.eu/article/artificial-intelligence-killer-robots-france-germany-under-fire-for-failing-to-back-robots-ban/

[xxv] (2018, 04). ‘The Business of War’: Google Employees Protest Work for the Pentagon. The New York Times. 05, 2018, https://www.nytimes.com/2018/04/04/technology/google-letter-ceo-pentagon-project.html

POSTS RELACIONADOS