¿Puede la IA sustituir la inteligencia emocional humana?

Aspectos que no se tuvieron en cuenta con el avance de la IA y quizás no sepas. Se supone que la lógica inexorable de los algoritmos nos garantiza una vida sin errores, sin embargo, los programadores mismos, están empezando a encender sus alarmas, por lo visto la inteligencia artificial no puede cumplir con todo lo que nos promete. ¿De verdad es tan inteligente como creemos? ¿Cuáles son los límites de la inteligencia artificial?

la Inteligencia Artificial podrá o no sustituir la Inteligencia Emocional Humana
Graciela Ares

Graciela Ares

Tiempo de lectura: 13 min

La inteligencia artificial es considerada la tecnología clave del futuro, facilita el trabajo de médicos, psicólogos, policías y podría reemplazar tanto a conductores de coches, como también a cualquier tipo de jugadores en red, y en todos los ámbitos de la vida cotidiana. La inteligencia artificial podría ayudarnos a tomar las mejores decisiones, tanto en un juego de ajedrez, como cuando conducimos y buscamos una dirección específica. También nos podrá orientar en un camino más corto y con menos tránsito, salir con un candidato u otro, etc.

Según un análisis del video DW Documental, La voz multimedia de Alemania, en donde se realizó un estudio profundo de todos los aspectos positivos de la IA para la humanidad y también, aquellos que van en sentido opuesto a nuestro desarrollo como humanos, sus diferentes miradas en referencia al avance tecnológico, sus parámetros morales  y métodos que utiliza la IA para alcanzar un modelo humano sin errores; se evidencia las siguientes conclusiones:

Su origen

Según Antonio Casillo, sociólogo de la escuela superior de Telecom París: «fuimos conquistados en un principio por la automatización, que buscó reducir el esfuerzo físicos, es decir, la cantidad de fuerza empleada». Los molinos, por ejemplo, fueron considerados un proceso automático durante siglos, pero con el tiempo, esta lógica comenzó a aplicarse también al trabajo inmaterial o intelectual. Hoy en día, estamos frente a una nueva forma de automatización, que llamamos de manera general, inteligencia artificial. 

En los años cincuenta, el desarrollo comienza a acelerarse de forma vertiginosa y se supone que la inteligencia artificial optimizará nuestras vidas. Se espera que conduzca coches, mejore la educación, nos guíe en una nutrición saludable, haga los mejores diagnósticos médicos, o encuentre en un chat inteligente la mejor manera de consolarnos.  

Estos avances son limitados hasta el comienzo de la década del dos mil, cuando nuevos y poderosos ordenadores centrales comienzan a procesar enormes cantidades de datos.  

Según Eric Sadin, filósofo, «estos sistemas pretenden digitalizar toda la realidad con el objetivo de saberlo todo en tiempo real«. Este propósito nos cautivó ya que tenía algo de “Divino”, sin tener en cuenta que gran parte de la realidad, escapa a la reducción digital.

Cinthia Rudin, investigadora en informática de Duke University, afirma que se han producido grandes avances en el reconocimiento de imágenes, gracias al sistema de aprendizaje profundo: el aprendizaje de múltiples capas. El cual desencadenó una fiebre en el campo de la inteligencia artificial. Este sistema de reconocimiento de imágenes cometía errores, una cada tres veces, pero en el 2012 una tecnología basada en el aprendizaje automático pudo reducir la tasa de error al 15 por ciento.

En la inteligencia artificial clásica basada en representaciones simbólicas, la máquina debía de ser alimentada con conocimiento. Luego se comprobó que el aprendizaje profundo funciona mucho mejor, porque se deja trabajar al propio ordenador, en lugar de decirle como procesar la información.

El aprendizaje profundo tiene sus orígenes en la cibernética, un área de información donde los ingenieros informáticos toman varias inspiraciones de la neurociencia. Con este nuevo método, los programadores ya no le describen a la máquina como es un rostro, sino que la maquina lo aprende por sí misma. 

El sistema se asemeja a una red de conexiones que siguen el modelo de nuestras neuronas del cerebro. Esta red neuronal artificial permite presentar una variedad de configuraciones, y así planificar o atenuar las señales entre las conexiones, para llegar a una señal de salida. Esta proporciona una respuesta final a una pregunta como, por ejemplo: ¿hay una cara en la foto? Es decir, una serie de fotos del rostro de una persona, sus partes como la frente, la nariz, el mentón, los labios o cejas hacen que el sistema interpreta finalmente que se trata de un rostro, y estos sistemas inteligentes, en una secuencia, ya pueden identificar, por ejemplo, un “rostro humano”. Claro que este modelo imita a todos los ejemplos que le han dado los mismos humanos.

Hoy en día este modelo se encuentra en las máquinas de fotos o celulares capaces de enfocar directamente en los rostros, también en las salas de video vigilancia, en lectores de códigos postales o de matrículas. Investigadores de la Universidad de Míchigan, se propusieron estudiar hasta qué punto los sistemas son efectivos cuando se cambia ligeramente el aspecto de lo que se quiere informar.

En clínicas de radiología, donde se están probando la tecnología de lectores automáticos, la inteligencia artificial todavía no asiste a los médicos, sino que estos deben de supervisarla y continuar entrenándola. Se trata de sistema muy frágiles que solo son útiles con imágenes muy parecidas a los datos de entrenamiento. 

Si el sistema de datos de inteligencia artificial fue entrenado con un grupo de pacientes específico, es decir con datos muy específicos de un determinado grupo a estudiar, puede que no funcione en un entorno distinto. Los humanos pensamos de forma mas amplia, somos capaces de tener en cuenta cosas que no se encuentren necesariamente en una base de datos, podemos pensar en cómo funciona un modelo específico y decidir si confiar en el o no. La inteligencia artificial en cambio no puede hacer eso.

Una controversia del hombre es que ha comenzado a humanizar a este sistema de aprendizaje profundo, con el que se basa el sistema de datos de la IA, el cual podrá proporcionar lo que ocurre en una imagen, pero nos olvidamos de que el modelo entiende solamente, eso que interpreta en una imagen o texto, y que no siente emocionalmente, lo que ahí, pueda ver. La forma en el que modelo relaciona una imagen con un texto, es un procedimiento completamente distinto a cuando los humanos, miramos una imagen y la describimos con palabras emotivas o con algún recuerdo de ellas.

El conocimiento del mundo de estos sistemas es incompleto por definición, les falta la experiencia corporal, la experiencia visual, la asociación de palabras y aquello a lo que se refieren en el mundo real, a las interpretaciones puramente humanas. Mientras no sea posible incluir esta faceta, estos sistemas, seguirán siendo deficientes.

En el ser humano, la experiencia hace que las cosas adquieran significado, la fuerza que hacemos al comer una manzana, el arrugar nuestra nariz cuando probamos algún jugo cítrico astringente, esa sensación que sentimos cuando nuestro cerebro asocia o busca en la memoria, como experimentamos al comer una rodaja de limón, en un momento dado o también en un supuesto imaginario, sin que no estemos probando ningún limón, aunque eso no suceda en la realidad, igual nuestro cerebro asocia en su memoria, lo que sentimos en nuestra boca, y se refleja instantáneamente como una sensación de ese momento. 

En cambio, para un sistema informático se trata de una secuencia de pixeles vinculados a una información textual.

Lo que quiero enfatizar, haciendo una mirada desde la neurofisiología de nuestro cerebro y haciendo relación a cómo funciona, es que nuestro exagerado deseo de perfección congela nuestro pensamiento, y no nos permite ver los usos potenciales de aprender de algunos errores. Esta es la otra mirada, con un valor fundamental, la que nos define como seres humanos, es la libertad de pensamiento, y es ahí, donde nos estamos reduciendo, en la medida en la que delegamos nuestras decisiones a un sistema informático. El objetivo de fondo es erradicar cualquier error, y para ello, estos sistemas deben tomar el control.

Si nuestro cerebro cambiara a un sistema lógico de pensamiento, como funcionan los sistemas interpretativos de los sistemas de la IA; perderíamos nuestra flexibilidad mental, sería muy aburrido si fuéramos solamente lógicos, calculadores y totalmente libres de todo error. Después de todo no vivimos en un mundo estático. El cambio es lo que nos impulsa hacia adelante. Nos adaptamos al cambio en forma constante.

Tan pronto como el cerebro comete un error no solamente trata de corregirlo, sino que también lo utiliza productivamente. Es precisamente debido a que un error ofrece el potencial de mejora a sistema con defectos, el que ha prevalecido, en nuestra evolución como humanos. Este es el precio que debe pagar por nuestra capacidad de permanecer flexibles. El arte no es evitar los errores. Cualquiera que trate de evitar los errores se volverá tan aburrido como una computadora. Y, lo que es peor, reemplazable. Entonces tarde o temprano, los algoritmos serán capaces de evitar los errores y realizar una acción en forma eficiente y sin errores. Pero reconocer que un error puede tener una finalidad, es esa capacidad que solamente tenemos los humanos. Ahora comprendemos que el cerebro casi sistemáticamente incorpora los errores para examinarlos y así alterar su conducta. Y esta es una lección muy importante para aprender: “errar es humano” y, para el cerebro, es extremadamente útil.

Si nunca nos equivocamos, nunca podríamos cambiar. Entonces no solamente seríamos incapaces de aprender y muy aburridos, también, tarde o temprano, seríamos cambiados por las más eficientes computadoras. La característica única del pensamiento humano yace precisamente en que no es exacto ni perfecto. Nuestro pensamiento propenso al error es la única cosa que nos hace superior a las computadoras. Esencialmente nuestra “debilidad” en el pensamiento es realmente nuestra más grande arma secreta mental. 

De este análisis anterior, y hablando de emociones, nuestra “debilidad humana”, también nos podríamos preguntar, ¿Cómo es que la inteligencia Artificial interpreta las emociones de una imagen o en un mensaje?, ya que las mismas delatan a los humanos, en las micro gesticulaciones que se evidencian en nuestros rostros cuando transitamos por alguna de ellas.

A pesar de su rudimentario sistema de percepción, los avances en el reconocimiento automático de imágenes, en los sistemas interpretativos de la IA, han profundizado el sueño, de que las máquinas puedan desarrollar emociones, e incluso nos puedan ayudar a reconocer los sentimientos y emociones mas ocultos de nuestros semejantes. Pudiendo reconocer más de veinte intensidades emocionales.

De aquí nacen estas preguntas: ¿Podrá la Inteligencia Artificial, al fin decirnos que siente la Mona Lisa por Da Vinci en una imagen que represente la obra?

¿Cómo se desarrolla un detector automático de emociones de este tipo?

En primer paso es hacer una lista de emociones a partir de la variedad interminable de nuestros estados de ánimo. Tras una investigación en Nueva Guinea, con el científico Paul Ekman, psicólogo estadounidense pionero en el estudio de las emociones y su expresión facial, se evidenció que la humanidad comparte seis sentimientos universales que inevitablemente pueden ser leídos en nuestros rostros, estos son: alegría y tristeza, asco e ira, sorpresa y miedo.

Esta teoría de Paul Ekman evalúa el estudio de las emociones en su micro mímica, donde se evidencia y afirma la existencia de la verdad de las personas expresadas en su rostro.

Aunque esta clasificación es muy controvertida para los científicos, suele servir de base para todos los informáticos en el reconocimiento de emociones, justamente por su sencillez.

Estas seis emociones universales son el punto de partida. El segundo paso es conseguir que clasificadores humanos asignen miles de caras a estas seis categorías, de esta forma se crean los datos de entrenamiento para las máquinas. Finalmente comienza el aprendizaje automático, hasta que el sistema informático logra arrojar los mismos resultados que los clasificadores humanos. Una vez hallada la mejor configuración, los sistemas se convierten en una herramienta que todos los programadores utilizan como detectores universales de emociones.

Se considera que a través de estos avances se puede creer en la la idea de construir detectores de mentiras con los que se podría evaluar a un sospechoso y determinar si miente o no, lo que de alguna forma definirá si es liberado o puesto en prisión.

En la inteligencia Artificial, el análisis de las emociones se hace combinando las micro mímicas con el tono de voz. Y en estudios de imágenes y rostros en obras de arte, se llegó a esta conclusión: “No sienten nada”.

La IA no tiene papilas gustativas, por lo tanto, tampoco tiene idea del delicioso gusto de un pastel de limón que revive el recuerdo de una tía o abuela. Tampoco ha sentido adrenalina en el cuerpo y la sensación que esta causa en un buen partido bien jugado. No sabe del significado de llenarse los ojos de lágrimas al emocionarse en una película, o sentir cuando nuestra nariz gotea por pura emoción. No tiene miedo de nada, no se le eriza la piel, no conoce el dolor físico ni tampoco el placer. No tiene opinión de un arte abstracto ni tampoco algún trauma reprimido, por lo tanto, no posee ninguna emoción que quiera expresar. 

Podemos evidenciar que las industrias informáticas, sueñan con resaltar en los robots humanoides, dos aspectos que distinguen las capacidades humanas, hablamos de la lógica humana, versus la lógica informática, esta última, aún presenta aspectos no desarrollados.

El verdadero talento de estas redes neuronales no es tanto imitar las cualidades humanas, sino asimilar enormes bases de datos, para clasificar, analizar, y deducir correlaciones, ayudando de esta manera, a los humanos, a comprender códigos complejos como, por ejemplo, comprender el campo magnético cuántico, o también juega un papel importante en el campo farmacéuticos que determina infinitas combinaciones de químicos para una determinada enfermedad.

Una gran desventaja desde el punto de vista social es proveniente de la psicología social, ya que sondea nuestros comportamientos estereotipados, los que son las bases de sistemas informáticos los cuales pretenden orientarnos en decisiones personales y colectivas.

En estos tipos de sistemas con los que funciona la IA, siempre existe resultados sesgados, estos sesgos pueden deberse, por ejemplo, a la existencia de prejuicios en los datos de entrenamiento, uno es consciente de que ese dato de entrenamiento fue agregado por un ser humano, el que tal vez, tenga un juicio sesgado con un determinado análisis del dato aportado. Por lo tanto, el resultado del sesgo deja la evidencia.

El contexto social, psicológico y moral, seguirá siendo incomprensible para los ordenadores, pero si estos sistemas carecen de un criterio más completo, del as cuales el hombre suele hacerse estas preguntas: ¿cómo es qué la inteligencia Artificial se basa, para tomar una decisión?

En estadísticas se evidencia que estas conducen a discriminación racial y de género. Si el sistema penal es racista, los datos también van a estar sesgados racialmente.

El avance de la inteligencia Artificial encaja perfectamente en toda nuestra pereza fundamental, porque en estos tiempos, nos ofrece la comodidad de hacerse cargo de parte de nuestras tareas cotidianas. Pero en una mirada opuesta, vemos que, en la actualidad, uno de los mayores desafíos del hombre, es tomar las riendas de su destino individual o en colectivo, sin embargo, y con el avance de la IA, es la que nos orienta a que hagamos todo lo contrario, y en muchos ámbitos sociales.

Las inteligencias artificiales, nunca alcanzan un nivel de rendimiento total, que haga prescindibles a los humanos, originando una nueva profesión, la de asistente humano de máquinas en apuros. Esta nueva forma de trabajo humano, detrás de los llamados sistemas inteligentes artificiales, fue inventado por el gigante tecnológico Amazon, donde las personas hacen a mano, por así decirlo, el trabajo necesario para que los algoritmos funcionen. El riesgo que plantea la toma de cada decisión algorítmica está dado ya que no se conoce como es que fueron tomadas las decisiones de la IA, ya que solo son visibles sus resultados.

Estamos ante una situación paradójica, por un lado, se pide a las personas que hagan lo que los robots o los procesos automáticos no son capaces de hacer, por otro lado, los empleados se enfrentan a un trabajo cuyo margen de acción o autonomía es menor que antes, controlados por una inteligencia artificial que estudia parámetros de objetivos y métricas.

Estos sistemas interpretativos sirven para dinamizar la optimización y la productividad sin permitir la negociación de quien interactúa en esa dinámica. El trabajo de las personas está sometido a los controles de las máquinas que calculan la optimización del flujo de productos, ellas determinan el ritmo de los procesos y las personas son reducidas a funcionar como robots de carne y hueso.

¿Hasta dónde llegará el avance de la IA, y en qué punto el hombre, querrá colaborar con ella, para ser sometido por estos algoritmos, en su rendimiento como una maquina Humana?


Medios de comunicación

Contacta con nuestro departamento de comunicación o solicita material adicional.

Suscríbete al blog de Telefónica y entérate antes que nadie.

close-link
Logo Centenario Telefónica Celebra con nosotros el Centenario de Telefónica
EMPIEZA LA AVENTURA