La IA y el product management: Una reflexión sobre la responsabilidad en tiempos de cambio

Pensamientos de un Product Manager ante el desafío de construir productos éticos en la era de la inteligencia artificial

Foto de Darío Alonso

Darío Alonso Seguir

Tiempo de lectura: 7 min

A menudo pienso sobre el impacto que está teniendo ya la IA en el mundo y en particular, a los product managers de productos digitales. No puedo dejar de pensar en la responsabilidad que recae sobre quienes nos dedicamos a ello. Vivimos un momento histórico y singular, un punto de inflexión y de no retorno: la inteligencia artificial no es que vaya a cambiar nuestras vidas, sino que ya lo está haciendo. Ya lo ha hecho. Y más que lo va a hacer y de maneras insospechadas, lo que incluye cada aspecto de nuestra profesión. Esta semana lo comentaba con mis compañeros de equipo y decíamos “es que tenemos que cambiar el enfoque con el que trabajamos desde el diseñador, al PM como a los ingenieros”. Yo lo veo como que la IA ofrece tantas cartas en la baraja, que hay que pensar cuáles jugar en función de la mano que queramos llevar en cada momento.

Unido a esto me asalta constantemente el tema de la privacidad. Por la privacidad en sí, pero sobre todo porque una falta de privacidad abre muchas puertas a problemas de inseguridad. Hace unos días, leyendo una entrevista a Carissa Véliz —profesora de Oxford y una de las voces más lúcidas en el debate sobre privacidad digital— me topé con una reflexión que me ha acompañado desde entonces: «muchos adolescentes ni siquiera alcanzan a imaginar cómo es vivir con privacidad». Esta frase encierra, creo yo, uno de los dilemas más profundos de nuestro tiempo profesional. Yo la extendería diciendo que no afecta sólo a los adolescentes: el mero hecho de usar un login social de cualquiera de nuestras redes está abriendo ya muchas puertas a que tengamos problemas.

La transformación silenciosa de nuestro oficio

Como Product Manager, ya no basta con dominar metodologías ágiles, entender user journeys o gestionar backlogs. Ahora debemos comprender algoritmos de aprendizaje automático, reflexionar sobre sesgos algorítmicos y navegar por territorio ético que hasta hace poco permanecía inexplorado. Somos arquitectos de experiencias que moldean comportamientos, influyen en decisiones y, en última instancia, dan forma a la sociedad digital en la que vivimos. Es una responsabilidad que va mucho más allá de los KPIs y las métricas de engagement. Ahora debemos convertirnos en custodios de una experiencia digital que respete la dignidad humana y preserve los valores que consideramos fundamentales. Y estando en España, Europa, y viendo lo que se hace en otras latitudes, creo que nos tenemos que alinear con la privacidad y la seguridad como valores diferenciales. Me pongo filosófico, pero es que es así.

La generación huérfana de privacidad

Las palabras de Véliz me han hecho reflexionar profundamente sobre los usuarios para quienes diseñamos nuestros productos. Hay toda una generación que ha crecido en un mundo donde la privacidad digital es, en el mejor de los casos, una abstracción. Para ellos, compartir cada momento, cada pensamiento, cada preferencia, no es una pérdida de intimidad sino la normalidad.

Como profesionales, nos enfrentamos a un dilema ético fascinante: ¿cómo diseñamos productos que respeten la privacidad para usuarios que no han experimentado nunca sus beneficios? ¿Cómo les explicamos el valor de algo que nunca han poseído? ¿Cómo generamos ese valor teniendo más dificultades (porque no usar los datos alegremente nos lo pone más difícil) y encima con tanta demanda de experiencias hiper personalizadas?

Véliz lo expresa con claridad meridiana: «la privacidad no es solo una cuestión de si permitimos o no que nos vean o sepan de nosotros». Se trata de preservar la libertad de pensamiento, la capacidad de disentir, el derecho a evolucionar sin que nuestro pasado digital nos persiga eternamente. Son conceptos que van mucho más allá de la tecnología y que tocan los cimientos de una sociedad libre.

Esta reflexión me lleva a una conclusión incómoda pero necesaria: como Product Managers, no solo tenemos la responsabilidad de crear productos exitosos, sino también de educar a través del diseño. Nuestras interfaces, nuestros flujos de información, nuestras decisiones sobre qué datos recoger y cómo utilizarlos, son declaraciones silenciosas sobre qué tipo de sociedad digital queremos construir.

La paradoja de la IA ética

Existe una ironía fascinante en nuestro momento histórico: podemos utilizar la misma tecnología que amenaza la privacidad para protegerla. La inteligencia artificial nos ofrece herramientas sin precedentes para crear experiencias personalizadas sin comprometer la intimidad de nuestros usuarios.

Pensemos en las posibilidades: algoritmos que aprenden patrones sin almacenar datos individuales, sistemas de procesamiento local que mantienen la información en el dispositivo del usuario, modelos de IA que se entrenan con datos sintéticos en lugar de información personal real. La tecnología existe; lo que necesitamos es la voluntad de implementarla con estos valores en mente.

Como señala Véliz, «digitalizar no implica necesariamente vigilar». El problema radica en que «según hemos diseñado lo digital, ahora mismo ambas cosas están indisolublemente unidas».

El marco europeo

Reflexionando sobre nuestro contexto como profesionales europeos, me doy cuenta de que vivimos un momento de privilegio histórico. El GDPR, la Ley de Inteligencia Artificial, todo nuestro marco regulatorio, no deberíamos verlos como obstáculos burocráticos sino ventajas competitivas disfrazadas. Confieso que al poco de aparecer, consideraba un “dolor” tener que cumplir con la GDPR, porque te pone límites para “hacer cosas”. Ahora lo veo diferente.

Mientras otras regiones del mundo luchan por regular tecnologías ya desplegadas, nosotros tenemos la oportunidad de construir desde el principio con principios éticos integrados. Podemos crear productos que no solo cumplan con regulaciones futuras, sino que establezcan nuevos estándares globales de respeto hacia el usuario.

Esta ventaja no es solo regulatoria; es cultural. Los valores europeos de dignidad humana, derecho a la privacidad y protección de datos no son impedimentos para la innovación, sino los cimientos sobre los que podemos construir una tecnología verdaderamente al servicio de las personas. Es más, bien comunicada, se convierte en una ventaja de mercado, puesto que hay cada vez más gente celosa de su privacidad y seguridad, que estarían dispuestas a usar e incluso pagar por productos que la proporcionen.

Privacy by Design: Una filosofía de vida profesional

Privacy by design no puede quedarse en una “checklist” de “compliance” que revisamos al final del proceso de desarrollo. Debe convertirse en una filosofía que impregne cada decisión que tomamos como Product Managers. Es como la accesibilidad o la propia seguridad.

Esto significa repensar desde cero nuestros procesos: cómo definimos métricas de éxito que no dependan de la extracción masiva de datos personales, cómo diseñamos arquitecturas que minimicen la recolección de información, cómo creamos experiencias que sean valiosas sin ser invasivas. Cómo comunicamos qué datos usamos para dar qué valor a nuestros clientes y cómo los custodiamos.

Véliz tiene razón cuando advierte que no debemos «poner toda la responsabilidad sobre los hombros de los individuos». La solución no es convertir a cada usuario en un experto en privacidad digital. Nuestra responsabilidad profesional es crear productos que sean privados y seguros por defecto, que protejan a los usuarios incluso de sus propios impulsos de sobre compartir.

La vida analógica como norte

Hay algo profundamente revelador en el consejo que Véliz ofrece a los jóvenes: recordar que «la vida no es digital, sino analógica». Esta observación debería ser nuestro norte como diseñadores de productos tecnológicos.

La tecnología que creamos debe estar al servicio de esa vida real hecha de conversaciones cara a cara, de momentos de contemplación sin pantallas, de experiencias sensoriales irreemplazables. Nuestros productos deberían enriquecer esa experiencia humana fundamental, no competir con ella o, peor aún, reemplazarla.

Esto me lleva a una reflexión personal: ¿cuántos de nuestros productos realmente mejoran la vida de las personas, y cuántos simplemente capturan su atención para monetizarla? Es una pregunta incómoda pero necesaria.

Una responsabilidad generacional

Llegado a este punto de mi reflexión, me doy cuenta de que tenemos entre nuestras manos una responsabilidad generacional. Somos la primera generación de Product Managers que debe navegar entre el poder transformador de la IA y la preservación de valores humanos fundamentales. Las decisiones que tomemos hoy definirán el mundo digital que heredarán las próximas generaciones.

Como profesionales europeos, tenemos la oportunidad única de liderar esta transformación desde una posición de principios. Podemos demostrar que es posible crear productos exitosos, innovadores y rentables sin sacrificar la dignidad humana o la privacidad individual. Y de paso contribuimos a ver si somos capaces de tener mayor independencia tecnológica en el viejo continente…

La pregunta que me hago al final de cada día es simple pero poderosa: ¿el producto en el que estoy trabajando hace del mundo un lugar mejor? ¿Respeta a las personas a las que sirve? ¿Preserva su autonomía y su capacidad de elegir?

No son preguntas fáciles, pero creo que son las preguntas correctas. Y en un mundo donde la tecnología avanza a velocidad vertiginosa, quizás lo más revolucionario que podemos hacer es detenernos a reflexionar sobre hacia dónde nos dirigimos y por qué. El futuro digital está en nuestras manos. Que sepamos construirlo con sabiduría, con respeto y con la profunda convicción de que la tecnología debe estar al servicio de la humanidad, no al revés.

Compártelo en tus redes sociales


Medios de comunicación

Contacta con nuestro departamento de comunicación o solicita material adicional.