Cómo usar varias IAs en cadena para obtener entregables más sólidos y detectar los puntos ciegos

Foto Asier-Anitua

Asier Anitua Seguir

Tiempo de lectura: 4 min

Hace ya años que aplico este método de forma sistemática en mi trabajo. No lo diseñé de una vez: fue emergiendo a golpe de frustración. Frustración con respuestas que sonaban muy bien pero no aguantaban un segundo vistazo. Alucinaciones, de la IA y luego casi mías de tanto iterar. Con textos que parecían completos y luego tenían huecos importantes. Con código que funcionaba en el ejemplo, pero fallaba en el caso real.

La conclusión a la que llegué no fue que las IAs son malas. Fue que cada una tiene puntos ciegos propios, y que ninguna te avisa de ellos por iniciativa propia. Así que empecé a preguntarles.

El resultado es lo que llamo el Método de Iteración Inoxidable: un flujo de trabajo en el que la autoevaluación forzada y la revisión cruzada entre modelos distintos se convierten en parte del proceso, no en una verificación opcional al final.

El nombre es un guiño a mi alter ego creativo, Asier Inoxidable, bajo el que escribo ficción, poesía y música. Pero la metodología es completamente práctica. La uso para artículos, para análisis y búsqueda de tendencias y tecnología, para código html, para presentaciones de carácter público. Para cualquier entregable con documentación no confidencial (muy importante la seguridad del dato, al ley europea de IA, RGPD, etc.) donde el resultado importa.

Una IA que pone un 7 a su propio trabajo y te explica por qué no es un 10 te está dando información editorial que no te daría si solo le pidieras «mejora esto».

Por qué la primera respuesta casi nunca es la mejor

Cuando le pides algo a una IA, lo que recibes es su mejor intento con la información que tiene en ese momento. No su mejor intento posible. Su mejor intento dado ese prompt, ese contexto y esa sesión.

El problema es que ese primer intento viene envuelto en una confianza que no siempre está justificada. Las IAs no suelen decir «esto no lo tengo claro» o «aquí me falta contexto». Tienden a completar, a rellenar, a sonar seguros incluso cuando están improvisando.

Esto no es un defecto de diseño que vayan a arreglar pronto. Es una característica estructural de cómo funcionan los modelos de lenguaje: están entrenados para generar texto coherente y plausible, no para señalar activamente sus propias lagunas.

El problema de los puntos ciegos

Cada modelo tiene sus propios puntos ciegos. Claude tiende a ser muy ordenado y preciso, pero a veces peca de exceso de cautela o de un tono demasiado formal que no encaja con todos los contextos. ChatGPT es muy flexible y creativo, pero puede ser más propenso a incluir información que suena correcta sin serlo. Gemini tiene una visión muy amplia, pero a veces pierde profundidad en temas muy específicos. Mistral es eficiente y directo, pero en matices culturales hispanohablantes a veces falla el tono.

Ninguno de ellos sabe bien cuáles son sus propios puntos ciegos. Pero algo muy interesante ocurre cuando les preguntas directamente: si les fuerzas a autoevaluarse con criterios explícitos, empiezan a identificar debilidades que no habrían mencionado espontáneamente.

Y cuando llevas ese diagnóstico a otro modelo, la segunda IA no parte de cero. Parte de un mapa de problemas potenciales que puede confirmar, rebatir o ampliar. Eso es lo que convierte la revisión cruzada en algo mucho más potente que simplemente «preguntar lo mismo en otro sitio».

La autoevaluación como herramienta editorial

La idea central del método es sencilla: antes de dar por bueno cualquier entregable, pide a la IA que lo evalúe. No que lo mejore, sino que lo evalúe. Que te diga qué nota le pondría y por qué no es la nota máxima.

Ese matiz importa mucho. Si preguntas «¿cómo puedo mejorar esto?» la IA tiende a hacer ajustes superficiales. Si preguntas «¿qué nota le pones del 1 al 10 y por qué no es un 10?» la IA se ve obligada a identificar lo que falta, lo que sobra, lo que podría hacerse mejor. Es una pregunta que activa un modo de análisis distinto.

Con el tiempo he aprendido que una IA que se pone un 8 y explica por qué no es un 10 suele ser más útil que una que directamente propone mejoras. Porque la primera te dice dónde mirar. La segunda te da más texto que evaluar.

Compártelo en tus redes sociales


Medios de comunicación

Contacta con nuestro departamento de comunicación o solicita material adicional.