La alucinación de la IA (hallucination) sigue siendo, hasta hoy, uno de los problemas más molestos de los grandes modelos de lenguaje (LLM), pero el profesor de la Wharton School, Ethan Mollick, planteó en X una perspectiva sugestiva: los seres humanos llevamos ya cientos de años desarrollando mecanismos maduros que nos permiten obtener resultados confiables a partir de fuentes no confiables; ese mecanismo se llama “estructuras organizativas” (organizational structures), y perfectamente podemos aplicar un método similar a la IA. Este tuit obtuvo 329 corazones, 35 reenvíos y 44 respuestas, y dio pie a un profundo debate sobre cómo afrontar de manera pragmática las alucinaciones de la IA.
¿Qué es la analogía de “estructuras organizativas”?
El argumento central de Mollick apunta directamente a un hecho que a menudo se pasa por alto: los seres humanos nunca han sido una fuente de información perfectamente confiable. Históricamente, ya fuera en libros contables, diagnósticos médicos o sentencias legales, la salida humana siempre conlleva un riesgo de error. Sin embargo, la razón por la que la civilización puede funcionar con normalidad es que desarrollamos todo un conjunto de “estructuras organizativas” para gestionar estos riesgos.
Estas estructuras organizativas, en esencia, son una especie de “máquinas interceptadoras de errores” de gran precisión: mediante la especialización, revisiones jerárquicas, verificación cruzada y procesos institucionalizados, se transforma la falta de confiabilidad de los individuos en confiabilidad a nivel de sistema. Mollick considera que, en lugar de obsesionarnos con lograr una “IA que nunca se equivoque”, deberíamos cambiar de enfoque: igual que tratamos a los empleados humanos, construir para la IA un sistema de control de calidad de manera organizativa.
Métodos de aplicación concretos: revisión, pruebas y verificación cruzada
En el debate posterior que generó el tuit, Mollick y otros participantes exploraron aún más varias formas concretas que pueden tomarse directamente prestadas de la gestión organizativa. Primero están los “mecanismos de revisión” (reviews): igual que la revisión de un supervisor en una empresa o un proceso de evaluación entre pares, para que otro modelo de IA o un experto humano examine sistemáticamente la salida de un LLM.
En segundo lugar están los “mecanismos de prueba” (tests): similares a las pruebas unitarias y a los procesos de aseguramiento de la calidad en el desarrollo de software, establecen estándares verificables para cada salida de la IA. El tercero son las “verificaciones cruzadas” (cross-checks): hacer que varios modelos de IA independientes o fuentes de información ofrezcan respuestas para la misma pregunta, y luego comparar la coherencia de los resultados; tal como en la organización el juego de contrapesos entre distintos departamentos.
La lógica común de estos métodos es: no depender de la perfección de un solo nodo, sino reducir la tasa total de errores mediante el diseño del sistema. Esto coincide perfectamente con el concepto del “Modelo del queso suizo” (Swiss Cheese Model) en la teoría moderna de gestión de la calidad: cada capa de protección tiene agujeros, pero al superponer varias capas, la probabilidad de que un error atraviese todos los niveles se reduce considerablemente.
Implicaciones para la implementación de IA en empresas
Este marco de pensamiento de Mollick es especialmente inspirador para las empresas que están incorporando IA. Muchas empresas, al enfrentarse al problema de las alucinaciones de la IA, suelen caer en dos extremos: o bien, por miedo a equivocarse, no se atreven a usar IA en absoluto; o bien, confían en exceso en la salida de la IA e ignoran la verificación. El pensamiento de diseño organizativo ofrece un camino intermedio: reconocer que la IA cometerá errores, pero controlar esos errores dentro de un rango aceptable mediante el diseño institucional.
En concreto, las empresas pueden crear un “proceso de gestión de la calidad de la IA”: tratar la IA como un “empleado” dentro de la organización, dotarla de mecanismos de revisión, establecer límites claros de responsabilidades, crear sistemas de detección de anomalías y conservar una revisión humana en los puntos clave de decisión. Este enfoque no solo es más pragmático, sino que también se ajusta mejor a la lógica de gestión que las empresas ya conocen. Para la industria de la IA, las opiniones de Mollick nos recuerdan algo: la respuesta para resolver las alucinaciones de la IA quizá no esté únicamente en el plano técnico, sino en replantear la estructura organizativa de la colaboración humano-máquina.
Este artículo El profesor de la Wharton School Ethan Mollick: resolver el problema de las alucinaciones de la IA con el pensamiento de “diseño organizacional” apareció por primera vez en Cadena de noticias ABMedia.