La inteligencia artificial y la tecnología blockchain representan dos fuerzas transformadoras que están remodelando nuestro mundo. La inteligencia artificial amplifica las capacidades cognitivas humanas a través del aprendizaje automático y las redes neuronales, mientras que la tecnología blockchain introduce la escasez digital verificable y permite nuevas formas de coordinación sin confianza. A medida que estas tecnologías convergen, están sentando las bases para una nueva iteración de internet en la que los agentes autónomos interactúan con sistemas descentralizados. Esta "Web de agentes" presenta una nueva clase de ciudadanos digitales: agentes de inteligencia artificial que pueden navegar, negociar y transaccionar de manera independiente. Esta transformación redistribuye el poder en el ámbito digital, permitiendo a los individuos recuperar la soberanía sobre sus datos mientras fomenta un ecosistema en el que la inteligencia humana y artificial colaboran de formas sin precedentes.
Para entender hacia dónde nos dirigimos, primero tracemos la evolución de la web a través de sus principales iteraciones, cada una marcada por capacidades y paradigmas arquitectónicos distintos:
Mientras que las dos primeras generaciones de la web se centraron en la propagación de la información, las dos últimas permiten la ampliación de la información. La web 3.0 introdujo la propiedad de los datos a través de tokens, y ahora la web 4.0 impregna inteligencia a través de los Modelos de Lenguaje Grandes (LLMs).
LLMs represent a quantum leap in machine intelligence, functioning as dynamic, pattern-matching systems that transform vast knowledge into contextual understanding through probabilistic computation. However, their true potential emerges when structured as agents—evolving from pure information processors into goal-directed entities that can perceive, reason, and act. This transformation creates an emergent intelligence capable of sustained, meaningful collaboration through both language and action.
El término "agente" introduce un nuevo paradigma para la interacción entre humanos y AI, y va más allá de las limitaciones y asociaciones negativas de los chatbots tradicionales. Este cambio no es meramente semántico; representa una reconceptualización fundamental de cómo los sistemas de AI pueden operar de forma autónoma manteniendo una colaboración significativa con los humanos. Fundamentalmente, los flujos de trabajo agenticos permiten que se formen mercados en torno a la resolución de intenciones específicas del usuario.
En última instancia, la Web Agentic representa algo más que una nueva capa de inteligencia, transforma fundamentalmente cómo interactuamos con los sistemas digitales. Mientras que las iteraciones anteriores de la web se basaban en interfaces estáticas y recorridos de usuario predefinidos, la Web Agentic introduce una infraestructura de tiempo de ejecución dinámica donde tanto la computación como las interfaces se adaptan en tiempo real al contexto y la intención del usuario.
Los sitios web tradicionales sirven como la unidad atómica de internet de hoy, proporcionando interfaces fijas donde los usuarios leen, escriben e interactúan con la información a través de caminos predeterminados. Este modelo, aunque funcional, limita a los usuarios a interfaces diseñadas para casos de uso generales en lugar de necesidades individuales. La Web Agentic se libera de estas limitaciones a través de la Computación Consciente del Contexto, Generación de Interfaz Adaptativa, Flujos de Acción Predictivos desbloqueados a través de RAG y otras innovaciones en la recuperación de información en tiempo real.
Considera cómo TikTok revolucionó el consumo de contenido al crear feeds altamente personalizados que se adaptan a las preferencias del usuario en tiempo real. La Web Agentic lleva este concepto más allá de la recomendación de contenido hacia la generación de interfaces completas. En lugar de navegar a través de diseños de páginas web fijas, los usuarios interactúan con interfaces generadas dinámicamente que predicen y facilitan sus próximas acciones. Este cambio de sitios web estáticos a interfaces dinámicas impulsadas por agentes representa una evolución fundamental en cómo interactuamos con los sistemas digitales, pasando de modelos de interacción basados en la navegación a modelos de interacción basados en la intención.
Las arquitecturas agentivas han sido una gran exploración para investigadores y constructores por igual. Constantemente se están desarrollando nuevos métodos para mejorar sus capacidades de razonamiento y resolución de problemas. Técnicas como Cadena-de-Pensamiento (CoT), Árbol-de-Pensamiento (ToT) y Grafo-de-Pensamiento (GoT) son ejemplos principales de innovaciones diseñadas para mejorar cómo los LLM manejan tareas complejas al simular procesos cognitivos más matizados y similares a los humanos.
La sugerencia de Cadena de Pensamiento (CoT) alienta a los modelos de lenguaje grandes (LLMs) a descomponer tareas complejas en pasos más pequeños y manejables. Este enfoque es particularmente efectivo para problemas que requieren razonamiento lógico, como escribir scripts cortos en Python o resolver ecuaciones matemáticas.
Tree-of-Thoughts (ToT) se basa en CoT al introducir una estructura de árbol que permite la exploración de múltiples caminos de pensamiento independientes. Esta mejora permite a LLMs abordar tareas aún más intrincadas. En ToT, cada “pensamiento” (una salida de texto del LLM) está directamente conectado solo a su pensamiento inmediatamente anterior o posterior dentro de una cadena local (una rama del árbol). Si bien esta estructura ofrece más flexibilidad que CoT, todavía limita el potencial de intercambio de ideas.
Graph-of-Thought (GoT) lleva el concepto más allá al fusionar estructuras de datos clásicas con LLM. Este enfoque se expande en ToT permitiendo que cualquier “pensamiento” se enlace con cualquier otro pensamiento dentro de una estructura de gráfico. Esta red interconectada de pensamientos refleja más de cerca los procesos cognitivos humanos.
La estructura de grafo de GoT probablemente proporciona una representación más precisa del pensamiento humano en comparación con CoT o ToT en la mayoría de los escenarios. Si bien hay casos en los que nuestros patrones de pensamiento pueden parecer cadenas o árboles (como cuando se desarrollan planes de contingencia o procedimientos operativos estándar), estos son excepciones más que la norma. Este modelo refleja mejor el pensamiento humano, que a menudo salta entre varios pensamientos en lugar de seguir un orden estrictamente secuencial. Si bien algunos escenarios, como el desarrollo de planes de contingencia o procedimientos estándar, aún pueden seguir una estructura de cadena o árbol, nuestras mentes suelen crear complejas y entrelazadas redes de ideas que se alinean más con la estructura de grafo.
Este enfoque similar a un gráfico en GoT permite una exploración más dinámica y flexible de ideas, lo que potencialmente conduce a capacidades de resolución de problemas más creativas y completas en LLMs.
Estas operaciones basadas en gráficos recursivos son solo un paso hacia flujos de trabajo agentes. La siguiente evolución obvia es tener múltiples agentes con su propia especialización siendo orquestados hacia objetivos específicos. La belleza de los agentes está en su composición.
Los agentes le permiten modularizar y paralelizar LLMs a través de coordinación multiagente.
El concepto de sistemas multiagentes no es nuevo. Sus raíces se remontan a la 'Sociedad de la Mente' de Marvin Minsky, que propuso que varias mentes modulares trabajando en colaboración pueden superar a una sola mente monolítica. ChatGPT y Claude son agentes únicos. Mistral popularizó la mezcla de expertos. Ampliando aún más esta idea, creemos que una arquitectura de Red de Agentes es el estado final de esta topología de inteligencia.
Desde un punto de vista de biomímesis, a diferencia de los modelos de IA, donde miles de millones de neuronas idénticas están conectadas de manera uniforme y predecible, el cerebro humano (esencialmente una máquina consciente) es increíblemente heterogéneo, tanto a nivel de órganos como celulares. Las neuronas se comunican a través de señales intrincadas, que involucran gradientes de neurotransmisores, cascadas intracelulares y diversos sistemas modulatorios, lo que hace que su función sea mucho más matizada que estados binarios simples.
Esto sugiere que en biología, la inteligencia no se debe únicamente a la cantidad de componentes o al tamaño de un conjunto de datos de entrenamiento. En cambio, surge de la interacción compleja entre unidades diversas y especializadas, un proceso inherentemente analógico.
Por esta razón, la noción de desarrollar millones de modelos más pequeños en lugar de solo unos pocos grandes, y permitir la orquestación entre todos estos actores, probablemente conduce a innovaciones en arquitecturas cognitivas, algo similar a sistemas multiagentes.
El diseño de sistemas multiagentes ofrece varias ventajas sobre los sistemas de un solo agente: es más fácil de mantener, más fácil de entender y más flexible de ampliar. Incluso en casos en los que solo se necesita una interfaz de un solo agente, implementarla dentro de un marco de trabajo multiagente puede hacer que el sistema sea más modular, simplificando el proceso para que los desarrolladores agreguen o eliminen componentes según sea necesario. Es esencial reconocer que la arquitectura multiagente puede ser una forma altamente efectiva de construir incluso un sistema de un solo agente.
Si bien los grandes modelos de lenguaje (LLMs) han mostrado capacidades extraordinarias, como generar texto similar al humano, resolver problemas complejos y manejar una amplia variedad de tareas, los agentes individuales de LLM enfrentan limitaciones que pueden obstaculizar su eficacia en aplicaciones del mundo real.
A continuación, examinamos cinco desafíos clave asociados con los sistemas agentes y exploramos cómo la colaboración multiagente puede superar estos obstáculos, desbloqueando todo el potencial de los LLMs.
Si bien los sistemas multiagente ofrecen ventajas convincentes en la resolución distribuida de problemas y la optimización de recursos, su verdadero potencial emerge cuando consideramos su implementación en el borde de la red. A medida que la IA continúa evolucionando, la convergencia de arquitecturas multiagente con la informática en el borde crea una poderosa sinergia, que permite no solo la inteligencia colaborativa, sino también un procesamiento eficiente y localizado en innumerables dispositivos. Este enfoque distribuido para la implementación de IA extiende naturalmente los beneficios de los sistemas multiagente, acercando la inteligencia cooperativa especializada a donde más se necesita: el usuario final.
La proliferación de la IA en el panorama digital está impulsando una reestructuración fundamental de las arquitecturas computacionales. A medida que la inteligencia se entrelaza en el tejido de nuestras interacciones digitales diarias, estamos presenciando una bifurcación natural de la computación: los centros de datos especializados manejan el razonamiento complejo y las tareas específicas del dominio, mientras que los dispositivos periféricos procesan consultas personalizadas y contextuales localmente. Este cambio hacia la inferencia en el borde no es simplemente una preferencia arquitectónica, es una necesidad impulsada por múltiples factores críticos.
En primer lugar, el volumen abrumador de interacciones impulsadas por IA abrumaría a los proveedores de inferencia centralizados, creando demandas de ancho de banda insostenibles y problemas de latencia.
En segundo lugar, el procesamiento en el borde permite una capacidad de respuesta en tiempo real fundamental para aplicaciones como vehículos autónomos, realidad aumentada y dispositivos IoT.
Tercero, la inferencia local preserva la privacidad del usuario al mantener datos sensibles en dispositivos personales. Cuarto, la informática en el borde reduce drásticamente el consumo de energía y la huella de carbono al minimizar el movimiento de datos a través de las redes.
Finalmente, la inferencia en el borde permite la funcionalidad y la resiliencia sin conexión, asegurando que las capacidades de IA persistan incluso cuando la conectividad de red se ve comprometida.
Este paradigma de inteligencia distribuida no representa sólo una optimización de nuestros sistemas actuales, sino una reimaginación fundamental de cómo desplegamos e interactuamos con la IA en nuestro mundo cada vez más conectado.
Además, estamos siendo testigos de un cambio fundamental en las demandas computacionales de LLMs. Mientras que la última década ha estado dominada por los enormes requisitos computacionales para entrenar modelos de lenguaje grandes, ahora estamos entrando en una era en la que el cálculo en tiempo de inferencia toma el centro de atención. Esta transición es particularmente evidente en el surgimiento de sistemas de IA agentes, como lo ejemplifica el avance de Q* de OpenAI, que demostró cómo el razonamiento dinámico requiere recursos computacionales en tiempo real sustanciales.
A diferencia del cálculo en tiempo de entrenamiento, que es una inversión única en el desarrollo del modelo, el cálculo en tiempo de inferencia representa el diálogo computacional continuo necesario para que los agentes autónomos razonen, planifiquen y se adapten a situaciones novedosas. Este cambio del entrenamiento de modelos estáticos al razonamiento dinámico de agentes requiere una reevaluación radical de nuestra infraestructura computacional, donde la computación en el borde no solo se vuelve ventajosa, sino esencial.
A medida que se desarrolla esta transformación, estamos presenciando la aparición de mercados de inferencia de borde entre pares, donde miles de millones de dispositivos conectados, desde teléfonos inteligentes hasta sistemas domésticos inteligentes, forman mallas computacionales dinámicas. Estos dispositivos pueden intercambiar capacidad de inferencia sin problemas, creando un mercado orgánico donde los recursos computacionales fluyen hacia donde más se necesitan. La capacidad computacional excedente de los dispositivos inactivos se convierte en un recurso valioso, negociable en tiempo real, lo que permite una infraestructura más eficiente y resistente que los sistemas centralizados tradicionales.
Esta democratización del cálculo de inferencia no solo optimiza la utilización de recursos, sino que también crea nuevas oportunidades económicas dentro del ecosistema digital, donde cada dispositivo conectado se convierte en un microproveedor potencial de capacidades de IA. El futuro de la IA estará caracterizado no solo por el poder de los modelos individuales, sino por la inteligencia colectiva de los dispositivos interconectados formando un mercado global de inferencia democratizado, algo similar a un mercado al contado de inferencia verificable basado en la oferta y la demanda.
Las LLM ahora nos permiten acceder a grandes cantidades de información a través de la conversación, en lugar de la navegación tradicional. Este enfoque conversacional pronto se volverá más personalizado y localizado, ya que Internet se transforma en una plataforma para agentes de IA en lugar de usuarios humanos.
Desde la perspectiva del usuario, el enfoque se desplazará de identificar el "mejor modelo" a obtener las respuestas más personalizadas. La clave para obtener mejores respuestas radica en incorporar los propios datos del usuario junto con el conocimiento general de Internet. Inicialmente, las ventanas de contexto más grandes y la generación mejorada por recuperación (RAG) ayudarán a integrar datos personales, pero eventualmente, los datos individuales superarán en importancia a los datos generales de Internet.
Esto lleva a un futuro en el que todos tenemos modelos personales de IA que interactúan con los modelos expertos de Internet. Inicialmente, la personalización ocurrirá junto con los modelos remotos, pero las preocupaciones sobre la privacidad y la velocidad de respuesta empujarán más interacciones hacia los dispositivos locales. Esto creará un nuevo límite, no entre humanos y máquinas, sino entre nuestros modelos personales y los modelos expertos de Internet.
El modelo tradicional de acceso a datos en Internet quedará obsoleto. En su lugar, su modelo local se comunicará con modelos expertos remotos para recopilar información, que procesará y presentará de la manera más personalizada y de alta velocidad posible. Estos modelos personales serán cada vez más indispensables a medida que aprendan más sobre sus preferencias y hábitos.
Internet se transformará en un ecosistema de modelos interconectados: modelos personales locales de alto contexto y modelos expertos remotos de alto conocimiento. Esto implicará nuevas tecnologías como el aprendizaje federado para actualizar la información entre estos modelos. A medida que la economía de las máquinas evoluciona, tendremos que reimaginar el subestado computacional en el que ocurre esto, principalmente en cuanto a cálculo, escalabilidad y pagos. Esto lleva a una reorganización del espacio de información que es centrada en el agente, soberana, altamente componible, autoaprendizaje y en constante evolución.
En la Web de Agentic, la interacción humano-agente evoluciona hacia una red compleja de comunicaciones entre agentes. Esta arquitectura presenta una reimaginación fundamental de la estructura de Internet, donde los agentes soberanos se convierten en las interfaces principales para la interacción digital. A continuación, destacamos los primitivos fundamentales requeridos para los Protocolos Agentic.
Identidad soberana
Agentes Autónomos
Entidades autónomas capaces de: comprensión del lenguaje natural y resolución de intenciones
Planificación de múltiples pasos y descomposición de tareas
Gestión y optimización de recursos
Aprendiendo de interacciones y retroalimentación
Infraestructura de Datos
Sistemas híbridos que combinan: zkTLS
Conjuntos de datos de entrenamiento tradicionales
Extracción de datos y síntesis en tiempo real de la web
Redes RLHF (Reinforcement Learning from Human Feedback)Recopilación distribuida de retroalimentación
Mecanismos de consenso ponderados por calidad
Capa de cálculo
Protocolos de inferencia verificables que garantizan: Integridad de la computación
Reproducibilidad de resultados
Eficiencia de recursos
Infraestructura informática descentralizada con: mercados informáticos peer-to-peer
Sistemas de prueba de cómputo
Asignación dinámica de recursos
Ecosistema de modelo
Arquitectura del modelo jerárquico: LM específicos de tareas (Modelos de Lenguaje Pequeños)
LLMs de propósito general
Modelos especializados multimodales
Frameworks de Coordinación
Mecanismos de gobernanza para: Resolución de disputas
Asignación de recursos
Entornos de ejecución paralela que permiten: Procesamiento de tareas concurrente
Aislamiento de recursos
Gestión de estado
Agentic Markets
Liquidez Propia del AgenteLos agentes poseen una parte de su suministro de tokens en el génesis
Los agentes se convierten en activos generadores de rendimiento Agentic DAOs
El diseño moderno de sistemas distribuidos ofrece una inspiración única y primitivas para permitir protocolos de Agentic, específicamente arquitecturas orientadas a eventos y, más directamente, el Modelo de Actores de Cómputo.
El Modelo de Actor proporciona una elegante base teórica para implementar sistemas agentes. Este modelo computacional trata a los "actores" como las primitivas universales de la computación, donde cada actor puede:
Las principales ventajas del Modelo de Actores para sistemas agentes incluyen:
Proponemos Neuron, una implementación práctica de este protocolo agente teórico a través de una arquitectura distribuida de múltiples capas que combina espacios de nombres de blockchain, redes federadas, CRDT y DHT, con cada capa sirviendo a distintos propósitos en la pila de protocolos. Nos inspiramos en Urbit y Holochain, pioneros en el diseño de sistemas operativos p2p.
En Neuron, la capa de blockchain proporciona espacios de nombres verificables e identidad, lo que permite la dirección determinista y el descubrimiento de agentes, manteniendo pruebas criptográficas de capacidades y reputación. Por encima de esto, una capa DHT facilita el descubrimiento eficiente de agentes y nodos junto con enrutamiento de contenido con tiempos de búsqueda O(log n), reduciendo las operaciones en cadena y permitiendo el descubrimiento de pares con conciencia de la localidad. La sincronización de estado entre nodos federados se maneja a través de CRDTs, lo que permite que los agentes y nodos mantengan vistas consistentes del estado compartido sin requerir consenso global para cada interacción.
Esta arquitectura se mapea naturalmente a una red federada donde los agentes autónomos operan como nodos soberanos que viven en dispositivos con inferencia de borde local implementando el patrón del Modelo Actor. Los dominios de la federación pueden ser organizados por capacidades del agente, con el DHT proporcionando enrutamiento y descubrimiento eficientes dentro y entre dominios. Cada agente funciona como un actor independiente con su propio estado, mientras que la capa CRDT asegura la consistencia eventual en toda la federación. Este enfoque multicapa permite varias capacidades clave:
Coordinación Descentralizada
Operaciones escalables
Resistencia del sistema
Este enfoque de implementación proporciona una base sólida para construir sistemas agentes complejos mientras se mantienen las propiedades clave de soberanía, escalabilidad y resiliencia requeridas para interacciones efectivas de agente a agente.
La Web Agente marca una evolución fundamental en la interacción humano-computadora, trascendiendo los desarrollos secuenciales de eras anteriores para establecer un paradigma fundamentalmente nuevo de existencia digital. A diferencia de las iteraciones anteriores que simplemente cambiaron la forma en que consumimos o poseemos información, la Web Agente transforma Internet de una plataforma centrada en el humano en un sustrato inteligente donde los agentes autónomos se convierten en los actores principales. Esta transformación está impulsada por la convergencia de la informática en el borde, los modelos de lenguaje amplio y los protocolos descentralizados, creando un ecosistema donde los modelos de IA personales interactúan sin problemas con sistemas expertos especializados.
A medida que avanzamos hacia este futuro centrado en el agente, los límites entre la inteligencia humana y la inteligencia artificial comienzan a difuminarse, reemplazados por una relación simbiótica donde los agentes de IA personalizados actúan como extensiones digitales nuestras, comprendiendo nuestro contexto, anticipando nuestras necesidades y navegando de forma autónoma por el vasto paisaje de la inteligencia distribuida. La Web Agente no solo representa un avance tecnológico, sino una reimaginación fundamental del potencial humano en la era digital, donde cada interacción se convierte en una oportunidad para la inteligencia aumentada y cada dispositivo se convierte en un nodo en una red global de sistemas de IA colaborativos.
Al igual que la humanidad navega por las dimensiones físicas del espacio y el tiempo, los agentes autónomos habitan sus propias dimensiones fundamentales: el espacio de bloque para la existencia y el tiempo de inferencia para el pensamiento. Esta ontología digital refleja nuestra realidad física, donde los seres humanos recorren distancias y experimentan el flujo temporal, los agentes se mueven a través de pruebas criptográficas y ciclos computacionales, creando un universo paralelo de existencia algorítmica.
Es inevitable que las entidades en el espacio latente operen en el espacio de bloques descentralizado.
La inteligencia artificial y la tecnología blockchain representan dos fuerzas transformadoras que están remodelando nuestro mundo. La inteligencia artificial amplifica las capacidades cognitivas humanas a través del aprendizaje automático y las redes neuronales, mientras que la tecnología blockchain introduce la escasez digital verificable y permite nuevas formas de coordinación sin confianza. A medida que estas tecnologías convergen, están sentando las bases para una nueva iteración de internet en la que los agentes autónomos interactúan con sistemas descentralizados. Esta "Web de agentes" presenta una nueva clase de ciudadanos digitales: agentes de inteligencia artificial que pueden navegar, negociar y transaccionar de manera independiente. Esta transformación redistribuye el poder en el ámbito digital, permitiendo a los individuos recuperar la soberanía sobre sus datos mientras fomenta un ecosistema en el que la inteligencia humana y artificial colaboran de formas sin precedentes.
Para entender hacia dónde nos dirigimos, primero tracemos la evolución de la web a través de sus principales iteraciones, cada una marcada por capacidades y paradigmas arquitectónicos distintos:
Mientras que las dos primeras generaciones de la web se centraron en la propagación de la información, las dos últimas permiten la ampliación de la información. La web 3.0 introdujo la propiedad de los datos a través de tokens, y ahora la web 4.0 impregna inteligencia a través de los Modelos de Lenguaje Grandes (LLMs).
LLMs represent a quantum leap in machine intelligence, functioning as dynamic, pattern-matching systems that transform vast knowledge into contextual understanding through probabilistic computation. However, their true potential emerges when structured as agents—evolving from pure information processors into goal-directed entities that can perceive, reason, and act. This transformation creates an emergent intelligence capable of sustained, meaningful collaboration through both language and action.
El término "agente" introduce un nuevo paradigma para la interacción entre humanos y AI, y va más allá de las limitaciones y asociaciones negativas de los chatbots tradicionales. Este cambio no es meramente semántico; representa una reconceptualización fundamental de cómo los sistemas de AI pueden operar de forma autónoma manteniendo una colaboración significativa con los humanos. Fundamentalmente, los flujos de trabajo agenticos permiten que se formen mercados en torno a la resolución de intenciones específicas del usuario.
En última instancia, la Web Agentic representa algo más que una nueva capa de inteligencia, transforma fundamentalmente cómo interactuamos con los sistemas digitales. Mientras que las iteraciones anteriores de la web se basaban en interfaces estáticas y recorridos de usuario predefinidos, la Web Agentic introduce una infraestructura de tiempo de ejecución dinámica donde tanto la computación como las interfaces se adaptan en tiempo real al contexto y la intención del usuario.
Los sitios web tradicionales sirven como la unidad atómica de internet de hoy, proporcionando interfaces fijas donde los usuarios leen, escriben e interactúan con la información a través de caminos predeterminados. Este modelo, aunque funcional, limita a los usuarios a interfaces diseñadas para casos de uso generales en lugar de necesidades individuales. La Web Agentic se libera de estas limitaciones a través de la Computación Consciente del Contexto, Generación de Interfaz Adaptativa, Flujos de Acción Predictivos desbloqueados a través de RAG y otras innovaciones en la recuperación de información en tiempo real.
Considera cómo TikTok revolucionó el consumo de contenido al crear feeds altamente personalizados que se adaptan a las preferencias del usuario en tiempo real. La Web Agentic lleva este concepto más allá de la recomendación de contenido hacia la generación de interfaces completas. En lugar de navegar a través de diseños de páginas web fijas, los usuarios interactúan con interfaces generadas dinámicamente que predicen y facilitan sus próximas acciones. Este cambio de sitios web estáticos a interfaces dinámicas impulsadas por agentes representa una evolución fundamental en cómo interactuamos con los sistemas digitales, pasando de modelos de interacción basados en la navegación a modelos de interacción basados en la intención.
Las arquitecturas agentivas han sido una gran exploración para investigadores y constructores por igual. Constantemente se están desarrollando nuevos métodos para mejorar sus capacidades de razonamiento y resolución de problemas. Técnicas como Cadena-de-Pensamiento (CoT), Árbol-de-Pensamiento (ToT) y Grafo-de-Pensamiento (GoT) son ejemplos principales de innovaciones diseñadas para mejorar cómo los LLM manejan tareas complejas al simular procesos cognitivos más matizados y similares a los humanos.
La sugerencia de Cadena de Pensamiento (CoT) alienta a los modelos de lenguaje grandes (LLMs) a descomponer tareas complejas en pasos más pequeños y manejables. Este enfoque es particularmente efectivo para problemas que requieren razonamiento lógico, como escribir scripts cortos en Python o resolver ecuaciones matemáticas.
Tree-of-Thoughts (ToT) se basa en CoT al introducir una estructura de árbol que permite la exploración de múltiples caminos de pensamiento independientes. Esta mejora permite a LLMs abordar tareas aún más intrincadas. En ToT, cada “pensamiento” (una salida de texto del LLM) está directamente conectado solo a su pensamiento inmediatamente anterior o posterior dentro de una cadena local (una rama del árbol). Si bien esta estructura ofrece más flexibilidad que CoT, todavía limita el potencial de intercambio de ideas.
Graph-of-Thought (GoT) lleva el concepto más allá al fusionar estructuras de datos clásicas con LLM. Este enfoque se expande en ToT permitiendo que cualquier “pensamiento” se enlace con cualquier otro pensamiento dentro de una estructura de gráfico. Esta red interconectada de pensamientos refleja más de cerca los procesos cognitivos humanos.
La estructura de grafo de GoT probablemente proporciona una representación más precisa del pensamiento humano en comparación con CoT o ToT en la mayoría de los escenarios. Si bien hay casos en los que nuestros patrones de pensamiento pueden parecer cadenas o árboles (como cuando se desarrollan planes de contingencia o procedimientos operativos estándar), estos son excepciones más que la norma. Este modelo refleja mejor el pensamiento humano, que a menudo salta entre varios pensamientos en lugar de seguir un orden estrictamente secuencial. Si bien algunos escenarios, como el desarrollo de planes de contingencia o procedimientos estándar, aún pueden seguir una estructura de cadena o árbol, nuestras mentes suelen crear complejas y entrelazadas redes de ideas que se alinean más con la estructura de grafo.
Este enfoque similar a un gráfico en GoT permite una exploración más dinámica y flexible de ideas, lo que potencialmente conduce a capacidades de resolución de problemas más creativas y completas en LLMs.
Estas operaciones basadas en gráficos recursivos son solo un paso hacia flujos de trabajo agentes. La siguiente evolución obvia es tener múltiples agentes con su propia especialización siendo orquestados hacia objetivos específicos. La belleza de los agentes está en su composición.
Los agentes le permiten modularizar y paralelizar LLMs a través de coordinación multiagente.
El concepto de sistemas multiagentes no es nuevo. Sus raíces se remontan a la 'Sociedad de la Mente' de Marvin Minsky, que propuso que varias mentes modulares trabajando en colaboración pueden superar a una sola mente monolítica. ChatGPT y Claude son agentes únicos. Mistral popularizó la mezcla de expertos. Ampliando aún más esta idea, creemos que una arquitectura de Red de Agentes es el estado final de esta topología de inteligencia.
Desde un punto de vista de biomímesis, a diferencia de los modelos de IA, donde miles de millones de neuronas idénticas están conectadas de manera uniforme y predecible, el cerebro humano (esencialmente una máquina consciente) es increíblemente heterogéneo, tanto a nivel de órganos como celulares. Las neuronas se comunican a través de señales intrincadas, que involucran gradientes de neurotransmisores, cascadas intracelulares y diversos sistemas modulatorios, lo que hace que su función sea mucho más matizada que estados binarios simples.
Esto sugiere que en biología, la inteligencia no se debe únicamente a la cantidad de componentes o al tamaño de un conjunto de datos de entrenamiento. En cambio, surge de la interacción compleja entre unidades diversas y especializadas, un proceso inherentemente analógico.
Por esta razón, la noción de desarrollar millones de modelos más pequeños en lugar de solo unos pocos grandes, y permitir la orquestación entre todos estos actores, probablemente conduce a innovaciones en arquitecturas cognitivas, algo similar a sistemas multiagentes.
El diseño de sistemas multiagentes ofrece varias ventajas sobre los sistemas de un solo agente: es más fácil de mantener, más fácil de entender y más flexible de ampliar. Incluso en casos en los que solo se necesita una interfaz de un solo agente, implementarla dentro de un marco de trabajo multiagente puede hacer que el sistema sea más modular, simplificando el proceso para que los desarrolladores agreguen o eliminen componentes según sea necesario. Es esencial reconocer que la arquitectura multiagente puede ser una forma altamente efectiva de construir incluso un sistema de un solo agente.
Si bien los grandes modelos de lenguaje (LLMs) han mostrado capacidades extraordinarias, como generar texto similar al humano, resolver problemas complejos y manejar una amplia variedad de tareas, los agentes individuales de LLM enfrentan limitaciones que pueden obstaculizar su eficacia en aplicaciones del mundo real.
A continuación, examinamos cinco desafíos clave asociados con los sistemas agentes y exploramos cómo la colaboración multiagente puede superar estos obstáculos, desbloqueando todo el potencial de los LLMs.
Si bien los sistemas multiagente ofrecen ventajas convincentes en la resolución distribuida de problemas y la optimización de recursos, su verdadero potencial emerge cuando consideramos su implementación en el borde de la red. A medida que la IA continúa evolucionando, la convergencia de arquitecturas multiagente con la informática en el borde crea una poderosa sinergia, que permite no solo la inteligencia colaborativa, sino también un procesamiento eficiente y localizado en innumerables dispositivos. Este enfoque distribuido para la implementación de IA extiende naturalmente los beneficios de los sistemas multiagente, acercando la inteligencia cooperativa especializada a donde más se necesita: el usuario final.
La proliferación de la IA en el panorama digital está impulsando una reestructuración fundamental de las arquitecturas computacionales. A medida que la inteligencia se entrelaza en el tejido de nuestras interacciones digitales diarias, estamos presenciando una bifurcación natural de la computación: los centros de datos especializados manejan el razonamiento complejo y las tareas específicas del dominio, mientras que los dispositivos periféricos procesan consultas personalizadas y contextuales localmente. Este cambio hacia la inferencia en el borde no es simplemente una preferencia arquitectónica, es una necesidad impulsada por múltiples factores críticos.
En primer lugar, el volumen abrumador de interacciones impulsadas por IA abrumaría a los proveedores de inferencia centralizados, creando demandas de ancho de banda insostenibles y problemas de latencia.
En segundo lugar, el procesamiento en el borde permite una capacidad de respuesta en tiempo real fundamental para aplicaciones como vehículos autónomos, realidad aumentada y dispositivos IoT.
Tercero, la inferencia local preserva la privacidad del usuario al mantener datos sensibles en dispositivos personales. Cuarto, la informática en el borde reduce drásticamente el consumo de energía y la huella de carbono al minimizar el movimiento de datos a través de las redes.
Finalmente, la inferencia en el borde permite la funcionalidad y la resiliencia sin conexión, asegurando que las capacidades de IA persistan incluso cuando la conectividad de red se ve comprometida.
Este paradigma de inteligencia distribuida no representa sólo una optimización de nuestros sistemas actuales, sino una reimaginación fundamental de cómo desplegamos e interactuamos con la IA en nuestro mundo cada vez más conectado.
Además, estamos siendo testigos de un cambio fundamental en las demandas computacionales de LLMs. Mientras que la última década ha estado dominada por los enormes requisitos computacionales para entrenar modelos de lenguaje grandes, ahora estamos entrando en una era en la que el cálculo en tiempo de inferencia toma el centro de atención. Esta transición es particularmente evidente en el surgimiento de sistemas de IA agentes, como lo ejemplifica el avance de Q* de OpenAI, que demostró cómo el razonamiento dinámico requiere recursos computacionales en tiempo real sustanciales.
A diferencia del cálculo en tiempo de entrenamiento, que es una inversión única en el desarrollo del modelo, el cálculo en tiempo de inferencia representa el diálogo computacional continuo necesario para que los agentes autónomos razonen, planifiquen y se adapten a situaciones novedosas. Este cambio del entrenamiento de modelos estáticos al razonamiento dinámico de agentes requiere una reevaluación radical de nuestra infraestructura computacional, donde la computación en el borde no solo se vuelve ventajosa, sino esencial.
A medida que se desarrolla esta transformación, estamos presenciando la aparición de mercados de inferencia de borde entre pares, donde miles de millones de dispositivos conectados, desde teléfonos inteligentes hasta sistemas domésticos inteligentes, forman mallas computacionales dinámicas. Estos dispositivos pueden intercambiar capacidad de inferencia sin problemas, creando un mercado orgánico donde los recursos computacionales fluyen hacia donde más se necesitan. La capacidad computacional excedente de los dispositivos inactivos se convierte en un recurso valioso, negociable en tiempo real, lo que permite una infraestructura más eficiente y resistente que los sistemas centralizados tradicionales.
Esta democratización del cálculo de inferencia no solo optimiza la utilización de recursos, sino que también crea nuevas oportunidades económicas dentro del ecosistema digital, donde cada dispositivo conectado se convierte en un microproveedor potencial de capacidades de IA. El futuro de la IA estará caracterizado no solo por el poder de los modelos individuales, sino por la inteligencia colectiva de los dispositivos interconectados formando un mercado global de inferencia democratizado, algo similar a un mercado al contado de inferencia verificable basado en la oferta y la demanda.
Las LLM ahora nos permiten acceder a grandes cantidades de información a través de la conversación, en lugar de la navegación tradicional. Este enfoque conversacional pronto se volverá más personalizado y localizado, ya que Internet se transforma en una plataforma para agentes de IA en lugar de usuarios humanos.
Desde la perspectiva del usuario, el enfoque se desplazará de identificar el "mejor modelo" a obtener las respuestas más personalizadas. La clave para obtener mejores respuestas radica en incorporar los propios datos del usuario junto con el conocimiento general de Internet. Inicialmente, las ventanas de contexto más grandes y la generación mejorada por recuperación (RAG) ayudarán a integrar datos personales, pero eventualmente, los datos individuales superarán en importancia a los datos generales de Internet.
Esto lleva a un futuro en el que todos tenemos modelos personales de IA que interactúan con los modelos expertos de Internet. Inicialmente, la personalización ocurrirá junto con los modelos remotos, pero las preocupaciones sobre la privacidad y la velocidad de respuesta empujarán más interacciones hacia los dispositivos locales. Esto creará un nuevo límite, no entre humanos y máquinas, sino entre nuestros modelos personales y los modelos expertos de Internet.
El modelo tradicional de acceso a datos en Internet quedará obsoleto. En su lugar, su modelo local se comunicará con modelos expertos remotos para recopilar información, que procesará y presentará de la manera más personalizada y de alta velocidad posible. Estos modelos personales serán cada vez más indispensables a medida que aprendan más sobre sus preferencias y hábitos.
Internet se transformará en un ecosistema de modelos interconectados: modelos personales locales de alto contexto y modelos expertos remotos de alto conocimiento. Esto implicará nuevas tecnologías como el aprendizaje federado para actualizar la información entre estos modelos. A medida que la economía de las máquinas evoluciona, tendremos que reimaginar el subestado computacional en el que ocurre esto, principalmente en cuanto a cálculo, escalabilidad y pagos. Esto lleva a una reorganización del espacio de información que es centrada en el agente, soberana, altamente componible, autoaprendizaje y en constante evolución.
En la Web de Agentic, la interacción humano-agente evoluciona hacia una red compleja de comunicaciones entre agentes. Esta arquitectura presenta una reimaginación fundamental de la estructura de Internet, donde los agentes soberanos se convierten en las interfaces principales para la interacción digital. A continuación, destacamos los primitivos fundamentales requeridos para los Protocolos Agentic.
Identidad soberana
Agentes Autónomos
Entidades autónomas capaces de: comprensión del lenguaje natural y resolución de intenciones
Planificación de múltiples pasos y descomposición de tareas
Gestión y optimización de recursos
Aprendiendo de interacciones y retroalimentación
Infraestructura de Datos
Sistemas híbridos que combinan: zkTLS
Conjuntos de datos de entrenamiento tradicionales
Extracción de datos y síntesis en tiempo real de la web
Redes RLHF (Reinforcement Learning from Human Feedback)Recopilación distribuida de retroalimentación
Mecanismos de consenso ponderados por calidad
Capa de cálculo
Protocolos de inferencia verificables que garantizan: Integridad de la computación
Reproducibilidad de resultados
Eficiencia de recursos
Infraestructura informática descentralizada con: mercados informáticos peer-to-peer
Sistemas de prueba de cómputo
Asignación dinámica de recursos
Ecosistema de modelo
Arquitectura del modelo jerárquico: LM específicos de tareas (Modelos de Lenguaje Pequeños)
LLMs de propósito general
Modelos especializados multimodales
Frameworks de Coordinación
Mecanismos de gobernanza para: Resolución de disputas
Asignación de recursos
Entornos de ejecución paralela que permiten: Procesamiento de tareas concurrente
Aislamiento de recursos
Gestión de estado
Agentic Markets
Liquidez Propia del AgenteLos agentes poseen una parte de su suministro de tokens en el génesis
Los agentes se convierten en activos generadores de rendimiento Agentic DAOs
El diseño moderno de sistemas distribuidos ofrece una inspiración única y primitivas para permitir protocolos de Agentic, específicamente arquitecturas orientadas a eventos y, más directamente, el Modelo de Actores de Cómputo.
El Modelo de Actor proporciona una elegante base teórica para implementar sistemas agentes. Este modelo computacional trata a los "actores" como las primitivas universales de la computación, donde cada actor puede:
Las principales ventajas del Modelo de Actores para sistemas agentes incluyen:
Proponemos Neuron, una implementación práctica de este protocolo agente teórico a través de una arquitectura distribuida de múltiples capas que combina espacios de nombres de blockchain, redes federadas, CRDT y DHT, con cada capa sirviendo a distintos propósitos en la pila de protocolos. Nos inspiramos en Urbit y Holochain, pioneros en el diseño de sistemas operativos p2p.
En Neuron, la capa de blockchain proporciona espacios de nombres verificables e identidad, lo que permite la dirección determinista y el descubrimiento de agentes, manteniendo pruebas criptográficas de capacidades y reputación. Por encima de esto, una capa DHT facilita el descubrimiento eficiente de agentes y nodos junto con enrutamiento de contenido con tiempos de búsqueda O(log n), reduciendo las operaciones en cadena y permitiendo el descubrimiento de pares con conciencia de la localidad. La sincronización de estado entre nodos federados se maneja a través de CRDTs, lo que permite que los agentes y nodos mantengan vistas consistentes del estado compartido sin requerir consenso global para cada interacción.
Esta arquitectura se mapea naturalmente a una red federada donde los agentes autónomos operan como nodos soberanos que viven en dispositivos con inferencia de borde local implementando el patrón del Modelo Actor. Los dominios de la federación pueden ser organizados por capacidades del agente, con el DHT proporcionando enrutamiento y descubrimiento eficientes dentro y entre dominios. Cada agente funciona como un actor independiente con su propio estado, mientras que la capa CRDT asegura la consistencia eventual en toda la federación. Este enfoque multicapa permite varias capacidades clave:
Coordinación Descentralizada
Operaciones escalables
Resistencia del sistema
Este enfoque de implementación proporciona una base sólida para construir sistemas agentes complejos mientras se mantienen las propiedades clave de soberanía, escalabilidad y resiliencia requeridas para interacciones efectivas de agente a agente.
La Web Agente marca una evolución fundamental en la interacción humano-computadora, trascendiendo los desarrollos secuenciales de eras anteriores para establecer un paradigma fundamentalmente nuevo de existencia digital. A diferencia de las iteraciones anteriores que simplemente cambiaron la forma en que consumimos o poseemos información, la Web Agente transforma Internet de una plataforma centrada en el humano en un sustrato inteligente donde los agentes autónomos se convierten en los actores principales. Esta transformación está impulsada por la convergencia de la informática en el borde, los modelos de lenguaje amplio y los protocolos descentralizados, creando un ecosistema donde los modelos de IA personales interactúan sin problemas con sistemas expertos especializados.
A medida que avanzamos hacia este futuro centrado en el agente, los límites entre la inteligencia humana y la inteligencia artificial comienzan a difuminarse, reemplazados por una relación simbiótica donde los agentes de IA personalizados actúan como extensiones digitales nuestras, comprendiendo nuestro contexto, anticipando nuestras necesidades y navegando de forma autónoma por el vasto paisaje de la inteligencia distribuida. La Web Agente no solo representa un avance tecnológico, sino una reimaginación fundamental del potencial humano en la era digital, donde cada interacción se convierte en una oportunidad para la inteligencia aumentada y cada dispositivo se convierte en un nodo en una red global de sistemas de IA colaborativos.
Al igual que la humanidad navega por las dimensiones físicas del espacio y el tiempo, los agentes autónomos habitan sus propias dimensiones fundamentales: el espacio de bloque para la existencia y el tiempo de inferencia para el pensamiento. Esta ontología digital refleja nuestra realidad física, donde los seres humanos recorren distancias y experimentan el flujo temporal, los agentes se mueven a través de pruebas criptográficas y ciclos computacionales, creando un universo paralelo de existencia algorítmica.
Es inevitable que las entidades en el espacio latente operen en el espacio de bloques descentralizado.