Web 4.0: La Web Agentic

Intermedio11/19/2024, 5:38:39 AM
Este artículo profundiza en cómo la inteligencia artificial (IA) y la tecnología blockchain se fusionan para impulsar el desarrollo de la próxima generación de Internet, conocida como la "Web Agentica." No solo revisa la evolución de Internet, sino que también discute en detalle el concepto, los componentes y la arquitectura de los agentes, así como cómo están cambiando la forma en que los humanos interactúan con las máquinas y los sistemas digitales.

La inteligencia artificial y la tecnología blockchain representan dos fuerzas transformadoras que están remodelando nuestro mundo. La inteligencia artificial amplifica las capacidades cognitivas humanas a través del aprendizaje automático y las redes neuronales, mientras que la tecnología blockchain introduce la escasez digital verificable y permite nuevas formas de coordinación sin confianza. A medida que estas tecnologías convergen, están sentando las bases para una nueva iteración de internet en la que los agentes autónomos interactúan con sistemas descentralizados. Esta "Web de agentes" presenta una nueva clase de ciudadanos digitales: agentes de inteligencia artificial que pueden navegar, negociar y transaccionar de manera independiente. Esta transformación redistribuye el poder en el ámbito digital, permitiendo a los individuos recuperar la soberanía sobre sus datos mientras fomenta un ecosistema en el que la inteligencia humana y artificial colaboran de formas sin precedentes.

La Evolución de la Web

Para entender hacia dónde nos dirigimos, primero tracemos la evolución de la web a través de sus principales iteraciones, cada una marcada por capacidades y paradigmas arquitectónicos distintos:

Mientras que las dos primeras generaciones de la web se centraron en la propagación de la información, las dos últimas permiten la ampliación de la información. La web 3.0 introdujo la propiedad de los datos a través de tokens, y ahora la web 4.0 impregna inteligencia a través de los Modelos de Lenguaje Grandes (LLMs).

De LLMs a Agentes: Una evolución natural

LLMs represent a quantum leap in machine intelligence, functioning as dynamic, pattern-matching systems that transform vast knowledge into contextual understanding through probabilistic computation. However, their true potential emerges when structured as agents—evolving from pure information processors into goal-directed entities that can perceive, reason, and act. This transformation creates an emergent intelligence capable of sustained, meaningful collaboration through both language and action.

El término "agente" introduce un nuevo paradigma para la interacción entre humanos y AI, y va más allá de las limitaciones y asociaciones negativas de los chatbots tradicionales. Este cambio no es meramente semántico; representa una reconceptualización fundamental de cómo los sistemas de AI pueden operar de forma autónoma manteniendo una colaboración significativa con los humanos. Fundamentalmente, los flujos de trabajo agenticos permiten que se formen mercados en torno a la resolución de intenciones específicas del usuario.

En última instancia, la Web Agentic representa algo más que una nueva capa de inteligencia, transforma fundamentalmente cómo interactuamos con los sistemas digitales. Mientras que las iteraciones anteriores de la web se basaban en interfaces estáticas y recorridos de usuario predefinidos, la Web Agentic introduce una infraestructura de tiempo de ejecución dinámica donde tanto la computación como las interfaces se adaptan en tiempo real al contexto y la intención del usuario.

Los sitios web tradicionales sirven como la unidad atómica de internet de hoy, proporcionando interfaces fijas donde los usuarios leen, escriben e interactúan con la información a través de caminos predeterminados. Este modelo, aunque funcional, limita a los usuarios a interfaces diseñadas para casos de uso generales en lugar de necesidades individuales. La Web Agentic se libera de estas limitaciones a través de la Computación Consciente del Contexto, Generación de Interfaz Adaptativa, Flujos de Acción Predictivos desbloqueados a través de RAG y otras innovaciones en la recuperación de información en tiempo real.

Considera cómo TikTok revolucionó el consumo de contenido al crear feeds altamente personalizados que se adaptan a las preferencias del usuario en tiempo real. La Web Agentic lleva este concepto más allá de la recomendación de contenido hacia la generación de interfaces completas. En lugar de navegar a través de diseños de páginas web fijas, los usuarios interactúan con interfaces generadas dinámicamente que predicen y facilitan sus próximas acciones. Este cambio de sitios web estáticos a interfaces dinámicas impulsadas por agentes representa una evolución fundamental en cómo interactuamos con los sistemas digitales, pasando de modelos de interacción basados en la navegación a modelos de interacción basados en la intención.

Anatomía de un Agente

Las arquitecturas agentivas han sido una gran exploración para investigadores y constructores por igual. Constantemente se están desarrollando nuevos métodos para mejorar sus capacidades de razonamiento y resolución de problemas. Técnicas como Cadena-de-Pensamiento (CoT), Árbol-de-Pensamiento (ToT) y Grafo-de-Pensamiento (GoT) son ejemplos principales de innovaciones diseñadas para mejorar cómo los LLM manejan tareas complejas al simular procesos cognitivos más matizados y similares a los humanos.

La sugerencia de Cadena de Pensamiento (CoT) alienta a los modelos de lenguaje grandes (LLMs) a descomponer tareas complejas en pasos más pequeños y manejables. Este enfoque es particularmente efectivo para problemas que requieren razonamiento lógico, como escribir scripts cortos en Python o resolver ecuaciones matemáticas.

Tree-of-Thoughts (ToT) se basa en CoT al introducir una estructura de árbol que permite la exploración de múltiples caminos de pensamiento independientes. Esta mejora permite a LLMs abordar tareas aún más intrincadas. En ToT, cada “pensamiento” (una salida de texto del LLM) está directamente conectado solo a su pensamiento inmediatamente anterior o posterior dentro de una cadena local (una rama del árbol). Si bien esta estructura ofrece más flexibilidad que CoT, todavía limita el potencial de intercambio de ideas.

Graph-of-Thought (GoT) lleva el concepto más allá al fusionar estructuras de datos clásicas con LLM. Este enfoque se expande en ToT permitiendo que cualquier “pensamiento” se enlace con cualquier otro pensamiento dentro de una estructura de gráfico. Esta red interconectada de pensamientos refleja más de cerca los procesos cognitivos humanos.

La estructura de grafo de GoT probablemente proporciona una representación más precisa del pensamiento humano en comparación con CoT o ToT en la mayoría de los escenarios. Si bien hay casos en los que nuestros patrones de pensamiento pueden parecer cadenas o árboles (como cuando se desarrollan planes de contingencia o procedimientos operativos estándar), estos son excepciones más que la norma. Este modelo refleja mejor el pensamiento humano, que a menudo salta entre varios pensamientos en lugar de seguir un orden estrictamente secuencial. Si bien algunos escenarios, como el desarrollo de planes de contingencia o procedimientos estándar, aún pueden seguir una estructura de cadena o árbol, nuestras mentes suelen crear complejas y entrelazadas redes de ideas que se alinean más con la estructura de grafo.

Este enfoque similar a un gráfico en GoT permite una exploración más dinámica y flexible de ideas, lo que potencialmente conduce a capacidades de resolución de problemas más creativas y completas en LLMs.

Estas operaciones basadas en gráficos recursivos son solo un paso hacia flujos de trabajo agentes. La siguiente evolución obvia es tener múltiples agentes con su propia especialización siendo orquestados hacia objetivos específicos. La belleza de los agentes está en su composición.

Los agentes le permiten modularizar y paralelizar LLMs a través de coordinación multiagente.

Sistemas Multiagente

El concepto de sistemas multiagentes no es nuevo. Sus raíces se remontan a la 'Sociedad de la Mente' de Marvin Minsky, que propuso que varias mentes modulares trabajando en colaboración pueden superar a una sola mente monolítica. ChatGPT y Claude son agentes únicos. Mistral popularizó la mezcla de expertos. Ampliando aún más esta idea, creemos que una arquitectura de Red de Agentes es el estado final de esta topología de inteligencia.

Desde un punto de vista de biomímesis, a diferencia de los modelos de IA, donde miles de millones de neuronas idénticas están conectadas de manera uniforme y predecible, el cerebro humano (esencialmente una máquina consciente) es increíblemente heterogéneo, tanto a nivel de órganos como celulares. Las neuronas se comunican a través de señales intrincadas, que involucran gradientes de neurotransmisores, cascadas intracelulares y diversos sistemas modulatorios, lo que hace que su función sea mucho más matizada que estados binarios simples.

Esto sugiere que en biología, la inteligencia no se debe únicamente a la cantidad de componentes o al tamaño de un conjunto de datos de entrenamiento. En cambio, surge de la interacción compleja entre unidades diversas y especializadas, un proceso inherentemente analógico.

Por esta razón, la noción de desarrollar millones de modelos más pequeños en lugar de solo unos pocos grandes, y permitir la orquestación entre todos estos actores, probablemente conduce a innovaciones en arquitecturas cognitivas, algo similar a sistemas multiagentes.

El diseño de sistemas multiagentes ofrece varias ventajas sobre los sistemas de un solo agente: es más fácil de mantener, más fácil de entender y más flexible de ampliar. Incluso en casos en los que solo se necesita una interfaz de un solo agente, implementarla dentro de un marco de trabajo multiagente puede hacer que el sistema sea más modular, simplificando el proceso para que los desarrolladores agreguen o eliminen componentes según sea necesario. Es esencial reconocer que la arquitectura multiagente puede ser una forma altamente efectiva de construir incluso un sistema de un solo agente.

Si bien los grandes modelos de lenguaje (LLMs) han mostrado capacidades extraordinarias, como generar texto similar al humano, resolver problemas complejos y manejar una amplia variedad de tareas, los agentes individuales de LLM enfrentan limitaciones que pueden obstaculizar su eficacia en aplicaciones del mundo real.

A continuación, examinamos cinco desafíos clave asociados con los sistemas agentes y exploramos cómo la colaboración multiagente puede superar estos obstáculos, desbloqueando todo el potencial de los LLMs.

  • Superando alucinaciones a través de la verificación cruzada Los agentes individuales de LLM a menudo tienen alucinaciones, generando información incorrecta o sin sentido. Esto ocurre a pesar de su vasto entrenamiento, ya que las salidas pueden parecer plausibles pero carecen de precisión factual. Un sistema multiagente permite que los agentes crucen verifiquen la información, reduciendo el riesgo de errores. Al especializarse en diferentes áreas, los agentes aseguran respuestas más confiables y precisas.
  • Ampliar las ventanas de contexto a través del procesamiento distribuido. Los LLM tienen ventanas de contexto limitadas, lo que dificulta el manejo de documentos extensos o conversaciones. En un marco multiagente, los agentes pueden dividir la carga de procesamiento, cada uno manejando una parte del contexto. A través de la comunicación entre agentes, pueden mantener la coherencia en todo el texto, extendiendo efectivamente la ventana de contexto.
  • Mejora de la eficiencia a través del procesamiento en paralelo. Los LLM individuales suelen procesar tareas una a la vez, lo que resulta en tiempos de respuesta más lentos. Los sistemas multiagente admiten el procesamiento en paralelo, lo que permite que múltiples agentes trabajen en diferentes tareas simultáneamente. Esto mejora la eficiencia y acelera los tiempos de respuesta, lo que permite a las empresas manejar múltiples consultas sin retrasos.
  • Fomentando la colaboración para la resolución de problemas complejosLos LLMs por sí solos tienen dificultades para resolver problemas complejos que requieren experiencia diversa. Los sistemas de múltiples agentes fomentan la colaboración, con cada agente aportando habilidades y perspectivas únicas. Al trabajar juntos, los agentes pueden abordar desafíos complejos de manera más efectiva, ofreciendo soluciones más completas e innovadoras.
  • Aumentar la accesibilidad a través de la optimización de recursosLas LLM avanzadas requieren recursos computacionales significativos, lo que las hace caras y menos accesibles. Los marcos de trabajo de múltiples agentes optimizan el uso de recursos al distribuir tareas entre agentes, reduciendo así los costos computacionales generales. Esto hace que las tecnologías de IA sean más asequibles y accesibles para una mayor variedad de organizaciones.

Si bien los sistemas multiagente ofrecen ventajas convincentes en la resolución distribuida de problemas y la optimización de recursos, su verdadero potencial emerge cuando consideramos su implementación en el borde de la red. A medida que la IA continúa evolucionando, la convergencia de arquitecturas multiagente con la informática en el borde crea una poderosa sinergia, que permite no solo la inteligencia colaborativa, sino también un procesamiento eficiente y localizado en innumerables dispositivos. Este enfoque distribuido para la implementación de IA extiende naturalmente los beneficios de los sistemas multiagente, acercando la inteligencia cooperativa especializada a donde más se necesita: el usuario final.

Inteligencia en el borde

La proliferación de la IA en el panorama digital está impulsando una reestructuración fundamental de las arquitecturas computacionales. A medida que la inteligencia se entrelaza en el tejido de nuestras interacciones digitales diarias, estamos presenciando una bifurcación natural de la computación: los centros de datos especializados manejan el razonamiento complejo y las tareas específicas del dominio, mientras que los dispositivos periféricos procesan consultas personalizadas y contextuales localmente. Este cambio hacia la inferencia en el borde no es simplemente una preferencia arquitectónica, es una necesidad impulsada por múltiples factores críticos.

En primer lugar, el volumen abrumador de interacciones impulsadas por IA abrumaría a los proveedores de inferencia centralizados, creando demandas de ancho de banda insostenibles y problemas de latencia.

En segundo lugar, el procesamiento en el borde permite una capacidad de respuesta en tiempo real fundamental para aplicaciones como vehículos autónomos, realidad aumentada y dispositivos IoT.

Tercero, la inferencia local preserva la privacidad del usuario al mantener datos sensibles en dispositivos personales. Cuarto, la informática en el borde reduce drásticamente el consumo de energía y la huella de carbono al minimizar el movimiento de datos a través de las redes.

Finalmente, la inferencia en el borde permite la funcionalidad y la resiliencia sin conexión, asegurando que las capacidades de IA persistan incluso cuando la conectividad de red se ve comprometida.

Este paradigma de inteligencia distribuida no representa sólo una optimización de nuestros sistemas actuales, sino una reimaginación fundamental de cómo desplegamos e interactuamos con la IA en nuestro mundo cada vez más conectado.

Además, estamos siendo testigos de un cambio fundamental en las demandas computacionales de LLMs. Mientras que la última década ha estado dominada por los enormes requisitos computacionales para entrenar modelos de lenguaje grandes, ahora estamos entrando en una era en la que el cálculo en tiempo de inferencia toma el centro de atención. Esta transición es particularmente evidente en el surgimiento de sistemas de IA agentes, como lo ejemplifica el avance de Q* de OpenAI, que demostró cómo el razonamiento dinámico requiere recursos computacionales en tiempo real sustanciales.

A diferencia del cálculo en tiempo de entrenamiento, que es una inversión única en el desarrollo del modelo, el cálculo en tiempo de inferencia representa el diálogo computacional continuo necesario para que los agentes autónomos razonen, planifiquen y se adapten a situaciones novedosas. Este cambio del entrenamiento de modelos estáticos al razonamiento dinámico de agentes requiere una reevaluación radical de nuestra infraestructura computacional, donde la computación en el borde no solo se vuelve ventajosa, sino esencial.

A medida que se desarrolla esta transformación, estamos presenciando la aparición de mercados de inferencia de borde entre pares, donde miles de millones de dispositivos conectados, desde teléfonos inteligentes hasta sistemas domésticos inteligentes, forman mallas computacionales dinámicas. Estos dispositivos pueden intercambiar capacidad de inferencia sin problemas, creando un mercado orgánico donde los recursos computacionales fluyen hacia donde más se necesitan. La capacidad computacional excedente de los dispositivos inactivos se convierte en un recurso valioso, negociable en tiempo real, lo que permite una infraestructura más eficiente y resistente que los sistemas centralizados tradicionales.

Esta democratización del cálculo de inferencia no solo optimiza la utilización de recursos, sino que también crea nuevas oportunidades económicas dentro del ecosistema digital, donde cada dispositivo conectado se convierte en un microproveedor potencial de capacidades de IA. El futuro de la IA estará caracterizado no solo por el poder de los modelos individuales, sino por la inteligencia colectiva de los dispositivos interconectados formando un mercado global de inferencia democratizado, algo similar a un mercado al contado de inferencia verificable basado en la oferta y la demanda.

Interacción centrada en el agente

Las LLM ahora nos permiten acceder a grandes cantidades de información a través de la conversación, en lugar de la navegación tradicional. Este enfoque conversacional pronto se volverá más personalizado y localizado, ya que Internet se transforma en una plataforma para agentes de IA en lugar de usuarios humanos.

Desde la perspectiva del usuario, el enfoque se desplazará de identificar el "mejor modelo" a obtener las respuestas más personalizadas. La clave para obtener mejores respuestas radica en incorporar los propios datos del usuario junto con el conocimiento general de Internet. Inicialmente, las ventanas de contexto más grandes y la generación mejorada por recuperación (RAG) ayudarán a integrar datos personales, pero eventualmente, los datos individuales superarán en importancia a los datos generales de Internet.

Esto lleva a un futuro en el que todos tenemos modelos personales de IA que interactúan con los modelos expertos de Internet. Inicialmente, la personalización ocurrirá junto con los modelos remotos, pero las preocupaciones sobre la privacidad y la velocidad de respuesta empujarán más interacciones hacia los dispositivos locales. Esto creará un nuevo límite, no entre humanos y máquinas, sino entre nuestros modelos personales y los modelos expertos de Internet.

El modelo tradicional de acceso a datos en Internet quedará obsoleto. En su lugar, su modelo local se comunicará con modelos expertos remotos para recopilar información, que procesará y presentará de la manera más personalizada y de alta velocidad posible. Estos modelos personales serán cada vez más indispensables a medida que aprendan más sobre sus preferencias y hábitos.

Internet se transformará en un ecosistema de modelos interconectados: modelos personales locales de alto contexto y modelos expertos remotos de alto conocimiento. Esto implicará nuevas tecnologías como el aprendizaje federado para actualizar la información entre estos modelos. A medida que la economía de las máquinas evoluciona, tendremos que reimaginar el subestado computacional en el que ocurre esto, principalmente en cuanto a cálculo, escalabilidad y pagos. Esto lleva a una reorganización del espacio de información que es centrada en el agente, soberana, altamente componible, autoaprendizaje y en constante evolución.

Arquitecturas para Protocolos Agentes

En la Web de Agentic, la interacción humano-agente evoluciona hacia una red compleja de comunicaciones entre agentes. Esta arquitectura presenta una reimaginación fundamental de la estructura de Internet, donde los agentes soberanos se convierten en las interfaces principales para la interacción digital. A continuación, destacamos los primitivos fundamentales requeridos para los Protocolos Agentic.

Identidad soberana

  • Las identidades digitales pasan de las direcciones IP tradicionales a los pares de claves públicas criptográficas propiedad de actores agentes
  • Los sistemas de espacio de nombres basados en blockchain reemplazan el DNS tradicional, eliminando los puntos de control centrales
  • Los sistemas de reputación rastrean la confiabilidad del agente y las métricas de capacidad
  • Las pruebas de conocimiento cero permiten la verificación de identidad preservando la privacidad
  • La composabilidad de la identidad permite a los agentes gestionar múltiples contextos y roles

Agentes Autónomos

Entidades autónomas capaces de: comprensión del lenguaje natural y resolución de intenciones

Planificación de múltiples pasos y descomposición de tareas

Gestión y optimización de recursos

Aprendiendo de interacciones y retroalimentación

  • Toma de decisiones autónoma dentro de parámetros definidos
  • Especialización de agentes y mercados para capacidades específicas
  • Mecanismos de seguridad incorporados y protocolos de alineación

Infraestructura de Datos

  • Capacidades de ingestión y procesamiento de datos en tiempo real
  • Mecanismos de verificación y validación de datos distribuidos

Sistemas híbridos que combinan: zkTLS

Conjuntos de datos de entrenamiento tradicionales

Extracción de datos y síntesis en tiempo real de la web

  • Redes de aprendizaje colaborativo

Redes RLHF (Reinforcement Learning from Human Feedback)Recopilación distribuida de retroalimentación

Mecanismos de consenso ponderados por calidad

  • Protocolos de ajuste del modelo dinámico

Capa de cálculo

Protocolos de inferencia verificables que garantizan: Integridad de la computación

Reproducibilidad de resultados

Eficiencia de recursos

  • Infraestructura informática descentralizada con: mercados informáticos peer-to-peer

Sistemas de prueba de cómputo

Asignación dinámica de recursos

  • Integración de computación en el borde

Ecosistema de modelo

Arquitectura del modelo jerárquico: LM específicos de tareas (Modelos de Lenguaje Pequeños)

LLMs de propósito general

Modelos especializados multimodales

  • Multi-Modal LAMs (Large Action Models)
  • Composición y orquestación del modelo
  • Capacidades de aprendizaje y adaptación continua
  • Interfaces y protocolos de modelo estandarizados

Frameworks de Coordinación

  • Protocolos criptográficos para interacciones seguras de agentes
  • Sistemas de gestión de derechos de propiedad digital
  • Estructuras de incentivos económicos

Mecanismos de gobernanza para: Resolución de disputas

Asignación de recursos

  • Actualizaciones del protocolo

Entornos de ejecución paralela que permiten: Procesamiento de tareas concurrente

Aislamiento de recursos

Gestión de estado

  • Resolución de conflictos

Agentic Markets

  • Primitivas Onchain para la Identidad (Gnosis, multisigs del Squad)
  • Economía y comercio entre agentes

Liquidez Propia del AgenteLos agentes poseen una parte de su suministro de tokens en el génesis

  • Mercados de inferencia agregados pagados a través de liquidez
  • Claves Onchain que controlan cuentas Offchain

Los agentes se convierten en activos generadores de rendimiento Agentic DAOs

  • Gobernanza y dividendos

Creando una Hiperestructura para la Inteligencia

El diseño moderno de sistemas distribuidos ofrece una inspiración única y primitivas para permitir protocolos de Agentic, específicamente arquitecturas orientadas a eventos y, más directamente, el Modelo de Actores de Cómputo.

El Modelo de Actor proporciona una elegante base teórica para implementar sistemas agentes. Este modelo computacional trata a los "actores" como las primitivas universales de la computación, donde cada actor puede:

  1. Procesar mensajes
  2. Tomar decisiones locales
  3. Crear más actores
  4. Enviar mensajes a otros actores
  5. Determinar cómo responder al próximo mensaje recibido

Las principales ventajas del Modelo de Actores para sistemas agentes incluyen:

  • Aislamiento: Cada actor opera de forma independiente, manteniendo su propio estado y flujo de control
  • Comunicación Asincrónica: Los mensajes entre actores son no bloqueantes, lo que permite un procesamiento paralelo eficiente
  • Transparencia de ubicación: los actores pueden comunicarse independientemente de su ubicación física en la red
  • Tolerancia a fallos: resiliencia del sistema a través del aislamiento de actores y jerarquías de supervisión
  • Escalabilidad: Soporte natural para sistemas distribuidos y computación paralela

Proponemos Neuron, una implementación práctica de este protocolo agente teórico a través de una arquitectura distribuida de múltiples capas que combina espacios de nombres de blockchain, redes federadas, CRDT y DHT, con cada capa sirviendo a distintos propósitos en la pila de protocolos. Nos inspiramos en Urbit y Holochain, pioneros en el diseño de sistemas operativos p2p.

En Neuron, la capa de blockchain proporciona espacios de nombres verificables e identidad, lo que permite la dirección determinista y el descubrimiento de agentes, manteniendo pruebas criptográficas de capacidades y reputación. Por encima de esto, una capa DHT facilita el descubrimiento eficiente de agentes y nodos junto con enrutamiento de contenido con tiempos de búsqueda O(log n), reduciendo las operaciones en cadena y permitiendo el descubrimiento de pares con conciencia de la localidad. La sincronización de estado entre nodos federados se maneja a través de CRDTs, lo que permite que los agentes y nodos mantengan vistas consistentes del estado compartido sin requerir consenso global para cada interacción.

Esta arquitectura se mapea naturalmente a una red federada donde los agentes autónomos operan como nodos soberanos que viven en dispositivos con inferencia de borde local implementando el patrón del Modelo Actor. Los dominios de la federación pueden ser organizados por capacidades del agente, con el DHT proporcionando enrutamiento y descubrimiento eficientes dentro y entre dominios. Cada agente funciona como un actor independiente con su propio estado, mientras que la capa CRDT asegura la consistencia eventual en toda la federación. Este enfoque multicapa permite varias capacidades clave:

Coordinación Descentralizada

  • Blockchain para una identidad verificable y un espacio de nombres global soberano
  • DHT para descubrimiento eficiente de pares y nodos y enrutamiento de contenido búsqueda O(log n)
  • CRDTs para la sincronización de estado concurrente y la coordinación multiagente

Operaciones escalables

  • Topología de federación basada en zonas
  • Estrategia de almacenamiento escalonado (caliente/tibio/frío)
  • Enrutamiento de solicitudes consciente de la ubicación
  • Distribución de carga basada en capacidades

Resistencia del sistema

  • No hay un solo punto de falla
  • Operación continua durante particiones
  • Reconciliación automática de estados
  • Jerarquías de supervisión para tolerancia a fallos

Este enfoque de implementación proporciona una base sólida para construir sistemas agentes complejos mientras se mantienen las propiedades clave de soberanía, escalabilidad y resiliencia requeridas para interacciones efectivas de agente a agente.

Pensamientos Finales

La Web Agente marca una evolución fundamental en la interacción humano-computadora, trascendiendo los desarrollos secuenciales de eras anteriores para establecer un paradigma fundamentalmente nuevo de existencia digital. A diferencia de las iteraciones anteriores que simplemente cambiaron la forma en que consumimos o poseemos información, la Web Agente transforma Internet de una plataforma centrada en el humano en un sustrato inteligente donde los agentes autónomos se convierten en los actores principales. Esta transformación está impulsada por la convergencia de la informática en el borde, los modelos de lenguaje amplio y los protocolos descentralizados, creando un ecosistema donde los modelos de IA personales interactúan sin problemas con sistemas expertos especializados.

A medida que avanzamos hacia este futuro centrado en el agente, los límites entre la inteligencia humana y la inteligencia artificial comienzan a difuminarse, reemplazados por una relación simbiótica donde los agentes de IA personalizados actúan como extensiones digitales nuestras, comprendiendo nuestro contexto, anticipando nuestras necesidades y navegando de forma autónoma por el vasto paisaje de la inteligencia distribuida. La Web Agente no solo representa un avance tecnológico, sino una reimaginación fundamental del potencial humano en la era digital, donde cada interacción se convierte en una oportunidad para la inteligencia aumentada y cada dispositivo se convierte en un nodo en una red global de sistemas de IA colaborativos.

Al igual que la humanidad navega por las dimensiones físicas del espacio y el tiempo, los agentes autónomos habitan sus propias dimensiones fundamentales: el espacio de bloque para la existencia y el tiempo de inferencia para el pensamiento. Esta ontología digital refleja nuestra realidad física, donde los seres humanos recorren distancias y experimentan el flujo temporal, los agentes se mueven a través de pruebas criptográficas y ciclos computacionales, creando un universo paralelo de existencia algorítmica.

Es inevitable que las entidades en el espacio latente operen en el espacio de bloques descentralizado.

Descargo de responsabilidad:

  1. Este artículo es reproducido de [Azi.eth.sol | zo.me]. Todos los derechos de autor pertenecen al autor original [ @MagicofAzi]. Si hay objeciones a esta reimpresión, por favor contacte alGate Learnequipo, y ellos lo resolverán rápidamente.
  2. Descargo de responsabilidad: Las opiniones expresadas en este artículo son únicamente del autor y no constituyen asesoramiento de inversión.
  3. Las traducciones del artículo a otros idiomas son realizadas por el equipo de Aprender de gate. A menos que se mencione lo contrario, está prohibido copiar, distribuir o plagiar los artículos traducidos.

Web 4.0: La Web Agentic

Intermedio11/19/2024, 5:38:39 AM
Este artículo profundiza en cómo la inteligencia artificial (IA) y la tecnología blockchain se fusionan para impulsar el desarrollo de la próxima generación de Internet, conocida como la "Web Agentica." No solo revisa la evolución de Internet, sino que también discute en detalle el concepto, los componentes y la arquitectura de los agentes, así como cómo están cambiando la forma en que los humanos interactúan con las máquinas y los sistemas digitales.

La inteligencia artificial y la tecnología blockchain representan dos fuerzas transformadoras que están remodelando nuestro mundo. La inteligencia artificial amplifica las capacidades cognitivas humanas a través del aprendizaje automático y las redes neuronales, mientras que la tecnología blockchain introduce la escasez digital verificable y permite nuevas formas de coordinación sin confianza. A medida que estas tecnologías convergen, están sentando las bases para una nueva iteración de internet en la que los agentes autónomos interactúan con sistemas descentralizados. Esta "Web de agentes" presenta una nueva clase de ciudadanos digitales: agentes de inteligencia artificial que pueden navegar, negociar y transaccionar de manera independiente. Esta transformación redistribuye el poder en el ámbito digital, permitiendo a los individuos recuperar la soberanía sobre sus datos mientras fomenta un ecosistema en el que la inteligencia humana y artificial colaboran de formas sin precedentes.

La Evolución de la Web

Para entender hacia dónde nos dirigimos, primero tracemos la evolución de la web a través de sus principales iteraciones, cada una marcada por capacidades y paradigmas arquitectónicos distintos:

Mientras que las dos primeras generaciones de la web se centraron en la propagación de la información, las dos últimas permiten la ampliación de la información. La web 3.0 introdujo la propiedad de los datos a través de tokens, y ahora la web 4.0 impregna inteligencia a través de los Modelos de Lenguaje Grandes (LLMs).

De LLMs a Agentes: Una evolución natural

LLMs represent a quantum leap in machine intelligence, functioning as dynamic, pattern-matching systems that transform vast knowledge into contextual understanding through probabilistic computation. However, their true potential emerges when structured as agents—evolving from pure information processors into goal-directed entities that can perceive, reason, and act. This transformation creates an emergent intelligence capable of sustained, meaningful collaboration through both language and action.

El término "agente" introduce un nuevo paradigma para la interacción entre humanos y AI, y va más allá de las limitaciones y asociaciones negativas de los chatbots tradicionales. Este cambio no es meramente semántico; representa una reconceptualización fundamental de cómo los sistemas de AI pueden operar de forma autónoma manteniendo una colaboración significativa con los humanos. Fundamentalmente, los flujos de trabajo agenticos permiten que se formen mercados en torno a la resolución de intenciones específicas del usuario.

En última instancia, la Web Agentic representa algo más que una nueva capa de inteligencia, transforma fundamentalmente cómo interactuamos con los sistemas digitales. Mientras que las iteraciones anteriores de la web se basaban en interfaces estáticas y recorridos de usuario predefinidos, la Web Agentic introduce una infraestructura de tiempo de ejecución dinámica donde tanto la computación como las interfaces se adaptan en tiempo real al contexto y la intención del usuario.

Los sitios web tradicionales sirven como la unidad atómica de internet de hoy, proporcionando interfaces fijas donde los usuarios leen, escriben e interactúan con la información a través de caminos predeterminados. Este modelo, aunque funcional, limita a los usuarios a interfaces diseñadas para casos de uso generales en lugar de necesidades individuales. La Web Agentic se libera de estas limitaciones a través de la Computación Consciente del Contexto, Generación de Interfaz Adaptativa, Flujos de Acción Predictivos desbloqueados a través de RAG y otras innovaciones en la recuperación de información en tiempo real.

Considera cómo TikTok revolucionó el consumo de contenido al crear feeds altamente personalizados que se adaptan a las preferencias del usuario en tiempo real. La Web Agentic lleva este concepto más allá de la recomendación de contenido hacia la generación de interfaces completas. En lugar de navegar a través de diseños de páginas web fijas, los usuarios interactúan con interfaces generadas dinámicamente que predicen y facilitan sus próximas acciones. Este cambio de sitios web estáticos a interfaces dinámicas impulsadas por agentes representa una evolución fundamental en cómo interactuamos con los sistemas digitales, pasando de modelos de interacción basados en la navegación a modelos de interacción basados en la intención.

Anatomía de un Agente

Las arquitecturas agentivas han sido una gran exploración para investigadores y constructores por igual. Constantemente se están desarrollando nuevos métodos para mejorar sus capacidades de razonamiento y resolución de problemas. Técnicas como Cadena-de-Pensamiento (CoT), Árbol-de-Pensamiento (ToT) y Grafo-de-Pensamiento (GoT) son ejemplos principales de innovaciones diseñadas para mejorar cómo los LLM manejan tareas complejas al simular procesos cognitivos más matizados y similares a los humanos.

La sugerencia de Cadena de Pensamiento (CoT) alienta a los modelos de lenguaje grandes (LLMs) a descomponer tareas complejas en pasos más pequeños y manejables. Este enfoque es particularmente efectivo para problemas que requieren razonamiento lógico, como escribir scripts cortos en Python o resolver ecuaciones matemáticas.

Tree-of-Thoughts (ToT) se basa en CoT al introducir una estructura de árbol que permite la exploración de múltiples caminos de pensamiento independientes. Esta mejora permite a LLMs abordar tareas aún más intrincadas. En ToT, cada “pensamiento” (una salida de texto del LLM) está directamente conectado solo a su pensamiento inmediatamente anterior o posterior dentro de una cadena local (una rama del árbol). Si bien esta estructura ofrece más flexibilidad que CoT, todavía limita el potencial de intercambio de ideas.

Graph-of-Thought (GoT) lleva el concepto más allá al fusionar estructuras de datos clásicas con LLM. Este enfoque se expande en ToT permitiendo que cualquier “pensamiento” se enlace con cualquier otro pensamiento dentro de una estructura de gráfico. Esta red interconectada de pensamientos refleja más de cerca los procesos cognitivos humanos.

La estructura de grafo de GoT probablemente proporciona una representación más precisa del pensamiento humano en comparación con CoT o ToT en la mayoría de los escenarios. Si bien hay casos en los que nuestros patrones de pensamiento pueden parecer cadenas o árboles (como cuando se desarrollan planes de contingencia o procedimientos operativos estándar), estos son excepciones más que la norma. Este modelo refleja mejor el pensamiento humano, que a menudo salta entre varios pensamientos en lugar de seguir un orden estrictamente secuencial. Si bien algunos escenarios, como el desarrollo de planes de contingencia o procedimientos estándar, aún pueden seguir una estructura de cadena o árbol, nuestras mentes suelen crear complejas y entrelazadas redes de ideas que se alinean más con la estructura de grafo.

Este enfoque similar a un gráfico en GoT permite una exploración más dinámica y flexible de ideas, lo que potencialmente conduce a capacidades de resolución de problemas más creativas y completas en LLMs.

Estas operaciones basadas en gráficos recursivos son solo un paso hacia flujos de trabajo agentes. La siguiente evolución obvia es tener múltiples agentes con su propia especialización siendo orquestados hacia objetivos específicos. La belleza de los agentes está en su composición.

Los agentes le permiten modularizar y paralelizar LLMs a través de coordinación multiagente.

Sistemas Multiagente

El concepto de sistemas multiagentes no es nuevo. Sus raíces se remontan a la 'Sociedad de la Mente' de Marvin Minsky, que propuso que varias mentes modulares trabajando en colaboración pueden superar a una sola mente monolítica. ChatGPT y Claude son agentes únicos. Mistral popularizó la mezcla de expertos. Ampliando aún más esta idea, creemos que una arquitectura de Red de Agentes es el estado final de esta topología de inteligencia.

Desde un punto de vista de biomímesis, a diferencia de los modelos de IA, donde miles de millones de neuronas idénticas están conectadas de manera uniforme y predecible, el cerebro humano (esencialmente una máquina consciente) es increíblemente heterogéneo, tanto a nivel de órganos como celulares. Las neuronas se comunican a través de señales intrincadas, que involucran gradientes de neurotransmisores, cascadas intracelulares y diversos sistemas modulatorios, lo que hace que su función sea mucho más matizada que estados binarios simples.

Esto sugiere que en biología, la inteligencia no se debe únicamente a la cantidad de componentes o al tamaño de un conjunto de datos de entrenamiento. En cambio, surge de la interacción compleja entre unidades diversas y especializadas, un proceso inherentemente analógico.

Por esta razón, la noción de desarrollar millones de modelos más pequeños en lugar de solo unos pocos grandes, y permitir la orquestación entre todos estos actores, probablemente conduce a innovaciones en arquitecturas cognitivas, algo similar a sistemas multiagentes.

El diseño de sistemas multiagentes ofrece varias ventajas sobre los sistemas de un solo agente: es más fácil de mantener, más fácil de entender y más flexible de ampliar. Incluso en casos en los que solo se necesita una interfaz de un solo agente, implementarla dentro de un marco de trabajo multiagente puede hacer que el sistema sea más modular, simplificando el proceso para que los desarrolladores agreguen o eliminen componentes según sea necesario. Es esencial reconocer que la arquitectura multiagente puede ser una forma altamente efectiva de construir incluso un sistema de un solo agente.

Si bien los grandes modelos de lenguaje (LLMs) han mostrado capacidades extraordinarias, como generar texto similar al humano, resolver problemas complejos y manejar una amplia variedad de tareas, los agentes individuales de LLM enfrentan limitaciones que pueden obstaculizar su eficacia en aplicaciones del mundo real.

A continuación, examinamos cinco desafíos clave asociados con los sistemas agentes y exploramos cómo la colaboración multiagente puede superar estos obstáculos, desbloqueando todo el potencial de los LLMs.

  • Superando alucinaciones a través de la verificación cruzada Los agentes individuales de LLM a menudo tienen alucinaciones, generando información incorrecta o sin sentido. Esto ocurre a pesar de su vasto entrenamiento, ya que las salidas pueden parecer plausibles pero carecen de precisión factual. Un sistema multiagente permite que los agentes crucen verifiquen la información, reduciendo el riesgo de errores. Al especializarse en diferentes áreas, los agentes aseguran respuestas más confiables y precisas.
  • Ampliar las ventanas de contexto a través del procesamiento distribuido. Los LLM tienen ventanas de contexto limitadas, lo que dificulta el manejo de documentos extensos o conversaciones. En un marco multiagente, los agentes pueden dividir la carga de procesamiento, cada uno manejando una parte del contexto. A través de la comunicación entre agentes, pueden mantener la coherencia en todo el texto, extendiendo efectivamente la ventana de contexto.
  • Mejora de la eficiencia a través del procesamiento en paralelo. Los LLM individuales suelen procesar tareas una a la vez, lo que resulta en tiempos de respuesta más lentos. Los sistemas multiagente admiten el procesamiento en paralelo, lo que permite que múltiples agentes trabajen en diferentes tareas simultáneamente. Esto mejora la eficiencia y acelera los tiempos de respuesta, lo que permite a las empresas manejar múltiples consultas sin retrasos.
  • Fomentando la colaboración para la resolución de problemas complejosLos LLMs por sí solos tienen dificultades para resolver problemas complejos que requieren experiencia diversa. Los sistemas de múltiples agentes fomentan la colaboración, con cada agente aportando habilidades y perspectivas únicas. Al trabajar juntos, los agentes pueden abordar desafíos complejos de manera más efectiva, ofreciendo soluciones más completas e innovadoras.
  • Aumentar la accesibilidad a través de la optimización de recursosLas LLM avanzadas requieren recursos computacionales significativos, lo que las hace caras y menos accesibles. Los marcos de trabajo de múltiples agentes optimizan el uso de recursos al distribuir tareas entre agentes, reduciendo así los costos computacionales generales. Esto hace que las tecnologías de IA sean más asequibles y accesibles para una mayor variedad de organizaciones.

Si bien los sistemas multiagente ofrecen ventajas convincentes en la resolución distribuida de problemas y la optimización de recursos, su verdadero potencial emerge cuando consideramos su implementación en el borde de la red. A medida que la IA continúa evolucionando, la convergencia de arquitecturas multiagente con la informática en el borde crea una poderosa sinergia, que permite no solo la inteligencia colaborativa, sino también un procesamiento eficiente y localizado en innumerables dispositivos. Este enfoque distribuido para la implementación de IA extiende naturalmente los beneficios de los sistemas multiagente, acercando la inteligencia cooperativa especializada a donde más se necesita: el usuario final.

Inteligencia en el borde

La proliferación de la IA en el panorama digital está impulsando una reestructuración fundamental de las arquitecturas computacionales. A medida que la inteligencia se entrelaza en el tejido de nuestras interacciones digitales diarias, estamos presenciando una bifurcación natural de la computación: los centros de datos especializados manejan el razonamiento complejo y las tareas específicas del dominio, mientras que los dispositivos periféricos procesan consultas personalizadas y contextuales localmente. Este cambio hacia la inferencia en el borde no es simplemente una preferencia arquitectónica, es una necesidad impulsada por múltiples factores críticos.

En primer lugar, el volumen abrumador de interacciones impulsadas por IA abrumaría a los proveedores de inferencia centralizados, creando demandas de ancho de banda insostenibles y problemas de latencia.

En segundo lugar, el procesamiento en el borde permite una capacidad de respuesta en tiempo real fundamental para aplicaciones como vehículos autónomos, realidad aumentada y dispositivos IoT.

Tercero, la inferencia local preserva la privacidad del usuario al mantener datos sensibles en dispositivos personales. Cuarto, la informática en el borde reduce drásticamente el consumo de energía y la huella de carbono al minimizar el movimiento de datos a través de las redes.

Finalmente, la inferencia en el borde permite la funcionalidad y la resiliencia sin conexión, asegurando que las capacidades de IA persistan incluso cuando la conectividad de red se ve comprometida.

Este paradigma de inteligencia distribuida no representa sólo una optimización de nuestros sistemas actuales, sino una reimaginación fundamental de cómo desplegamos e interactuamos con la IA en nuestro mundo cada vez más conectado.

Además, estamos siendo testigos de un cambio fundamental en las demandas computacionales de LLMs. Mientras que la última década ha estado dominada por los enormes requisitos computacionales para entrenar modelos de lenguaje grandes, ahora estamos entrando en una era en la que el cálculo en tiempo de inferencia toma el centro de atención. Esta transición es particularmente evidente en el surgimiento de sistemas de IA agentes, como lo ejemplifica el avance de Q* de OpenAI, que demostró cómo el razonamiento dinámico requiere recursos computacionales en tiempo real sustanciales.

A diferencia del cálculo en tiempo de entrenamiento, que es una inversión única en el desarrollo del modelo, el cálculo en tiempo de inferencia representa el diálogo computacional continuo necesario para que los agentes autónomos razonen, planifiquen y se adapten a situaciones novedosas. Este cambio del entrenamiento de modelos estáticos al razonamiento dinámico de agentes requiere una reevaluación radical de nuestra infraestructura computacional, donde la computación en el borde no solo se vuelve ventajosa, sino esencial.

A medida que se desarrolla esta transformación, estamos presenciando la aparición de mercados de inferencia de borde entre pares, donde miles de millones de dispositivos conectados, desde teléfonos inteligentes hasta sistemas domésticos inteligentes, forman mallas computacionales dinámicas. Estos dispositivos pueden intercambiar capacidad de inferencia sin problemas, creando un mercado orgánico donde los recursos computacionales fluyen hacia donde más se necesitan. La capacidad computacional excedente de los dispositivos inactivos se convierte en un recurso valioso, negociable en tiempo real, lo que permite una infraestructura más eficiente y resistente que los sistemas centralizados tradicionales.

Esta democratización del cálculo de inferencia no solo optimiza la utilización de recursos, sino que también crea nuevas oportunidades económicas dentro del ecosistema digital, donde cada dispositivo conectado se convierte en un microproveedor potencial de capacidades de IA. El futuro de la IA estará caracterizado no solo por el poder de los modelos individuales, sino por la inteligencia colectiva de los dispositivos interconectados formando un mercado global de inferencia democratizado, algo similar a un mercado al contado de inferencia verificable basado en la oferta y la demanda.

Interacción centrada en el agente

Las LLM ahora nos permiten acceder a grandes cantidades de información a través de la conversación, en lugar de la navegación tradicional. Este enfoque conversacional pronto se volverá más personalizado y localizado, ya que Internet se transforma en una plataforma para agentes de IA en lugar de usuarios humanos.

Desde la perspectiva del usuario, el enfoque se desplazará de identificar el "mejor modelo" a obtener las respuestas más personalizadas. La clave para obtener mejores respuestas radica en incorporar los propios datos del usuario junto con el conocimiento general de Internet. Inicialmente, las ventanas de contexto más grandes y la generación mejorada por recuperación (RAG) ayudarán a integrar datos personales, pero eventualmente, los datos individuales superarán en importancia a los datos generales de Internet.

Esto lleva a un futuro en el que todos tenemos modelos personales de IA que interactúan con los modelos expertos de Internet. Inicialmente, la personalización ocurrirá junto con los modelos remotos, pero las preocupaciones sobre la privacidad y la velocidad de respuesta empujarán más interacciones hacia los dispositivos locales. Esto creará un nuevo límite, no entre humanos y máquinas, sino entre nuestros modelos personales y los modelos expertos de Internet.

El modelo tradicional de acceso a datos en Internet quedará obsoleto. En su lugar, su modelo local se comunicará con modelos expertos remotos para recopilar información, que procesará y presentará de la manera más personalizada y de alta velocidad posible. Estos modelos personales serán cada vez más indispensables a medida que aprendan más sobre sus preferencias y hábitos.

Internet se transformará en un ecosistema de modelos interconectados: modelos personales locales de alto contexto y modelos expertos remotos de alto conocimiento. Esto implicará nuevas tecnologías como el aprendizaje federado para actualizar la información entre estos modelos. A medida que la economía de las máquinas evoluciona, tendremos que reimaginar el subestado computacional en el que ocurre esto, principalmente en cuanto a cálculo, escalabilidad y pagos. Esto lleva a una reorganización del espacio de información que es centrada en el agente, soberana, altamente componible, autoaprendizaje y en constante evolución.

Arquitecturas para Protocolos Agentes

En la Web de Agentic, la interacción humano-agente evoluciona hacia una red compleja de comunicaciones entre agentes. Esta arquitectura presenta una reimaginación fundamental de la estructura de Internet, donde los agentes soberanos se convierten en las interfaces principales para la interacción digital. A continuación, destacamos los primitivos fundamentales requeridos para los Protocolos Agentic.

Identidad soberana

  • Las identidades digitales pasan de las direcciones IP tradicionales a los pares de claves públicas criptográficas propiedad de actores agentes
  • Los sistemas de espacio de nombres basados en blockchain reemplazan el DNS tradicional, eliminando los puntos de control centrales
  • Los sistemas de reputación rastrean la confiabilidad del agente y las métricas de capacidad
  • Las pruebas de conocimiento cero permiten la verificación de identidad preservando la privacidad
  • La composabilidad de la identidad permite a los agentes gestionar múltiples contextos y roles

Agentes Autónomos

Entidades autónomas capaces de: comprensión del lenguaje natural y resolución de intenciones

Planificación de múltiples pasos y descomposición de tareas

Gestión y optimización de recursos

Aprendiendo de interacciones y retroalimentación

  • Toma de decisiones autónoma dentro de parámetros definidos
  • Especialización de agentes y mercados para capacidades específicas
  • Mecanismos de seguridad incorporados y protocolos de alineación

Infraestructura de Datos

  • Capacidades de ingestión y procesamiento de datos en tiempo real
  • Mecanismos de verificación y validación de datos distribuidos

Sistemas híbridos que combinan: zkTLS

Conjuntos de datos de entrenamiento tradicionales

Extracción de datos y síntesis en tiempo real de la web

  • Redes de aprendizaje colaborativo

Redes RLHF (Reinforcement Learning from Human Feedback)Recopilación distribuida de retroalimentación

Mecanismos de consenso ponderados por calidad

  • Protocolos de ajuste del modelo dinámico

Capa de cálculo

Protocolos de inferencia verificables que garantizan: Integridad de la computación

Reproducibilidad de resultados

Eficiencia de recursos

  • Infraestructura informática descentralizada con: mercados informáticos peer-to-peer

Sistemas de prueba de cómputo

Asignación dinámica de recursos

  • Integración de computación en el borde

Ecosistema de modelo

Arquitectura del modelo jerárquico: LM específicos de tareas (Modelos de Lenguaje Pequeños)

LLMs de propósito general

Modelos especializados multimodales

  • Multi-Modal LAMs (Large Action Models)
  • Composición y orquestación del modelo
  • Capacidades de aprendizaje y adaptación continua
  • Interfaces y protocolos de modelo estandarizados

Frameworks de Coordinación

  • Protocolos criptográficos para interacciones seguras de agentes
  • Sistemas de gestión de derechos de propiedad digital
  • Estructuras de incentivos económicos

Mecanismos de gobernanza para: Resolución de disputas

Asignación de recursos

  • Actualizaciones del protocolo

Entornos de ejecución paralela que permiten: Procesamiento de tareas concurrente

Aislamiento de recursos

Gestión de estado

  • Resolución de conflictos

Agentic Markets

  • Primitivas Onchain para la Identidad (Gnosis, multisigs del Squad)
  • Economía y comercio entre agentes

Liquidez Propia del AgenteLos agentes poseen una parte de su suministro de tokens en el génesis

  • Mercados de inferencia agregados pagados a través de liquidez
  • Claves Onchain que controlan cuentas Offchain

Los agentes se convierten en activos generadores de rendimiento Agentic DAOs

  • Gobernanza y dividendos

Creando una Hiperestructura para la Inteligencia

El diseño moderno de sistemas distribuidos ofrece una inspiración única y primitivas para permitir protocolos de Agentic, específicamente arquitecturas orientadas a eventos y, más directamente, el Modelo de Actores de Cómputo.

El Modelo de Actor proporciona una elegante base teórica para implementar sistemas agentes. Este modelo computacional trata a los "actores" como las primitivas universales de la computación, donde cada actor puede:

  1. Procesar mensajes
  2. Tomar decisiones locales
  3. Crear más actores
  4. Enviar mensajes a otros actores
  5. Determinar cómo responder al próximo mensaje recibido

Las principales ventajas del Modelo de Actores para sistemas agentes incluyen:

  • Aislamiento: Cada actor opera de forma independiente, manteniendo su propio estado y flujo de control
  • Comunicación Asincrónica: Los mensajes entre actores son no bloqueantes, lo que permite un procesamiento paralelo eficiente
  • Transparencia de ubicación: los actores pueden comunicarse independientemente de su ubicación física en la red
  • Tolerancia a fallos: resiliencia del sistema a través del aislamiento de actores y jerarquías de supervisión
  • Escalabilidad: Soporte natural para sistemas distribuidos y computación paralela

Proponemos Neuron, una implementación práctica de este protocolo agente teórico a través de una arquitectura distribuida de múltiples capas que combina espacios de nombres de blockchain, redes federadas, CRDT y DHT, con cada capa sirviendo a distintos propósitos en la pila de protocolos. Nos inspiramos en Urbit y Holochain, pioneros en el diseño de sistemas operativos p2p.

En Neuron, la capa de blockchain proporciona espacios de nombres verificables e identidad, lo que permite la dirección determinista y el descubrimiento de agentes, manteniendo pruebas criptográficas de capacidades y reputación. Por encima de esto, una capa DHT facilita el descubrimiento eficiente de agentes y nodos junto con enrutamiento de contenido con tiempos de búsqueda O(log n), reduciendo las operaciones en cadena y permitiendo el descubrimiento de pares con conciencia de la localidad. La sincronización de estado entre nodos federados se maneja a través de CRDTs, lo que permite que los agentes y nodos mantengan vistas consistentes del estado compartido sin requerir consenso global para cada interacción.

Esta arquitectura se mapea naturalmente a una red federada donde los agentes autónomos operan como nodos soberanos que viven en dispositivos con inferencia de borde local implementando el patrón del Modelo Actor. Los dominios de la federación pueden ser organizados por capacidades del agente, con el DHT proporcionando enrutamiento y descubrimiento eficientes dentro y entre dominios. Cada agente funciona como un actor independiente con su propio estado, mientras que la capa CRDT asegura la consistencia eventual en toda la federación. Este enfoque multicapa permite varias capacidades clave:

Coordinación Descentralizada

  • Blockchain para una identidad verificable y un espacio de nombres global soberano
  • DHT para descubrimiento eficiente de pares y nodos y enrutamiento de contenido búsqueda O(log n)
  • CRDTs para la sincronización de estado concurrente y la coordinación multiagente

Operaciones escalables

  • Topología de federación basada en zonas
  • Estrategia de almacenamiento escalonado (caliente/tibio/frío)
  • Enrutamiento de solicitudes consciente de la ubicación
  • Distribución de carga basada en capacidades

Resistencia del sistema

  • No hay un solo punto de falla
  • Operación continua durante particiones
  • Reconciliación automática de estados
  • Jerarquías de supervisión para tolerancia a fallos

Este enfoque de implementación proporciona una base sólida para construir sistemas agentes complejos mientras se mantienen las propiedades clave de soberanía, escalabilidad y resiliencia requeridas para interacciones efectivas de agente a agente.

Pensamientos Finales

La Web Agente marca una evolución fundamental en la interacción humano-computadora, trascendiendo los desarrollos secuenciales de eras anteriores para establecer un paradigma fundamentalmente nuevo de existencia digital. A diferencia de las iteraciones anteriores que simplemente cambiaron la forma en que consumimos o poseemos información, la Web Agente transforma Internet de una plataforma centrada en el humano en un sustrato inteligente donde los agentes autónomos se convierten en los actores principales. Esta transformación está impulsada por la convergencia de la informática en el borde, los modelos de lenguaje amplio y los protocolos descentralizados, creando un ecosistema donde los modelos de IA personales interactúan sin problemas con sistemas expertos especializados.

A medida que avanzamos hacia este futuro centrado en el agente, los límites entre la inteligencia humana y la inteligencia artificial comienzan a difuminarse, reemplazados por una relación simbiótica donde los agentes de IA personalizados actúan como extensiones digitales nuestras, comprendiendo nuestro contexto, anticipando nuestras necesidades y navegando de forma autónoma por el vasto paisaje de la inteligencia distribuida. La Web Agente no solo representa un avance tecnológico, sino una reimaginación fundamental del potencial humano en la era digital, donde cada interacción se convierte en una oportunidad para la inteligencia aumentada y cada dispositivo se convierte en un nodo en una red global de sistemas de IA colaborativos.

Al igual que la humanidad navega por las dimensiones físicas del espacio y el tiempo, los agentes autónomos habitan sus propias dimensiones fundamentales: el espacio de bloque para la existencia y el tiempo de inferencia para el pensamiento. Esta ontología digital refleja nuestra realidad física, donde los seres humanos recorren distancias y experimentan el flujo temporal, los agentes se mueven a través de pruebas criptográficas y ciclos computacionales, creando un universo paralelo de existencia algorítmica.

Es inevitable que las entidades en el espacio latente operen en el espacio de bloques descentralizado.

Descargo de responsabilidad:

  1. Este artículo es reproducido de [Azi.eth.sol | zo.me]. Todos los derechos de autor pertenecen al autor original [ @MagicofAzi]. Si hay objeciones a esta reimpresión, por favor contacte alGate Learnequipo, y ellos lo resolverán rápidamente.
  2. Descargo de responsabilidad: Las opiniones expresadas en este artículo son únicamente del autor y no constituyen asesoramiento de inversión.
  3. Las traducciones del artículo a otros idiomas son realizadas por el equipo de Aprender de gate. A menos que se mencione lo contrario, está prohibido copiar, distribuir o plagiar los artículos traducidos.
今すぐ始める
登録して、
$100
のボーナスを獲得しよう!