La IA llega al "momento USB-C", ¿cómo se fusiona perfectamente MCP con Ethereum?

Contenido | Bruce

Edición & Maquetación | Huanhuan

Diseño | Daisy

El "momento USB-C" en la historia de la evolución de la IA, en noviembre de 2024, el protocolo MCP lanzado por Anthropic está provocando un terremoto en Silicon Valley. Este estándar abierto, conocido como el "USB-C de la IA", no solo reconfigura la forma en que los grandes modelos se conectan con el mundo físico, sino que también oculta la clave para romper el estancamiento del monopolio de la IA y reconfigurar las relaciones de producción de la civilización digital. Mientras aún debatimos sobre la escala de parámetros de GPT-5, el MCP ya ha trazado silenciosamente el camino descentralizado hacia la era de la AGI...

Bruce: Recientemente he estado investigando el Protocolo de Contexto de Modelo (MCP). Esto es, después de ChatGPT, lo segundo que me emociona mucho en el campo de la IA, porque tiene la esperanza de resolver tres problemas en los que he estado pensando durante muchos años:

  • ¿Cómo pueden las personas comunes, que no son científicos ni genios, participar en la industria de la IA y obtener ingresos?
  • ¿Cuáles son los puntos de unión beneficiosos entre la IA y Ethereum?
  • ¿Cómo lograr una d/acc de IA? ¿Evitar la monopolización y censura de grandes empresas, el AGI destruye a la humanidad?

01, ¿Qué es MCP?

MCP es un marco estándar abierto que puede simplificar la integración de LLM con fuentes de datos y herramientas externas. Si comparamos LLM con el sistema operativo Windows, aplicaciones como Cursor son el teclado y el hardware, entonces MCP es el puerto USB, que admite la conexión flexible de datos y herramientas externas, permitiendo a los usuarios acceder y utilizar estos datos y herramientas externas.

MCP ofrece tres capacidades para expandir LLM:

  • Recursos(知识扩展)
  • Herramientas(ejecutar funciones, llamar a sistemas externos)
  • Prompts (plantillas de palabras clave preescritas)

MCP puede ser desarrollado y alojado por cualquier persona, proporcionando un servicio de servidor, y puede ser desconectado en cualquier momento.

02, ¿por qué se necesita MCP?

Actualmente, los LLM utilizan la mayor cantidad posible de datos para realizar grandes cálculos y generar una gran cantidad de parámetros, integrando el conocimiento en el modelo para lograr una salida de diálogo con el conocimiento correspondiente. Sin embargo, existen varios problemas significativos:

  1. Una gran cantidad de datos y cálculos requieren mucho tiempo y hardware, y el conocimiento utilizado para el entrenamiento suele estar desactualizado.
  2. Modelos con una gran cantidad de parámetros son difíciles de desplegar y utilizar en dispositivos locales, pero en realidad, en la mayoría de los escenarios, los usuarios pueden no necesitar toda la información para satisfacer sus necesidades.
  3. Algunos modelos utilizan arañas para leer información externa y realizar cálculos para lograr la actualidad, pero debido a las limitaciones de las arañas y la calidad de los datos externos, pueden producir contenido más engañoso.
  4. Debido a que la IA no ha beneficiado adecuadamente a los creadores, muchos sitios web y contenidos han comenzado a implementar medidas contra la IA, generando una gran cantidad de información basura, lo que llevará a una disminución gradual de la calidad de los LLM.
  5. LLM es difícil de expandir a todas las funciones y operaciones externas, como invocar con precisión la API de GitHub para realizar algunas operaciones; generará código según la documentación que puede estar desactualizada, pero no puede garantizar que se ejecute con precisión.

03, la evolución de la arquitectura de LLM gordo y LLM delgado + MCP

Podemos considerar los modelos de gran escala actuales como LLM gordos, cuya arquitectura se puede representar con el siguiente diagrama simple:

AI llega al "momento USB-C", ¿cómo se fusiona perfectamente MCP con Ethereum?

Después de que el usuario ingresa la información, se descompone y razona a través de la capa de Perception & Reasoning, y luego se llama a una gran cantidad de parámetros para generar resultados.

Después de MCP, LLM podría centrarse en el análisis del lenguaje en sí, despojándose de conocimientos y habilidades, convirtiéndose en un LLM delgado:

La IA llega al "momento USB-C", ¿cómo se integra perfectamente MCP con Ethereum?

Bajo la arquitectura de LLM delgado, la capa de Percepción y Razonamiento se enfocará en cómo desglosar la información del entorno físico humano en tokens, que incluyen, pero no se limitan a: voz, tono, olor, imágenes, texto, gravedad, temperatura, etc., y luego a través del Coordinador MCP orquestar y coordinar cientos de Servidores MCP para completar tareas. El costo y la velocidad de entrenamiento de LLM delgado aumentarán drásticamente, y los requisitos para los dispositivos de despliegue serán muy bajos.

04, ¿Cómo MCP resuelve los tres grandes problemas?

¿Cómo pueden las personas comunes participar en la industria de la IA?

Cualquier persona con un talento único puede crear su propio servidor MCP para proporcionar servicios a LLM. Por ejemplo, un aficionado a las aves puede ofrecer sus notas sobre aves de muchos años a través de MCP. Cuando alguien utiliza LLM para buscar información relacionada con aves, se llamará al servicio MCP de notas sobre aves actual. El creador también recibirá una parte de los ingresos.

Este es un ciclo de economía de creadores más preciso y automatizado, con contenidos de servicio más estandarizados, donde se pueden contabilizar con precisión tanto el número de llamadas como los tokens generados. Los proveedores de LLM incluso pueden llamar simultáneamente a múltiples servidores MCP de Bird Notes para que los usuarios seleccionen y califiquen para determinar quién tiene una calidad mejor y obtener un mayor peso de coincidencia.

La combinación ganadora de AI y Ethereum

a. Podemos construir una red de incentivos para creadores OpenMCP.Network basada en Ethereum. El servidor MCP necesita ser alojado y proporcionar servicios estables, los usuarios pagan a los proveedores de LLM, y los proveedores de LLM distribuyen los incentivos reales a los servidores MCP llamados a través de la red, manteniendo así la sostenibilidad y la estabilidad de toda la red, y estimulando a los creadores de MCP a seguir creando y proporcionando contenido de alta calidad. Este conjunto de red necesitará utilizar contratos inteligentes para lograr la automatización, transparencia, confianza y resistencia a la censura de los incentivos. La firma, verificación de permisos y protección de la privacidad durante el funcionamiento se pueden lograr utilizando tecnologías como billeteras de Ethereum, ZK, etc.

b. Desarrollar servidores MCP relacionados con las operaciones en la cadena de Ethereum, como el servicio de llamada de billetera AA, donde los usuarios podrán realizar pagos con la billetera a través del lenguaje en LLM sin exponer las claves privadas y los permisos relacionados a LLM.

c. También hay varias herramientas para desarrolladores que simplifican aún más el desarrollo de contratos inteligentes de Ethereum y la generación de código.

Implementar AI descentralizada

a. Los Servidores MCP descentralizan el conocimiento y la capacidad de la IA, cualquier persona puede crear y alojar Servidores MCP, registrándose en plataformas como OpenMCP.Network y obteniendo incentivos según las llamadas. Ninguna empresa puede controlar todos los Servidores MCP. Si un proveedor de LLM ofrece incentivos injustos a los Servidores MCP, los creadores apoyarán la censura de esa empresa, y los usuarios, al no obtener resultados de calidad, cambiarán a otros proveedores de LLM para lograr una competencia más justa.

b. Los creadores pueden implementar un control de permisos granular sobre sus MCP Servers para proteger la privacidad y los derechos de autor. Los proveedores de LLM delgados deberían incentivar a los creadores a contribuir con MCP Servers de alta calidad.

c. La brecha en la capacidad de los LLM delgados se irá cerrando lentamente, ya que el lenguaje humano tiene un límite de recorrido y su evolución es muy lenta. Los proveedores de LLM necesitarán enfocar su atención y fondos en servidores MCP de alta calidad, en lugar de reutilizar más tarjetas gráficas para la minería.

d. Las capacidades de AGI se descentralizarán y despriorizarán, LLM solo actuará como procesamiento de lenguaje e interacción con el usuario, distribuyendo capacidades específicas en varios servidores MCP. AGI no representará una amenaza para la humanidad, ya que después de apagar los servidores MCP solo se podrá realizar un diálogo básico en lenguaje.

05, revisión general

  1. La evolución de la arquitectura de los servidores LLM + MCP, en esencia, es la descentralización de la capacidad de IA, lo que reduce el riesgo de que la AGI destruya a la humanidad.
  2. El uso de LLM permite que las llamadas a los Servidores MCP y las entradas y salidas se puedan contabilizar y automatizar a nivel de token, sentando las bases para la construcción del sistema económico de creadores de IA.
  3. Un buen sistema económico puede impulsar a los creadores a contribuir activamente a la creación de servidores MCP de alta calidad, impulsando así el desarrollo de toda la raza humana y logrando un volante positivo. Los creadores ya no podrán defenderse de la IA, y la IA proporcionará más puestos de trabajo e ingresos, y distribuirá racionalmente los beneficios de las empresas comerciales monopolísticas como OpenAI.
  4. Este sistema económico, combinando sus características y las necesidades de los creadores, es muy adecuado para implementarse sobre Ethereum.

06, Perspectivas futuras: La siguiente evolución del guion

  1. Los protocolos MCP o similares a MCP surgirán uno tras otro, y varias grandes empresas comenzarán a competir por la definición de estándares.
  2. Aparecerán LLM Basados en MCP, modelos pequeños centrados en analizar y procesar el lenguaje humano, con conexión a la red MCP a través de un Coordinador MCP. LLM soportará el descubrimiento automático y la programación de servidores MCP, sin necesidad de configuraciones manuales complejas.
  3. Los proveedores de servicios de la red MCP aparecerán, cada uno con su propio sistema de incentivos económicos, y los creadores de MCP podrán registrarse y alojar su servidor para obtener ingresos.
  4. Si el sistema de incentivos económicos de la MCP Network se construye sobre Ethereum y se basa en contratos inteligentes, entonces las transacciones de la red Ethereum aumentarán, por conservadoramente, unas 150 veces (basado en un volumen de llamadas de 100 millones de MCP Servers por día, actualmente calculando 12 segundos por bloque que incluye 100 txs).
Ver originales
El contenido es solo de referencia, no una solicitud u oferta. No se proporciona asesoramiento fiscal, legal ni de inversión. Consulte el Descargo de responsabilidad para obtener más información sobre los riesgos.
  • Recompensa
  • 1
  • Compartir
Comentar
0/400
ZhuQivip
· 03-22 13:57
Firme HODL💎
Ver originalesResponder0
  • Anclado
Comercie con criptomonedas en cualquier lugar y en cualquier momento
qrCode
Escanee para descargar la aplicación Gate.io
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • ไทย
  • Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)