Contenu | Bruce
Édition & Mise en page | Huán Huán
Conception | Daisy
Le “moment USB-C” dans l’histoire de l’évolution de l’IA, en novembre 2024, le protocole MCP publié par Anthropic provoque un tremblement de terre dans la Silicon Valley. Ce standard ouvert, surnommé “USB-C de l’IA”, restructure non seulement la manière dont les grands modèles se connectent au monde physique, mais cache également le code pour déverrouiller le dilemme du monopole de l’IA et reconstruire les relations de production de la civilisation numérique. Alors que nous débattons encore de l’échelle des paramètres de GPT-5, le MCP a déjà pavé discrètement la voie décentralisée vers l’ère de l’AGI…
Bruce : J’étudie récemment le Model Context Protocol (MCP). C’est la deuxième chose qui m’excite énormément dans le domaine de l’IA après ChatGPT, car cela pourrait résoudre trois problèmes auxquels je pense depuis des années :
MCP est un cadre de normes ouvertes qui simplifie l’intégration des LLM avec des sources de données et des outils externes. Si l’on compare les LLM aux systèmes d’exploitation Windows, et que des applications comme Cursor sont des claviers et du matériel, alors les MCP sont des interfaces USB qui permettent l’insertion flexible de données et d’outils externes, qui peuvent ensuite être lus et utilisés par l’utilisateur.
MCP offre trois capacités pour étendre LLM :
MCP peut être développé et hébergé par n’importe qui, fourni sous forme de serveur, et peut être mis hors ligne à tout moment pour arrêter le service.
Actuellement, les LLM utilisent autant de données que possible pour effectuer un grand nombre de calculs et générer un grand nombre de paramètres, intégrant ainsi des connaissances dans le modèle pour produire des réponses correspondantes. Cependant, plusieurs problèmes importants existent :
Nous pouvons considérer les modèles à très grande échelle actuels comme de gros LLM, dont l’architecture peut être représentée par l’illustration simple suivante :
Après que l’utilisateur a saisi les informations, celles-ci sont décomposées et raisonnés par la couche Perception & Reasoning, puis un vaste ensemble de paramètres est appelé pour générer des résultats.
Après le MCP, le LLM pourrait se concentrer sur la parsing linguistique elle-même, se détachant des connaissances et des capacités, devenant un LLM léger :
Sous l’architecture du LLM léger, la couche Perception & Raisonnement se concentrera sur la façon de traduire les informations environnementales humaines dans leur intégralité en tokens, y compris mais sans s’y limiter : la voix, le ton, l’odeur, les images, le texte, la gravité, la température, etc., puis coordonnera et orchestrera jusqu’à des centaines de serveurs MCP via le MCP Coordinator pour accomplir des tâches. Le coût et la vitesse d’entraînement du LLM léger augmenteront rapidement, et les exigences pour les dispositifs de déploiement deviendront très faibles.
Toute personne ayant un talent unique peut créer son propre serveur MCP pour fournir des services à LLM. Par exemple, un passionné d’oiseaux peut offrir ses notes sur les oiseaux accumulées au fil des ans via MCP. Lorsque quelqu’un utilise LLM pour rechercher des informations liées aux oiseaux, le service MCP des notes sur les oiseaux sera appelé. Le créateur recevra également une part des revenus.
C’est un cycle économique des créateurs plus précis et automatisé, avec des contenus de service davantage standardisés, permettant un comptage précis des appels et des tokens générés. Les fournisseurs de LLM peuvent même faire appel simultanément à plusieurs serveurs MCP de Bird Notes pour permettre aux utilisateurs de choisir et d’évaluer afin de déterminer qui a une meilleure qualité et obtient un poids de correspondance plus élevé.
a. Nous pouvons construire un réseau d’incitation pour les créateurs OpenMCP.Network basé sur Ethereum. Le serveur MCP doit être hébergé et fournir des services stables, les utilisateurs paient les fournisseurs de LLM, et les fournisseurs de LLM distribuent les incitations réelles sur les serveurs MCP appelés via le réseau afin de maintenir la durabilité et la stabilité de l’ensemble du réseau, incitant les créateurs de MCP à continuer à créer et à fournir un contenu de haute qualité. Ce réseau nécessitera l’utilisation de contrats intelligents pour réaliser l’automatisation, la transparence, la fiabilité et la résistance à la censure des incitations. Les signatures, la vérification des autorisations et la protection de la vie privée pendant le fonctionnement peuvent être mises en œuvre à l’aide de portefeuilles Ethereum, de ZK et d’autres technologies.
b. Développer des serveurs MCP liés aux opérations sur la chaîne Ethereum, tels que le service d’appel de portefeuille AA, permettant aux utilisateurs d’effectuer des paiements de portefeuille via le langage dans LLM sans exposer les clés privées et les autorisations associées à LLM.
c. Il existe également divers outils pour développeurs qui simplifient davantage le développement de contrats intelligents Ethereum et la génération de code.
a. Les serveurs MCP décentralisent les connaissances et les capacités de l’IA, permettant à quiconque de créer et d’héberger des serveurs MCP, puis de s’inscrire sur des plateformes comme OpenMCP.Network pour obtenir des incitations selon les appels. Aucune entreprise ne peut contrôler tous les serveurs MCP. Si un fournisseur de LLM offre des incitations injustes aux serveurs MCP, les créateurs soutiendront le blocage de cette entreprise, et les utilisateurs, ne recevant pas de résultats de qualité, changeront pour d’autres fournisseurs de LLM afin d’assurer une concurrence plus équitable.
b. Les créateurs peuvent mettre en œuvre un contrôle d’accès granulaire sur leurs serveurs MCP pour protéger la vie privée et les droits d’auteur. Les fournisseurs de LLM maigres devraient inciter raisonnablement les créateurs à contribuer des serveurs MCP de haute qualité.
c. L’écart de capacité des LLM maigres va progressivement s’estomper, car le langage humain a une limite de couverture et son évolution est très lente. Les fournisseurs de LLM devront porter leur attention et leurs fonds sur des serveurs MCP de haute qualité, plutôt que de réutiliser davantage de cartes graphiques pour miner.
d. La capacité de l’AGI sera décentralisée et dévaluée, le LLM agissant uniquement comme un traitement du langage et une interaction avec l’utilisateur, les capacités spécifiques étant réparties dans divers serveurs MCP. L’AGI ne menacera pas l’humanité, car après la fermeture des serveurs MCP, seules des conversations de base en langage pourront avoir lieu.