Conteúdo | Bruce
Edição & Layout | Huanhuan
Design | Daisy
O “momento USB-C” na história da evolução da IA, em novembro de 2024, o protocolo MCP da Anthropic está causando um terremoto no Vale do Silício. Este padrão aberto, conhecido como o “USB-C do mundo da IA”, não só reconstrói a conexão entre os grandes modelos e o mundo físico, mas também esconde o código para quebrar o dilema do monopólio da IA e reconstruir a relação de produção da civilização digital. Enquanto ainda estamos debatendo a escala de parâmetros do GPT-5, o MCP silenciosamente abriu o caminho para a descentralização na era AGI…
Bruce: Recentemente estou estudando o Model Context Protocol (MCP). Este é, após o ChatGPT, a segunda coisa que me entusiasma muito no campo da IA, pois tem a esperança de resolver três problemas que venho pensando há anos:
MCP é uma estrutura de padrão aberto que pode simplificar a integração de LLM com fontes de dados e ferramentas externas. Se compararmos o LLM ao sistema operativo Windows, as aplicações como Cursor são o teclado e hardware, então MCP é a porta USB, que suporta a inserção flexível de dados e ferramentas externas, permitindo que os utilizadores leiam e utilizem esses dados e ferramentas externas.
O MCP oferece três capacidades para expandir o LLM:
O MCP pode ser desenvolvido e hospedado por qualquer pessoa, oferecendo-se como um servidor, podendo ser desligado a qualquer momento.
Atualmente, o LLM utiliza o máximo de dados possível para realizar um grande volume de cálculos e gerar uma grande quantidade de parâmetros, incorporando conhecimento ao modelo, a fim de produzir saídas de diálogo com o conhecimento correspondente. No entanto, existem alguns problemas significativos:
Podemos considerar os modelos de ultra grande escala atuais como LLMs gordos, cuja arquitetura pode ser representada pelo simples diagrama abaixo:
Após o usuário inserir as informações, elas são analisadas e inferidas através da camada de Perception & Reasoning, e então uma vasta gama de parâmetros é chamada para gerar os resultados.
Após o MCP, o LLM pode focar na própria análise da linguagem, desvinculando o conhecimento e as habilidades, tornando-se um LLM enxuto:
Na arquitetura do Slim LLM, a camada de Perception & Reasoning irá focar em como transformar informações abrangentes do ambiente físico humano em tokens, incluindo, mas não se limitando a: voz, tom, cheiro, imagem, texto, gravidade, temperatura, etc., e depois, através do MCP Coordinator, organizar e coordenar até centenas de MCP Servers para completar a tarefa. O custo e a velocidade de treinamento do Slim LLM irão aumentar drasticamente, tornando os requisitos para os dispositivos de implementação muito baixos.
Qualquer pessoa com talentos únicos pode criar o seu próprio servidor MCP para fornecer serviços ao LLM. Por exemplo, um entusiasta de aves pode disponibilizar seus anos de anotações sobre aves através do MCP. Quando alguém usa o LLM para procurar informações relacionadas a aves, o serviço MCP de anotações sobre aves será acionado. O criador também receberá uma parte da receita.
Este é um ciclo de economia de criadores mais preciso e automatizado, com conteúdos de serviço mais padronizados, e o número de chamadas e a saída de tokens podem ser contados com precisão. Os fornecedores de LLM podem até chamar simultaneamente vários servidores MCP de notas de pássaros, permitindo que os usuários escolham e classifiquem para determinar quem tem qualidade melhor e obter um peso de correspondência mais alto.
a. Podemos construir uma rede de incentivo para criadores OpenMCP.Network baseada em Ethereum. O MCP Server precisa hospedar e fornecer serviços estáveis, os usuários pagam aos provedores de LLM, e os provedores de LLM distribuem os incentivos reais através da rede para os MCP Servers chamados, mantendo assim a sustentabilidade e a estabilidade de toda a rede, estimulando os criadores do MCP a continuar criando e fornecendo conteúdo de alta qualidade. Este conjunto de rede precisará utilizar contratos inteligentes para implementar a automação, transparência, confiabilidade e resistência à censura dos incentivos. A assinatura, verificação de permissões e proteção de privacidade durante o processo de execução podem ser realizadas utilizando carteiras Ethereum, ZK e outras tecnologias.
b. Desenvolver servidores MCP relacionados a operações na cadeia Ethereum, como serviços de chamada de carteira AA, onde os usuários poderão realizar pagamentos da carteira dentro do LLM através da linguagem, sem expor as chaves privadas e permissões relevantes ao LLM.
c. Existem também várias ferramentas para desenvolvedores que simplificam ainda mais o desenvolvimento de contratos inteligentes Ethereum e a geração de código.
a. Os Servidores MCP descentralizam o conhecimento e as capacidades da IA, qualquer pessoa pode criar e hospedar Servidores MCP, registrando-se em plataformas como OpenMCP.Network e recebendo incentivos de acordo com as chamadas. Nenhuma empresa pode controlar todos os Servidores MCP. Se um fornecedor de LLM oferecer incentivos injustos aos Servidores MCP, os criadores apoiarão a exclusão dessa empresa, e os usuários, ao não obter resultados de qualidade, mudarão para outros fornecedores de LLM para promover uma concorrência mais justa.
b. Os criadores podem implementar um controle de permissões granular em seus MCP Servers para proteger a privacidade e os direitos autorais. Os fornecedores de LLM leves devem incentivar os criadores a contribuir com MCP Servers de alta qualidade, oferecendo incentivos razoáveis.
c. A diferença de capacidade entre LLM magros será gradualmente nivelada, pois a linguagem humana tem um limite de abrangência e a evolução é muito lenta. Os fornecedores de LLM precisarão direcionar sua atenção e recursos para servidores MCP de alta qualidade, em vez de reutilizar mais placas gráficas para mineração.
d. A capacidade do AGI será descentralizada e despriorizada, com o LLM atuando apenas como processamento de linguagem e interação com o usuário, enquanto as capacidades específicas estarão distribuídas entre os vários Servidores MCP. O AGI não representará uma ameaça para a humanidade, pois, após o desligamento dos Servidores MCP, só será possível realizar diálogos básicos em linguagem.