O que é Assisterr: O Futuro da IA de Propriedade da Comunidade

intermediário1/13/2025, 3:27:02 AM
Assisterr é uma plataforma de IA descentralizada que utiliza Modelos de Linguagem Pequenos (SLMs) e um modelo econômico inovador para tornar a tecnologia de IA mais acessível, eficiente e sustentável. A plataforma aborda as limitações dos Modelos de Linguagem Grandes (LLMs) e promove a colaboração da comunidade, permitindo que os usuários criem, compartilhem e monetizem modelos de IA. Seu exclusivo sistema econômico descentralizado recompensa os colaboradores, garantindo uma distribuição justa de valor, promovendo a adoção de IA, inovação tecnológica e impulsionando avanços no campo.

A indústria de IA de hoje enfrenta desafios significativos devido à centralização, com avanços importantes frequentemente controlados por algumas grandes corporações. Isso leva a preocupações com a privacidade dos dados, práticas monopolísticas e acesso limitado à tecnologia de ponta. Além disso, a dependência excessiva de Modelos de Linguagem Grandes (LLMs) como o GPT-3, apesar de suas capacidades, traz problemas como altos custos computacionais, impacto ambiental e possíveis viéses nos dados em que são treinados. Esses modelos requerem vastos dados e recursos, tornando-os acessíveis apenas a organizações bem financiadas.

Assisterr aborda esses desafios ao introduzir Modelos de Linguagem Pequenos (SLMs) e promover uma abordagem de desenvolvimento de IA de propriedade da comunidade. Os SLMs são projetados para serem mais eficientes, exigindo menos energia computacional e dados, mantendo alto desempenho, tornando a tecnologia de IA mais acessível e sustentável. Além disso, os modelos e agentes de IA de propriedade da comunidade da Assisterr capacitam os usuários a contribuir e se beneficiar dos avanços da IA, promovendo inovação e inclusão, e garantindo que os benefícios da IA sejam compartilhados de forma mais ampla na sociedade.

O que é Assisterr AI?


Fonte: site Assisterr

O Assisterr AI é uma plataforma de IA descentralizada projetada para democratizar o acesso à inteligência artificial, aproveitando Modelos de Linguagem Pequenos (SLMs) e agentes de IA de propriedade da comunidade. Seu objetivo principal é fornecer uma alternativa mais eficiente, acessível e sustentável aos modelos tradicionais de IA, abordando as limitações dos Modelos de Linguagem Grandes (LLMs) e promovendo um ecossistema de IA colaborativo.

Recursos-chave e benefícios do Assisterr AI

  • Pequenos Modelos de Linguagem (SLMs): Ao contrário dos LLMs, os SLMs requerem menos potência computacional e dados, tornando-os mais acessíveis e ecologicamente corretos. Eles são projetados para realizar tarefas específicas de forma eficiente, reduzindo os custos associados a modelos maiores.
  • Modelos de Propriedade Comunitária: A Assisterr promove uma abordagem descentralizada onde os usuários podem contribuir para e se beneficiar dos avanços da IA. Esse modelo promove a inovação e a inclusão, garantindo que algumas grandes entidades não monopolizem a tecnologia de IA.
  • Ferramentas sem código: Assisterr fornece ferramentas fáceis de usar e sem código que permitem a indivíduos e empresas criar e implantar modelos de IA sem conhecimento técnico extensivo. Isso reduz a barreira de entrada e incentiva uma participação mais ampla no desenvolvimento de IA.
  • Data Marketplace: A plataforma inclui um mercado para dados e modelos de IA, permitindo que os usuários comprem, vendam e compartilhem recursos. Isso incentiva o compartilhamento de dados e colaboração, aprimorando ainda mais o ecossistema de IA.
  • Segurança e Transparência: Assisterr emprega robustas medidas de segurança e processos transparentes para garantir a integridade e confiabilidade de seus modelos de IA e transações de dados.

Os Modelos de Linguagem (LLM e SLM)

Modelos de Linguagem de Grande Escala (MLGE)

Modelos de Linguagem Grandes (LLMs) como o GPT-3 e o BERT são modelos de IA treinados em grandes quantidades de dados de texto para entender e gerar linguagem semelhante à humana. Eles são capazes de realizar uma ampla gama de tarefas, desde completar textos até traduzir e resumir. No entanto, os LLMs têm várias limitações notáveis:

  • Altos custos computacionais: Treinar e executar LLMs requerem recursos computacionais significativos, tornando-os caros e ambientalmente exigentes.
  • Viés de Dados: LLMs podem herdar viés presente em seus dados de treinamento, levando a saídas tendenciosas ou inadequadas.
  • Acessibilidade Limitada: Devido à sua natureza intensiva em recursos, os LLMs geralmente só são acessíveis a grandes organizações com financiamento substancial.
  • Problemas de escalabilidade: A estrutura monolítica dos LLMs pode torná-los menos flexíveis e mais difíceis de adaptar a tarefas ou domínios específicos.

Pequenos Modelos de Linguagem (SLMs)

Pequenos modelos de linguagem (SLMs), embora semelhantes em conceito aos LLMs, são projetados para serem mais precisos, especializados e eficientes. Ao focar em tarefas e conjuntos de dados específicos, os SLMs oferecem desempenho superior para aplicações de nicho, tornando-os mais adequados para casos de uso especializados. Utilizando conjuntos de dados personalizados e focando nas necessidades específicas do negócio, os SLMs podem fornecer desempenho superior e adaptabilidade situacional a uma fração do custo. Isso também é encorajador para a construção de SLMs de código aberto, onde projetos mais baratos anteriormente desenvolveram SLMs com precisão competitiva em relação aos veteranos LLMs a custos muito mais baixos.

Técnico por trás do Assisterr IA

Pequenos Modelos de Linguagem (PML)

Os Pequenos Modelos de Linguagem (SLMs) estão no cerne da tecnologia da Assisterr. Ao contrário dos Grandes Modelos de Linguagem (LLMs), os SLMs são projetados para serem mais eficientes e especializados. Eles se concentram em tarefas e conjuntos de dados específicos, o que lhes permite oferecer um desempenho superior para aplicações de nicho. Essa especialização torna os SLMs mais acessíveis e sustentáveis, pois exigem menos poder computacional e dados.

Arquitetura SLM Modular

Para enfrentar as limitações dos agentes baseados em LLM, surgiram abordagens avançadas envolvendo múltiplos modelos de linguagem pequenos (SLMs) trabalhando em estruturas agentes colaborativas. Dois abordagens principais são alavancadas ao desenvolver agentes de IA a partir de ensembles SLM: Misturas de Especialistas (MoE) e Misturas de Agentes (MoA).

Mixtures of Experts (MoE)


Fonte: Assisterr Litepaper

Quando combinado em conjuntos MoE, o raciocínio moderno de SLM pode alcançar flexibilidade de aprendizado aprimorada sem perder sua capacidade de resolução de problemas funcionais. A aprendizagem em conjunto pode combinar as habilidades de raciocínio de vários modelos menores, cada um especializado em contextos associados diferentes, para resolver problemas complexos. Isso gera uma compreensão híbrida que continua a permitir que a IA mergulhe fundo. As camadas de especialistas podem ser compostas por MoEs, criando estruturas hierárquicas para amortecer ainda mais a complexidade contextual e a proficiência na resolução de problemas. Um MoE normalmente usa uma camada de controle esparsa que seleciona dinamicamente entre várias redes paralelas para fornecer a resposta mais apropriada à solicitação. Para obter respostas mais flexíveis, os especialistas individuais poderiam ser ajustados para geração de código, tradução ou análise de sentimentos. Arquiteturas MoE mais sofisticadas podem conter várias dessas camadas MoE em combinação com outros componentes. Como qualquer arquitetura de modelo de linguagem típica, a camada de controle MoE opera em tokens semânticos e requer treinamento.

Misturas de Agentes (MoA)

Quando montados em arquiteturas MoA, os SLMs aprimoram a seletividade dos conjuntos de raciocínio diversificado, permitindo que a IA execute com precisão uma tarefa com a metodologia necessária. Modelos agentes são montados em um consórcio que camadas protocolos de execução para melhorar a eficiência e a resolução de problemas de tarefas complexas. Assim, a IA trabalha em cenários multi-dominiais. Equipes de agentes podem trabalhar em sequência, melhorando iterativamente os resultados anteriores. MoA superou significativamente modelos maiores, incluindo a pontuação de precisão de 57,5% do GPT-4 Omni no AlpacaEval 2.0, mesmo em modelos de código aberto. Uma Mistura de Agentes (MoA) opera no nível das saídas do modelo, não em tokens semânticos. Não possui uma camada de gate, mas encaminha o prompt de texto para todos os agentes de forma paralelizada. As saídas do MoA também não são agregadas por adição e normalização. Em vez disso, são concatenadas e combinadas com um prompt de síntese e agregação antes de serem passadas para um modelo separado para produzir a saída final. Os modelos são assim divididos em “proponentes” que calculam resultados diversos e “agregadores” que integram os resultados. Assim como no MoE, várias dessas camadas podem ser combinadas. A falta de camadas de gate torna essa abordagem mais flexível e adaptável a tarefas complexas.

Economia DeAI

A economia DeAI (Inteligência Artificial Descentralizada) é um aspecto fundamental da plataforma da Assisterr. Ela utiliza tecnologia blockchain para criar um mercado descentralizado para modelos de IA e dados. Essa economia incentiva o compartilhamento de dados e a colaboração, garantindo que os contribuidores sejam recompensados de forma justa por seus esforços. Os principais componentes da economia DeAI incluem:

  • Data Marketplace: Uma plataforma onde os usuários podem comprar, vender e compartilhar dados e modelos de IA. Este mercado incentiva a troca de recursos valiosos, promovendo a inovação e colaboração dentro da comunidade.
  • Mecanismos de Incentivo: Assisterr utiliza vários mecanismos de incentivo para recompensar os usuários por contribuir com dados, desenvolver modelos e participar do ecossistema. Esses incentivos garantem que a comunidade permaneça ativa e engajada.
  • Transparência e Segurança: A tecnologia blockchain fornece um ambiente transparente e seguro para transações dentro da economia DeAI. Isso garante a integridade e confiabilidade dos dados e modelos de IA, protegendo os usuários contra fraudes e uso indevido.

Ecossistema Assisterr

AI Labs

AssisterrAI fornece um pipeline de infraestrutura unificado para criar, tokenizar e distribuir modelos de linguagem pequenos (SLMs) de uma maneira que incentive todas as contribuições da comunidade. O Laboratório de IA permite que os usuários contribuam para modelos em sua área de conhecimento, tornando-se co-criadores e co-proprietários da IA. Essa abordagem garante que os trabalhadores autônomos de IA não apenas ganhem com base em uma única transação, mas também capturem um valor de mercado mais amplo, garantindo um futuro melhor e fazendo das pessoas beneficiárias da IA em vez de vítimas do progresso e da automação.

Para acessar a plataforma, os usuários conectam uma carteira Solana baseada em navegador, bem como seu perfil X e conta no Discord. Eles podem então criar modelos através da guia AI Lab da interface do usuário Assisterr, que oferece um formulário simples para especificar parâmetros-chave, modelos de prompt e metadados do modelo. Os usuários podem fazer o upload direto de dados que serão incorporados ao modelo através da geração aprimorada por recuperação (RAG) e posteriormente através do ajuste fino. Uma vez criado, o modelo pode ser disponibilizado ao público através da loja SLM. No futuro, o AI Lab adotará um paradigma modular e multi-modelo com uma arquitetura de mistura de agentes e estratégias de recuperação aprimoradas.

SLM Store

Os colaboradores do Assisterr são recompensados por todas as etapas da criação de um modelo de IA, desde a contribuição de dados e criação do modelo até a validação e revisão. Esse mecanismo de compartilhamento de receita é implementado por meio de um módulo de tokenização SLM. O Laboratório de IA conecta efetivamente casos de uso de negócios com os dados e conhecimentos necessários. Uma vez que um modelo aparece na aba SLM Store da interface do Assisterr, qualquer usuário pode consultá-lo por meio de uma interface de chatbot. Atualmente, os bots auxiliam em várias áreas especializadas nos ecossistemas Web3, saúde, desenvolvimento de software e finanças.

Cada modelo na loja SLM vem com um tesouro denominado em token nativo da Assisterr, que é reabastecido a partir do saldo do respectivo usuário a cada consulta. As consultas podem ser feitas a partir da WebUI com uma carteira Solana conectada ou através de uma API, tornando os modelos da loja SLM acessíveis por meio de outras aplicações. Os contribuidores podem criar SLMs, montá-los em agentes e implantá-los por meio de uma interface sem código, proporcionando um rápido período de lançamento no mercado e um ciclo de inovação rápido. Isso resolve os desafios de distribuição e monetização enfrentados por criadores e desenvolvedores independentes de modelos.

Elementos Colaborativos

Através da guia Contribuir e Ganhar, os usuários podem participar de melhorias iterativas em modelos existentes da loja SLM, atendendo a solicitações de dados e validando métricas de desempenho em troca de tokens de gerenciamento (MTs) ou o token nativo Assisterr. Esse processo de revisão por pares garante uma evolução constante e aumento da capacidade de criação de modelos ao longo do tempo. Combinado com recursos como Mixture of Agents (MoA), isso permite progresso cumulativo e experimentação contínua de baixo para cima. A natureza modular e especializada dos SLMs permite uma integração rápida em pipelines de trabalho existentes. No futuro, empresas ou indivíduos poderão descrever seus problemas e os serviços do Assisterr envolverão um conjunto relevante de SLMs/Agents para encontrar uma solução.

Modelo Assistente de Tesouraria

O token nativo Assisterr é o veículo no qual as operações do ecossistema AssisterrAI são executadas. Ele é transacionado em resposta à validação de ações tomadas no cumprimento de protocolos de contrato inteligente em cada estágio do processo de desenvolvimento do SLM. Ao alavancar o token, os participantes podem se envolver com as facilidades do ecossistema Assisterr, como acessar produtos, pagar taxas e contribuir para a criação, gerenciamento e monetização de SLMs.

Casos de uso do Assisterr

Agentes de Gestão de Finanças Descentralizadas (DeFi)

Finanças descentralizadas (DeFi) Os agentes de IA são uma inovação significativa no espaço Web3. Indo além de sistemas de recomendação de uso geral, a IA especializada que opera dentro de restrições seguras e permitidas pode otimizar e automatizar melhor as carteiras financeiras. Os SLMs agentes, criados para mídia de transações rápidas como os protocolos DeFi da Solana, podem aprimorar empréstimos/empréstimos, negociações perpétuas e staking. Esses agentes fornecem melhor curadoria de dados, raciocínio multimodal e análise funcional profunda por meio de conjuntos de SLM e um consórcio moderno de Mistura de Agentes (MoA).

Agentes de Negociação

Agentes de negociação, adaptados para cenários de negociação complexos, podem analisar aglomerados de carteiras e tendências de ação de preço, provando-se altamente úteis tanto no volátil mercado DeFi quanto nas finanças tradicionais (TradFi). O MoA baseado em SLM pode ser particularmente eficaz em estratégias de negociação referenciadas a dados, onde o meio e o método de execução são cruciais. Esses agentes aprimoram a eficiência e a lucratividade da negociação, aproveitando algoritmos avançados e dados em tempo real.

Agentes de Chat Autônomos

Agentes de chat autônomos com capacidades avançadas de aprendizado e análise são valiosos em ambientes acadêmicos, sociais e profissionais. Eles podem servir como proxies de suporte para vários serviços, conectando-se a redes sociais e aplicativos de TI. Ao incorporar funcionalidade agente, esses modelos de suporte conversacionais podem atuar como intermediários, implementando funções com base no feedback do usuário e fornecendo suporte acionável.

Avatares voltados para o público

SLMs podem criar proxies baseados em texto, áudio ou vídeo, produzindo avatares para tarefas de mergulho profundo e voltadas para o público. Esses avatares podem lidar com utilidades complexas, como avatares 3D, geração autônoma de texto para vídeo e integrações de transmissão ao vivo em plataformas sociais. O MoA baseado em SLM pode aprimorar interações multimodais de próxima geração, tornando os avatares voltados para o público mais interativos e eficazes.

Relações com Desenvolvedores

O lançamento de um proof of concept especializado em Web3 Developer Relations (DevRel) na plataforma AssisterrAI demonstrou um ajuste forte no mercado. Um regime DevRel robusto é essencial para envolver os desenvolvedores e fornecer suporte abrangente ao adotar uma pilha de tecnologia. No entanto, isso vem com custos substanciais, com salários para funções de DevRel variando de $90k a $200k por ano. Muitos pedidos de suporte de desenvolvedores são previsíveis e podem ser automatizados, aumentando a eficiência do DevRel por meio do uso direcionado de SLMs. Essa abordagem reduz custos enquanto mantém suporte de alta qualidade para os desenvolvedores.

Começando com Assisterr AI Gate

Como se registrar na Assisterr

1. Visite o site da Assisterr: vá para Website da Assisterre clique em "Abrir aplicativo"

2. Conecte sua carteira: Clique no botão "Selecionar Carteira" e conecte sua carteira Solana baseada em navegador. Esta carteira será usada para transações e acesso a várias funcionalidades na plataforma.

3. Linkar Contas Sociais: Conecte seu perfil X e conta do Discord. Essas conexões ajudam a verificar sua identidade e integrar sua presença social com o ecossistema da Assisterr.

4. Complete Registration: Siga as instruções na tela para concluir o processo de registro. Uma vez registrado, você pode começar a explorar a plataforma e seus recursos.

Acessando SLMs

1. Navegue até a Loja SLM: Após fazer login, vá para a Guia da Loja SLMna interface do Assisterr.

2. Navegar pelos Modelos Disponíveis: Explore os vários Modelos de Linguagem Pequena (MLPs) disponíveis na loja. Cada modelo é projetado para tarefas e setores específicos, como ecossistemas Web3, saúde, desenvolvimento de software e finanças.

3.Modelos de consulta: Você pode consultar qualquer modelo por meio de uma interface de chatbot. Basta selecionar o modelo de seu interesse e começar a interagir com ele. As consultas podem ser feitas a partir da interface web com uma carteira Solana conectada ou através de uma API para integração com outras aplicações.

Como criar o seu primeiro SLM

1. Acesse o AI Lab: Vá até o guia do Laboratório de IAna interface do Assisterr.

2. Especificar Parâmetros do Modelo: Preencha o formulário de configuração para especificar os parâmetros-chave, modelos de prompt e metadados para o seu modelo. Isso inclui definir o nome do modelo, identificador, descrição do propósito, categoria, imagem de capa, iniciadores de conversa e conjunto de dados. Você também pode acelerar esse processo usando o assistente de IA.

3. Upload de Dados: Faça o upload direto de dados que serão incorporados ao modelo por meio da geração de recuperação aprimorada (RAG) e do ajuste fino. Esses dados ajudam a treinar o modelo para executar suas tarefas pretendidas.

4. Publique o seu SLM: Depois de ter configurado o modelo, clique no botão. O seu modelo será gerado e você pode optar por torná-lo público na loja SLM ou mantê-lo privado. Torná-lo público permite que outros usuários acessem e consultem o seu modelo.

Esforços de arrecadação de fundos Assisterr

A Assisterr, uma startup de infraestrutura de IA sediada em Cambridge, encerrou com sucesso uma rodada de financiamento pré-seed de US$1,7 milhões. Esta rodada de investimento contou com a participação de proeminentes fundos de investimento em Web3, incluindo Web3.com Ventures, Moonhill Capital, Contango, Outlier Ventures, Decasonic, Zephyrus Capital, Wise3 Ventures, Saxon, GFI Ventures, X Ventures, Koyamaki, Lucid Drakes Ventures, além de investidores anjos notáveis, como Michael Heinrich, Mark Rydon, Nader Dabit, Anthony Lesoismier-Geniaux e Ethan Francis. Os fundos foram fundamentais para a construção da infraestrutura básica da Assisterr e o lançamento de sua plataforma.

Desde o seu lançamento, Assisterr alcançou marcos significativos, incluindo atração de 150.000 usuários registrados e lançamento de mais de 60 Modelos de Pequenos Idiomas (SLMs) para os principais protocolos Web3 como Solana, Optimism, 0g.ai e NEAR. Além disso, Assisterr foi reconhecido ao ganhar várias hackathons globais e participar do programa AI Startups do Google, garantindo $350.000 em financiamento para apoiar suas necessidades de infraestrutura de GPU, CPU e nuvem.

Roteiro futuro e marcos

Assisterr tem um roadmap claro para o crescimento e desenvolvimento futuro. Os principais marcos incluem:

  1. Laboratório de IA (Q4 2024)

    • Lançar o AI Lab para permitir que os usuários criem e possuam SLMs.
    • Alcançar 500.000 usuários.
    • Implementar o Programa de Incentivo ao Criador SLM.
    • Desenvolver 5.000 SLMs.
    • Concluir a rodada de investimento inicial.
  2. Crescimento da rede (H1 2025)

    • Desenvolver SLMs para tarefas específicas do domínio.
    • Realizar Evento de Geração de Token (TGE) e listagens.
    • Alcançar 3 milhões de usuários.
    • Desenvolver 30.000 SLMs.
  3. Mistura de Agentes SLM (H2 2025)

    • Implementar orquestração de SLM para tarefas agnósticas de domínio.
    • Expandir para Web2.
    • Alcançar 10 milhões de usuários.
    • Desenvolver 100.000 SLMs.

Conclusão

Assisterr está pioneira em uma nova era descentralizada e comunidade-propriedade de IA, aproveitando Modelos de Linguagem Pequenos (SLMs) e modelos econômicos inovadores. Ao abordar as limitações de Modelos de Linguagem Grandes (LLMs) e promover uma abordagem colaborativa, Assisterr está tornando a tecnologia de IA mais acessível, eficiente e sustentável. O ecossistema abrangente da plataforma, incluindo AI Labs, a SLM Store e elementos colaborativos, capacita os usuários a criar, compartilhar e monetizar modelos de IA.

Author: Angelnath
Translator: Viper
Reviewer(s): Matheus、Edward
Translation Reviewer(s): Ashely
* The information is not intended to be and does not constitute financial advice or any other recommendation of any sort offered or endorsed by Gate.io.
* This article may not be reproduced, transmitted or copied without referencing Gate.io. Contravention is an infringement of Copyright Act and may be subject to legal action.

O que é Assisterr: O Futuro da IA de Propriedade da Comunidade

intermediário1/13/2025, 3:27:02 AM
Assisterr é uma plataforma de IA descentralizada que utiliza Modelos de Linguagem Pequenos (SLMs) e um modelo econômico inovador para tornar a tecnologia de IA mais acessível, eficiente e sustentável. A plataforma aborda as limitações dos Modelos de Linguagem Grandes (LLMs) e promove a colaboração da comunidade, permitindo que os usuários criem, compartilhem e monetizem modelos de IA. Seu exclusivo sistema econômico descentralizado recompensa os colaboradores, garantindo uma distribuição justa de valor, promovendo a adoção de IA, inovação tecnológica e impulsionando avanços no campo.

A indústria de IA de hoje enfrenta desafios significativos devido à centralização, com avanços importantes frequentemente controlados por algumas grandes corporações. Isso leva a preocupações com a privacidade dos dados, práticas monopolísticas e acesso limitado à tecnologia de ponta. Além disso, a dependência excessiva de Modelos de Linguagem Grandes (LLMs) como o GPT-3, apesar de suas capacidades, traz problemas como altos custos computacionais, impacto ambiental e possíveis viéses nos dados em que são treinados. Esses modelos requerem vastos dados e recursos, tornando-os acessíveis apenas a organizações bem financiadas.

Assisterr aborda esses desafios ao introduzir Modelos de Linguagem Pequenos (SLMs) e promover uma abordagem de desenvolvimento de IA de propriedade da comunidade. Os SLMs são projetados para serem mais eficientes, exigindo menos energia computacional e dados, mantendo alto desempenho, tornando a tecnologia de IA mais acessível e sustentável. Além disso, os modelos e agentes de IA de propriedade da comunidade da Assisterr capacitam os usuários a contribuir e se beneficiar dos avanços da IA, promovendo inovação e inclusão, e garantindo que os benefícios da IA sejam compartilhados de forma mais ampla na sociedade.

O que é Assisterr AI?


Fonte: site Assisterr

O Assisterr AI é uma plataforma de IA descentralizada projetada para democratizar o acesso à inteligência artificial, aproveitando Modelos de Linguagem Pequenos (SLMs) e agentes de IA de propriedade da comunidade. Seu objetivo principal é fornecer uma alternativa mais eficiente, acessível e sustentável aos modelos tradicionais de IA, abordando as limitações dos Modelos de Linguagem Grandes (LLMs) e promovendo um ecossistema de IA colaborativo.

Recursos-chave e benefícios do Assisterr AI

  • Pequenos Modelos de Linguagem (SLMs): Ao contrário dos LLMs, os SLMs requerem menos potência computacional e dados, tornando-os mais acessíveis e ecologicamente corretos. Eles são projetados para realizar tarefas específicas de forma eficiente, reduzindo os custos associados a modelos maiores.
  • Modelos de Propriedade Comunitária: A Assisterr promove uma abordagem descentralizada onde os usuários podem contribuir para e se beneficiar dos avanços da IA. Esse modelo promove a inovação e a inclusão, garantindo que algumas grandes entidades não monopolizem a tecnologia de IA.
  • Ferramentas sem código: Assisterr fornece ferramentas fáceis de usar e sem código que permitem a indivíduos e empresas criar e implantar modelos de IA sem conhecimento técnico extensivo. Isso reduz a barreira de entrada e incentiva uma participação mais ampla no desenvolvimento de IA.
  • Data Marketplace: A plataforma inclui um mercado para dados e modelos de IA, permitindo que os usuários comprem, vendam e compartilhem recursos. Isso incentiva o compartilhamento de dados e colaboração, aprimorando ainda mais o ecossistema de IA.
  • Segurança e Transparência: Assisterr emprega robustas medidas de segurança e processos transparentes para garantir a integridade e confiabilidade de seus modelos de IA e transações de dados.

Os Modelos de Linguagem (LLM e SLM)

Modelos de Linguagem de Grande Escala (MLGE)

Modelos de Linguagem Grandes (LLMs) como o GPT-3 e o BERT são modelos de IA treinados em grandes quantidades de dados de texto para entender e gerar linguagem semelhante à humana. Eles são capazes de realizar uma ampla gama de tarefas, desde completar textos até traduzir e resumir. No entanto, os LLMs têm várias limitações notáveis:

  • Altos custos computacionais: Treinar e executar LLMs requerem recursos computacionais significativos, tornando-os caros e ambientalmente exigentes.
  • Viés de Dados: LLMs podem herdar viés presente em seus dados de treinamento, levando a saídas tendenciosas ou inadequadas.
  • Acessibilidade Limitada: Devido à sua natureza intensiva em recursos, os LLMs geralmente só são acessíveis a grandes organizações com financiamento substancial.
  • Problemas de escalabilidade: A estrutura monolítica dos LLMs pode torná-los menos flexíveis e mais difíceis de adaptar a tarefas ou domínios específicos.

Pequenos Modelos de Linguagem (SLMs)

Pequenos modelos de linguagem (SLMs), embora semelhantes em conceito aos LLMs, são projetados para serem mais precisos, especializados e eficientes. Ao focar em tarefas e conjuntos de dados específicos, os SLMs oferecem desempenho superior para aplicações de nicho, tornando-os mais adequados para casos de uso especializados. Utilizando conjuntos de dados personalizados e focando nas necessidades específicas do negócio, os SLMs podem fornecer desempenho superior e adaptabilidade situacional a uma fração do custo. Isso também é encorajador para a construção de SLMs de código aberto, onde projetos mais baratos anteriormente desenvolveram SLMs com precisão competitiva em relação aos veteranos LLMs a custos muito mais baixos.

Técnico por trás do Assisterr IA

Pequenos Modelos de Linguagem (PML)

Os Pequenos Modelos de Linguagem (SLMs) estão no cerne da tecnologia da Assisterr. Ao contrário dos Grandes Modelos de Linguagem (LLMs), os SLMs são projetados para serem mais eficientes e especializados. Eles se concentram em tarefas e conjuntos de dados específicos, o que lhes permite oferecer um desempenho superior para aplicações de nicho. Essa especialização torna os SLMs mais acessíveis e sustentáveis, pois exigem menos poder computacional e dados.

Arquitetura SLM Modular

Para enfrentar as limitações dos agentes baseados em LLM, surgiram abordagens avançadas envolvendo múltiplos modelos de linguagem pequenos (SLMs) trabalhando em estruturas agentes colaborativas. Dois abordagens principais são alavancadas ao desenvolver agentes de IA a partir de ensembles SLM: Misturas de Especialistas (MoE) e Misturas de Agentes (MoA).

Mixtures of Experts (MoE)


Fonte: Assisterr Litepaper

Quando combinado em conjuntos MoE, o raciocínio moderno de SLM pode alcançar flexibilidade de aprendizado aprimorada sem perder sua capacidade de resolução de problemas funcionais. A aprendizagem em conjunto pode combinar as habilidades de raciocínio de vários modelos menores, cada um especializado em contextos associados diferentes, para resolver problemas complexos. Isso gera uma compreensão híbrida que continua a permitir que a IA mergulhe fundo. As camadas de especialistas podem ser compostas por MoEs, criando estruturas hierárquicas para amortecer ainda mais a complexidade contextual e a proficiência na resolução de problemas. Um MoE normalmente usa uma camada de controle esparsa que seleciona dinamicamente entre várias redes paralelas para fornecer a resposta mais apropriada à solicitação. Para obter respostas mais flexíveis, os especialistas individuais poderiam ser ajustados para geração de código, tradução ou análise de sentimentos. Arquiteturas MoE mais sofisticadas podem conter várias dessas camadas MoE em combinação com outros componentes. Como qualquer arquitetura de modelo de linguagem típica, a camada de controle MoE opera em tokens semânticos e requer treinamento.

Misturas de Agentes (MoA)

Quando montados em arquiteturas MoA, os SLMs aprimoram a seletividade dos conjuntos de raciocínio diversificado, permitindo que a IA execute com precisão uma tarefa com a metodologia necessária. Modelos agentes são montados em um consórcio que camadas protocolos de execução para melhorar a eficiência e a resolução de problemas de tarefas complexas. Assim, a IA trabalha em cenários multi-dominiais. Equipes de agentes podem trabalhar em sequência, melhorando iterativamente os resultados anteriores. MoA superou significativamente modelos maiores, incluindo a pontuação de precisão de 57,5% do GPT-4 Omni no AlpacaEval 2.0, mesmo em modelos de código aberto. Uma Mistura de Agentes (MoA) opera no nível das saídas do modelo, não em tokens semânticos. Não possui uma camada de gate, mas encaminha o prompt de texto para todos os agentes de forma paralelizada. As saídas do MoA também não são agregadas por adição e normalização. Em vez disso, são concatenadas e combinadas com um prompt de síntese e agregação antes de serem passadas para um modelo separado para produzir a saída final. Os modelos são assim divididos em “proponentes” que calculam resultados diversos e “agregadores” que integram os resultados. Assim como no MoE, várias dessas camadas podem ser combinadas. A falta de camadas de gate torna essa abordagem mais flexível e adaptável a tarefas complexas.

Economia DeAI

A economia DeAI (Inteligência Artificial Descentralizada) é um aspecto fundamental da plataforma da Assisterr. Ela utiliza tecnologia blockchain para criar um mercado descentralizado para modelos de IA e dados. Essa economia incentiva o compartilhamento de dados e a colaboração, garantindo que os contribuidores sejam recompensados de forma justa por seus esforços. Os principais componentes da economia DeAI incluem:

  • Data Marketplace: Uma plataforma onde os usuários podem comprar, vender e compartilhar dados e modelos de IA. Este mercado incentiva a troca de recursos valiosos, promovendo a inovação e colaboração dentro da comunidade.
  • Mecanismos de Incentivo: Assisterr utiliza vários mecanismos de incentivo para recompensar os usuários por contribuir com dados, desenvolver modelos e participar do ecossistema. Esses incentivos garantem que a comunidade permaneça ativa e engajada.
  • Transparência e Segurança: A tecnologia blockchain fornece um ambiente transparente e seguro para transações dentro da economia DeAI. Isso garante a integridade e confiabilidade dos dados e modelos de IA, protegendo os usuários contra fraudes e uso indevido.

Ecossistema Assisterr

AI Labs

AssisterrAI fornece um pipeline de infraestrutura unificado para criar, tokenizar e distribuir modelos de linguagem pequenos (SLMs) de uma maneira que incentive todas as contribuições da comunidade. O Laboratório de IA permite que os usuários contribuam para modelos em sua área de conhecimento, tornando-se co-criadores e co-proprietários da IA. Essa abordagem garante que os trabalhadores autônomos de IA não apenas ganhem com base em uma única transação, mas também capturem um valor de mercado mais amplo, garantindo um futuro melhor e fazendo das pessoas beneficiárias da IA em vez de vítimas do progresso e da automação.

Para acessar a plataforma, os usuários conectam uma carteira Solana baseada em navegador, bem como seu perfil X e conta no Discord. Eles podem então criar modelos através da guia AI Lab da interface do usuário Assisterr, que oferece um formulário simples para especificar parâmetros-chave, modelos de prompt e metadados do modelo. Os usuários podem fazer o upload direto de dados que serão incorporados ao modelo através da geração aprimorada por recuperação (RAG) e posteriormente através do ajuste fino. Uma vez criado, o modelo pode ser disponibilizado ao público através da loja SLM. No futuro, o AI Lab adotará um paradigma modular e multi-modelo com uma arquitetura de mistura de agentes e estratégias de recuperação aprimoradas.

SLM Store

Os colaboradores do Assisterr são recompensados por todas as etapas da criação de um modelo de IA, desde a contribuição de dados e criação do modelo até a validação e revisão. Esse mecanismo de compartilhamento de receita é implementado por meio de um módulo de tokenização SLM. O Laboratório de IA conecta efetivamente casos de uso de negócios com os dados e conhecimentos necessários. Uma vez que um modelo aparece na aba SLM Store da interface do Assisterr, qualquer usuário pode consultá-lo por meio de uma interface de chatbot. Atualmente, os bots auxiliam em várias áreas especializadas nos ecossistemas Web3, saúde, desenvolvimento de software e finanças.

Cada modelo na loja SLM vem com um tesouro denominado em token nativo da Assisterr, que é reabastecido a partir do saldo do respectivo usuário a cada consulta. As consultas podem ser feitas a partir da WebUI com uma carteira Solana conectada ou através de uma API, tornando os modelos da loja SLM acessíveis por meio de outras aplicações. Os contribuidores podem criar SLMs, montá-los em agentes e implantá-los por meio de uma interface sem código, proporcionando um rápido período de lançamento no mercado e um ciclo de inovação rápido. Isso resolve os desafios de distribuição e monetização enfrentados por criadores e desenvolvedores independentes de modelos.

Elementos Colaborativos

Através da guia Contribuir e Ganhar, os usuários podem participar de melhorias iterativas em modelos existentes da loja SLM, atendendo a solicitações de dados e validando métricas de desempenho em troca de tokens de gerenciamento (MTs) ou o token nativo Assisterr. Esse processo de revisão por pares garante uma evolução constante e aumento da capacidade de criação de modelos ao longo do tempo. Combinado com recursos como Mixture of Agents (MoA), isso permite progresso cumulativo e experimentação contínua de baixo para cima. A natureza modular e especializada dos SLMs permite uma integração rápida em pipelines de trabalho existentes. No futuro, empresas ou indivíduos poderão descrever seus problemas e os serviços do Assisterr envolverão um conjunto relevante de SLMs/Agents para encontrar uma solução.

Modelo Assistente de Tesouraria

O token nativo Assisterr é o veículo no qual as operações do ecossistema AssisterrAI são executadas. Ele é transacionado em resposta à validação de ações tomadas no cumprimento de protocolos de contrato inteligente em cada estágio do processo de desenvolvimento do SLM. Ao alavancar o token, os participantes podem se envolver com as facilidades do ecossistema Assisterr, como acessar produtos, pagar taxas e contribuir para a criação, gerenciamento e monetização de SLMs.

Casos de uso do Assisterr

Agentes de Gestão de Finanças Descentralizadas (DeFi)

Finanças descentralizadas (DeFi) Os agentes de IA são uma inovação significativa no espaço Web3. Indo além de sistemas de recomendação de uso geral, a IA especializada que opera dentro de restrições seguras e permitidas pode otimizar e automatizar melhor as carteiras financeiras. Os SLMs agentes, criados para mídia de transações rápidas como os protocolos DeFi da Solana, podem aprimorar empréstimos/empréstimos, negociações perpétuas e staking. Esses agentes fornecem melhor curadoria de dados, raciocínio multimodal e análise funcional profunda por meio de conjuntos de SLM e um consórcio moderno de Mistura de Agentes (MoA).

Agentes de Negociação

Agentes de negociação, adaptados para cenários de negociação complexos, podem analisar aglomerados de carteiras e tendências de ação de preço, provando-se altamente úteis tanto no volátil mercado DeFi quanto nas finanças tradicionais (TradFi). O MoA baseado em SLM pode ser particularmente eficaz em estratégias de negociação referenciadas a dados, onde o meio e o método de execução são cruciais. Esses agentes aprimoram a eficiência e a lucratividade da negociação, aproveitando algoritmos avançados e dados em tempo real.

Agentes de Chat Autônomos

Agentes de chat autônomos com capacidades avançadas de aprendizado e análise são valiosos em ambientes acadêmicos, sociais e profissionais. Eles podem servir como proxies de suporte para vários serviços, conectando-se a redes sociais e aplicativos de TI. Ao incorporar funcionalidade agente, esses modelos de suporte conversacionais podem atuar como intermediários, implementando funções com base no feedback do usuário e fornecendo suporte acionável.

Avatares voltados para o público

SLMs podem criar proxies baseados em texto, áudio ou vídeo, produzindo avatares para tarefas de mergulho profundo e voltadas para o público. Esses avatares podem lidar com utilidades complexas, como avatares 3D, geração autônoma de texto para vídeo e integrações de transmissão ao vivo em plataformas sociais. O MoA baseado em SLM pode aprimorar interações multimodais de próxima geração, tornando os avatares voltados para o público mais interativos e eficazes.

Relações com Desenvolvedores

O lançamento de um proof of concept especializado em Web3 Developer Relations (DevRel) na plataforma AssisterrAI demonstrou um ajuste forte no mercado. Um regime DevRel robusto é essencial para envolver os desenvolvedores e fornecer suporte abrangente ao adotar uma pilha de tecnologia. No entanto, isso vem com custos substanciais, com salários para funções de DevRel variando de $90k a $200k por ano. Muitos pedidos de suporte de desenvolvedores são previsíveis e podem ser automatizados, aumentando a eficiência do DevRel por meio do uso direcionado de SLMs. Essa abordagem reduz custos enquanto mantém suporte de alta qualidade para os desenvolvedores.

Começando com Assisterr AI Gate

Como se registrar na Assisterr

1. Visite o site da Assisterr: vá para Website da Assisterre clique em "Abrir aplicativo"

2. Conecte sua carteira: Clique no botão "Selecionar Carteira" e conecte sua carteira Solana baseada em navegador. Esta carteira será usada para transações e acesso a várias funcionalidades na plataforma.

3. Linkar Contas Sociais: Conecte seu perfil X e conta do Discord. Essas conexões ajudam a verificar sua identidade e integrar sua presença social com o ecossistema da Assisterr.

4. Complete Registration: Siga as instruções na tela para concluir o processo de registro. Uma vez registrado, você pode começar a explorar a plataforma e seus recursos.

Acessando SLMs

1. Navegue até a Loja SLM: Após fazer login, vá para a Guia da Loja SLMna interface do Assisterr.

2. Navegar pelos Modelos Disponíveis: Explore os vários Modelos de Linguagem Pequena (MLPs) disponíveis na loja. Cada modelo é projetado para tarefas e setores específicos, como ecossistemas Web3, saúde, desenvolvimento de software e finanças.

3.Modelos de consulta: Você pode consultar qualquer modelo por meio de uma interface de chatbot. Basta selecionar o modelo de seu interesse e começar a interagir com ele. As consultas podem ser feitas a partir da interface web com uma carteira Solana conectada ou através de uma API para integração com outras aplicações.

Como criar o seu primeiro SLM

1. Acesse o AI Lab: Vá até o guia do Laboratório de IAna interface do Assisterr.

2. Especificar Parâmetros do Modelo: Preencha o formulário de configuração para especificar os parâmetros-chave, modelos de prompt e metadados para o seu modelo. Isso inclui definir o nome do modelo, identificador, descrição do propósito, categoria, imagem de capa, iniciadores de conversa e conjunto de dados. Você também pode acelerar esse processo usando o assistente de IA.

3. Upload de Dados: Faça o upload direto de dados que serão incorporados ao modelo por meio da geração de recuperação aprimorada (RAG) e do ajuste fino. Esses dados ajudam a treinar o modelo para executar suas tarefas pretendidas.

4. Publique o seu SLM: Depois de ter configurado o modelo, clique no botão. O seu modelo será gerado e você pode optar por torná-lo público na loja SLM ou mantê-lo privado. Torná-lo público permite que outros usuários acessem e consultem o seu modelo.

Esforços de arrecadação de fundos Assisterr

A Assisterr, uma startup de infraestrutura de IA sediada em Cambridge, encerrou com sucesso uma rodada de financiamento pré-seed de US$1,7 milhões. Esta rodada de investimento contou com a participação de proeminentes fundos de investimento em Web3, incluindo Web3.com Ventures, Moonhill Capital, Contango, Outlier Ventures, Decasonic, Zephyrus Capital, Wise3 Ventures, Saxon, GFI Ventures, X Ventures, Koyamaki, Lucid Drakes Ventures, além de investidores anjos notáveis, como Michael Heinrich, Mark Rydon, Nader Dabit, Anthony Lesoismier-Geniaux e Ethan Francis. Os fundos foram fundamentais para a construção da infraestrutura básica da Assisterr e o lançamento de sua plataforma.

Desde o seu lançamento, Assisterr alcançou marcos significativos, incluindo atração de 150.000 usuários registrados e lançamento de mais de 60 Modelos de Pequenos Idiomas (SLMs) para os principais protocolos Web3 como Solana, Optimism, 0g.ai e NEAR. Além disso, Assisterr foi reconhecido ao ganhar várias hackathons globais e participar do programa AI Startups do Google, garantindo $350.000 em financiamento para apoiar suas necessidades de infraestrutura de GPU, CPU e nuvem.

Roteiro futuro e marcos

Assisterr tem um roadmap claro para o crescimento e desenvolvimento futuro. Os principais marcos incluem:

  1. Laboratório de IA (Q4 2024)

    • Lançar o AI Lab para permitir que os usuários criem e possuam SLMs.
    • Alcançar 500.000 usuários.
    • Implementar o Programa de Incentivo ao Criador SLM.
    • Desenvolver 5.000 SLMs.
    • Concluir a rodada de investimento inicial.
  2. Crescimento da rede (H1 2025)

    • Desenvolver SLMs para tarefas específicas do domínio.
    • Realizar Evento de Geração de Token (TGE) e listagens.
    • Alcançar 3 milhões de usuários.
    • Desenvolver 30.000 SLMs.
  3. Mistura de Agentes SLM (H2 2025)

    • Implementar orquestração de SLM para tarefas agnósticas de domínio.
    • Expandir para Web2.
    • Alcançar 10 milhões de usuários.
    • Desenvolver 100.000 SLMs.

Conclusão

Assisterr está pioneira em uma nova era descentralizada e comunidade-propriedade de IA, aproveitando Modelos de Linguagem Pequenos (SLMs) e modelos econômicos inovadores. Ao abordar as limitações de Modelos de Linguagem Grandes (LLMs) e promover uma abordagem colaborativa, Assisterr está tornando a tecnologia de IA mais acessível, eficiente e sustentável. O ecossistema abrangente da plataforma, incluindo AI Labs, a SLM Store e elementos colaborativos, capacita os usuários a criar, compartilhar e monetizar modelos de IA.

Author: Angelnath
Translator: Viper
Reviewer(s): Matheus、Edward
Translation Reviewer(s): Ashely
* The information is not intended to be and does not constitute financial advice or any other recommendation of any sort offered or endorsed by Gate.io.
* This article may not be reproduced, transmitted or copied without referencing Gate.io. Contravention is an infringement of Copyright Act and may be subject to legal action.
Start Now
Sign up and get a
$100
Voucher!