A indústria de inteligência artificial de hoje enfrenta desafios significativos devido à centralização, com grandes avanços muitas vezes controlados por algumas grandes corporações. Isso leva a preocupações com a privacidade dos dados, práticas monopolísticas e acesso limitado à tecnologia de ponta. Além disso, a superdependência em modelos de linguagem grandes (LLMs) como GPT-3, apesar de suas capacidades, traz problemas como altos custos computacionais, impacto ambiental e possíveis viéses nos dados em que são treinados. Esses modelos requerem vastos dados e recursos, tornando-os acessíveis apenas a organizações bem financiadas.
A Assisterr enfrenta esses desafios ao introduzir os Modelos de Linguagem Pequenos (SLMs) e promover uma abordagem de desenvolvimento de IA de propriedade da comunidade. Os SLMs são projetados para serem mais eficientes, exigindo menos poder computacional e dados, mantendo ao mesmo tempo um alto desempenho, tornando a tecnologia de IA mais acessível e sustentável. Além disso, os modelos de IA e agentes da Assisterr de propriedade da comunidade capacitam os usuários a contribuir e se beneficiar dos avanços da IA, promovendo a inovação e a inclusão, e garantindo que os benefícios da IA sejam compartilhados de forma mais ampla na sociedade.
Origem: website Assisterr
Assisterr AI é uma plataforma de IA descentralizada projetada para democratizar o acesso à inteligência artificial, aproveitando modelos de linguagem pequenos (SLMs) e agentes de IA de propriedade da comunidade. Seu objetivo principal é fornecer uma alternativa mais eficiente, acessível e sustentável aos modelos tradicionais de IA, abordando as limitações dos modelos de linguagem grandes (LLMs) e promovendo um ecossistema de IA colaborativo.
Modelos de Linguagem de Grande Porte (LLMs), como GPT-3 e BERT, são modelos de IA treinados em grandes quantidades de dados de texto para entender e gerar linguagem semelhante à humana. Eles são capazes de executar uma ampla variedade de tarefas, desde a conclusão de texto até a tradução e resumo. No entanto, os LLMs têm várias limitações notáveis:
Pequenos modelos de linguagem (SLMs), embora semelhantes em conceito aos LLMs, são projetados para serem mais precisos, especializados e eficientes. Ao focar em tarefas e conjuntos de dados específicos, os SLMs fornecem desempenho superior para aplicações de nicho, tornando-os mais adequados para casos de uso especializados. Utilizando conjuntos de dados personalizados e focando nas necessidades específicas do negócio, os SLMs podem oferecer desempenho superior e adaptabilidade situacional a uma fração do custo. Isso também é encorajador para a construção de SLMs de código aberto, onde projetos mais baratos desenvolveram SLMs com precisão competitiva em relação aos veteranos LLMs a custos muito mais baixos.
Os Modelos de Linguagem Pequenos (SLMs) estão no cerne da tecnologia da Assisterr. Ao contrário dos Modelos de Linguagem Grandes (LLMs), os SLMs são projetados para serem mais eficientes e especializados. Eles concentram-se em tarefas e conjuntos de dados específicos, o que lhes permite oferecer um desempenho superior para aplicações de nicho. Esta especialização torna os SLMs mais acessíveis e sustentáveis, uma vez que requerem menos potência computacional e dados.
Para enfrentar as limitações dos agentes baseados em LLM, surgiram abordagens avançadas que envolvem múltiplos modelos de linguagem pequenos (SLMs) trabalhando em estruturas de agentes colaborativos. Dois enfoques principais são utilizados no desenvolvimento de agentes de IA a partir de conjuntos de SLMs: Misturas de Especialistas (MoE) e Misturas de Agentes (MoA).
Misturas de Especialistas (MoE)
Origem: Assisterr Litepaper
Quando combinado em ensembles MoE, o raciocínio moderno de SLM pode alcançar uma flexibilidade de aprendizado aprimorada sem perder sua capacidade de resolução de problemas funcionais. A aprendizagem em conjunto pode combinar as habilidades de raciocínio de vários modelos menores, cada um especializado em diferentes contextos associados, para resolver problemas complexos. Isso gera uma compreensão híbrida que continua a permitir que a IA mergulhe profundamente. As camadas de especialistas podem ser compostas por MoEs, criando estruturas hierárquicas para aprofundar ainda mais a complexidade contextual e a proficiência na resolução de problemas. Um MoE tipicamente usa uma camada de portão esparsa que seleciona dinamicamente entre várias redes paralelas para dar a resposta mais apropriada ao prompt. Para obter respostas mais flexíveis, os especialistas individuais podem ser ajustados para geração de código, tradução ou análise de sentimentos. Arquiteturas MoE mais sofisticadas podem conter várias dessas camadas de MoE em combinação com outros componentes. Como qualquer arquitetura de modelo de linguagem típico, a camada de portão MoE opera em tokens semânticos e requer treinamento.
Misturas de Agentes (MoA)
Quando montados em arquiteturas MoA, os SLMs aumentam a seletividade de conjuntos de raciocínio diversificados, permitindo que a IA execute com precisão uma tarefa com a metodologia necessária. Os modelos agenticos são montados em um consórcio que coloca protocolos de execução em camadas para melhorar a eficiência e a resolução de problemas de tarefas complexas. A IA, portanto, funciona em cenários de vários domínios. As equipas de agentes podem trabalhar em sequência, melhorando iterativamente os resultados anteriores. O MoA já superou significativamente modelos maiores, incluindo a pontuação de precisão de 57,5% do GPT-4 Omni no AlpacaEval 2.0, mesmo em modelos de código aberto. Uma mistura de agentes (MoA) opera no nível de saídas do modelo, não tokens semânticos. Ele não apresenta uma camada de bloqueio, mas encaminha o prompt de texto para todos os agentes de forma paralelizada. As saídas do MoA também não são agregadas por adição e normalização. Em vez disso, eles são concatenados e combinados com um prompt de síntese e agregação antes de serem passados para um modelo separado para produzir a saída final. Os modelos são assim divididos em "proponentes" que computam saídas diversas e "agregadores" que integram os resultados. Assim como para o MoE, várias dessas camadas podem ser combinadas. A falta de camadas de regulação torna esta abordagem mais flexível e adaptável a tarefas complexas.
A economia DeAI (Inteligência Artificial Descentralizada) é um aspecto fundamental da plataforma da Assisterr. Ela utiliza a tecnologia blockchain para criar um mercado descentralizado para modelos de IA e dados. Essa economia incentiva o compartilhamento de dados e a colaboração, garantindo que os colaboradores sejam recompensados de forma justa por seus esforços. Os principais componentes da economia DeAI incluem:
AssisterrAI fornece um pipeline de infraestrutura unificado para criar, tokenizar e distribuir Pequenos Modelos de Linguagem (SLMs) de uma forma que incentive todas as contribuições da comunidade. O Laboratório de IA permite que os usuários contribuam para modelos em sua área de conhecimento, tornando-se co-criadores e co-proprietários da IA. Esta abordagem garante que os trabalhadores autônomos de IA não só ganhem de forma pontual e transacional, mas também capturem um valor de mercado mais amplo, garantindo um futuro melhor e tornando as pessoas beneficiárias da IA em vez de vítimas do progresso e da automação.
Para aceder à plataforma, os utilizadores ligam uma carteira Solana baseada no navegador, bem como o seu perfil X e conta Discord. Eles podem então criar modelos através do separador AI Lab da interface do utilizador Assisterr, que oferece um formulário simples para especificar parâmetros-chave, modelos de prompt e metadados do modelo. Os utilizadores podem carregar diretamente dados que serão incorporados no modelo através da geração aumentada de recuperação (RAG) e posteriormente através do ajuste fino. Uma vez criado, o modelo pode ser tornado público através da loja SLM. No futuro, o AI Lab adotará um paradigma modular, multi-modelo com uma arquitetura de Mistura de Agentes e estratégias de recuperação aumentadas.
Os contribuidores da Assisterr são recompensados por todas as etapas na gênese de um modelo de IA, desde a contribuição de dados e criação do modelo até a validação e revisão. Esse mecanismo de compartilhamento de receita é implementado por meio de um módulo de tokenização SLM. O AI Lab conecta efetivamente casos de uso empresariais com os dados e expertise necessários. Assim que um modelo aparece na guia SLM Store da interface da Assisterr, qualquer usuário pode consultá-lo por meio de uma interface de chatbot. Atualmente, os bots ajudam em vários nichos nos ecossistemas Web3, saúde, desenvolvimento de software e finanças.
Cada modelo na loja SLM vem com um tesouro denominado na moeda nativa da Assisterr, que é reabastecido a partir do saldo do usuário correspondente a cada consulta. As consultas podem ser feitas a partir da interface da WebUI com uma carteira Solana conectada ou através de uma API, tornando os modelos da loja SLM acessíveis através de outras aplicações. Os colaboradores podem criar SLMs, montá-los em agentes e implantá-los através de uma interface sem código, oferecendo um período rápido de entrada no mercado e um ciclo de inovação rápido. Isso resolve os desafios de distribuição e monetização enfrentados por criadores e desenvolvedores independentes de modelos.
Através do separador Contribuir e Ganhar, os utilizadores podem participar em melhorias iterativas aos modelos existentes na loja SLM, cumprindo pedidos de dados e validando métricas de desempenho em troca de tokens de gestão (MTs) ou do token nativo Assisterr. Este processo de revisão por pares garante uma evolução constante e um aumento da capacidade de criação de modelos ao longo do tempo. Combinado com características como Mixture of Agents (MoA), isso permite um progresso cumulativo e uma experimentação contínua a partir de baixo. A natureza modular e especializada dos SLMs permite uma integração rápida nos fluxos de trabalho existentes. No futuro, as empresas ou indivíduos poderão descrever os seus problemas e os serviços da Assisterr envolverão um conjunto relevante de SLMs/Agents para encontrar uma solução.
O token nativo Assisterr é o veículo através do qual as operações do ecossistema AssisterrAI são executadas. Ele é transacionado em resposta à validação das ações tomadas no cumprimento dos protocolos de contratos inteligentes em cada etapa do processo de desenvolvimento do SLM. Ao alavancar o token, os participantes podem interagir com as facilidades do ecossistema Assisterr, tais como acessar produtos, pagar taxas e contribuir para a criação, gestão e monetização dos SLMs.
Os agentes de IA de finanças descentralizadas (DeFi) são uma inovação significativa no espaço Web3. Indo além dos sistemas de recomendação de propósito geral, a IA especializada operando dentro de restrições seguras e com permissão pode otimizar e automatizar melhor as carteiras financeiras. Os SLMs agentes, criados para mídia de transação rápida como protocolos Solana DeFi, podem aprimorar empréstimos/empréstimos, negociação perpétua e stake. Esses agentes fornecem melhor curadoria de dados, raciocínio multimodal e análise funcional profunda por meio de conjuntos de SLM e um consórcio moderno de Mistura de Agentes (MoA).
Agentes de negociação, adaptados para cenários de negociação complexos, podem analisar clusters de carteiras e tendências de ação de preços, mostrando-se altamente úteis tanto no mercado volátil de DeFi quanto nas finanças tradicionais (TradFi). O MoA baseado em SLM pode ser particularmente eficaz em estratégias de negociação referenciadas por dados, onde o meio e o método de execução são cruciais. Esses agentes aumentam a eficiência e a lucratividade da negociação, aproveitando algoritmos avançados e dados em tempo real.
Agentes de chat autónomos com capacidades avançadas de aprendizagem e análise são valiosos em vários campos académicos, sociais e profissionais. Podem atuar como proxies de suporte para vários serviços, ligando-se a redes sociais e aplicações de TI. Ao incorporar funcionalidades de agente, estes modelos de suporte conversacional podem atuar como intermediários, implementando funções com base no feedback do utilizador e fornecendo suporte acionável.
Os SLMs podem criar proxies baseados em texto, áudio ou vídeo, produzindo avatares para tarefas de mergulho profundo e voltadas para o público. Esses avatares podem lidar com utilitários complexos, como avatares 3D, geração autônoma de texto para vídeo e integrações de transmissão ao vivo em plataformas sociais. A MoA baseada em SLM pode aprimorar interações multimodais de próxima geração, tornando os avatares voltados para o público mais interativos e eficazes.
O lançamento de um conceito de prova de conceito de Web3 Developer Relations (DevRel) especializado na plataforma AssisterrAI demonstrou uma forte adequação ao mercado. Um regime robusto de DevRel é essencial para envolver os desenvolvedores e fornecer suporte abrangente ao adotar uma pilha de tecnologia. No entanto, isso vem com custos substanciais, com salários para funções de DevRel variando de US $ 90 mil a US $ 200 mil por ano. Muitas solicitações de suporte ao desenvolvedor são previsíveis e podem ser automatizadas, aumentando a eficiência do DevRel por meio do uso direcionado de SLMs. Essa abordagem reduz custos mantendo suporte de alta qualidade para os desenvolvedores.
1. Visite o site Assisterr: vá para Website Assisterr e clique em "Abrir aplicativo"
2. Conecte sua carteira: Clique no botão “Selecionar carteira” e conecte sua carteira Solana baseada em navegador. Essa carteira será usada para transações e acesso a vários recursos na plataforma.
3. Ligação de Contas Sociais: Conecte seu perfil X e conta do Discord. Essas conexões ajudam a verificar sua identidade e integrar sua presença social com o ecossistema Assisterr.
4. Completar o Registo: Siga as instruções apresentadas no ecrã para concluir o processo de registo. Uma vez registado, poderá começar a explorar a plataforma e as suas funcionalidades.
1. Navegue até a Loja SLM: Após fazer login, vá para o Separador da Loja SLMna interface do Assistente.
2. Navegue pelos modelos disponíveis: explore os vários pequenos modelos de linguagem (SLMs) disponíveis na loja. Cada modelo é projetado para tarefas e setores específicos, como ecossistemas Web3, saúde, desenvolvimento de software e finanças.
3. Modelos de consulta: Você pode consultar qualquer modelo através de uma interface de chatbot. Basta selecionar o modelo de seu interesse e começar a interagir com ele. As consultas podem ser feitas a partir da interface da web com uma carteira Solana conectada ou através de uma API para integração com outras aplicações.
1. Aceda ao AI Lab: vá para o Separador do Laboratório de IAna interface do Assisterr.
2. Especificar Parâmetros do Modelo: Preencha o formulário de configuração para especificar os parâmetros-chave, modelos de prompt e metadados para o seu modelo. Isso inclui definir o nome do modelo, alça, descrição do propósito, categoria, imagem de capa, iniciadores de conversa e conjunto de dados. Você também pode agilizar este processo usando o assistente de IA.
3. Carregar Dados: Carregar diretamente dados que serão incorporados no modelo através da geração aumentada por recuperação (RAG) e ajuste fino. Estes dados ajudam a treinar o modelo a realizar as suas tarefas pretendidas.
4. Publicar o seu SLM: Depois de ter configurado o modelo, clique no botão button. O seu modelo será gerado e poderá decidir se o torna público na loja SLM ou o mantém privado. Ao torná-lo público, permite que outros utilizadores acedam e consultem o seu modelo.
Assisterr, uma startup de infraestrutura de IA sediada em Cambridge, encerrou com sucesso uma rodada de financiamento pré-semente de $1.7 milhões. Esta rodada de investimento contou com a participação de proeminentes fundos de capital de risco Web3, incluindo Web3.com Ventures, Moonhill Capital, Contango, Outlier Ventures, Decasonic, Zephyrus Capital, Wise3 Ventures, Saxon, GFI Ventures, X Ventures, Koyamaki, Lucid Drakes Ventures e notáveis anjos como Michael Heinrich, Mark Rydon, Nader Dabit, Anthony Lesoismier-Geniaux e Ethan Francis. Os fundos foram fundamentais para a construção da infraestrutura fundamental da Assisterr e o lançamento de sua plataforma.
Desde o seu lançamento, a Assisterr alcançou marcos significativos, incluindo a atração de 150.000 usuários registrados e o lançamento de mais de 60 Small Language Models (SLMs) para os principais protocolos Web3 como Solana, Optimism, 0g.ai e NEAR. Além disso, a Assisterr recebeu reconhecimento ao vencer vários hackathons globais e participar do programa AI Startups do Google, garantindo $350.000 em financiamento para apoiar suas necessidades de infraestrutura de GPU, CPU e nuvem.
Assisterr tem um roadmap claro para o crescimento e desenvolvimento futuro. Os principais marcos incluem:
Laboratório de IA (T4 2024)
Crescimento da Rede (H1 2025)
Mistura de Agentes SLM (H2 2025)
Assisterr está a liderar uma nova era de IA descentralizada e de propriedade da comunidade, aproveitando Modelos de Linguagem Pequenos (SLMs) e modelos econômicos inovadores. Ao abordar as limitações dos Modelos de Linguagem Grandes (LLMs) e promover uma abordagem colaborativa, a Assisterr está a tornar a tecnologia de IA mais acessível, eficiente e sustentável. O ecossistema abrangente da plataforma, incluindo os Laboratórios de IA, a Loja SLM e elementos colaborativos, capacita os utilizadores a criar, partilhar e rentabilizar modelos de IA.
A indústria de inteligência artificial de hoje enfrenta desafios significativos devido à centralização, com grandes avanços muitas vezes controlados por algumas grandes corporações. Isso leva a preocupações com a privacidade dos dados, práticas monopolísticas e acesso limitado à tecnologia de ponta. Além disso, a superdependência em modelos de linguagem grandes (LLMs) como GPT-3, apesar de suas capacidades, traz problemas como altos custos computacionais, impacto ambiental e possíveis viéses nos dados em que são treinados. Esses modelos requerem vastos dados e recursos, tornando-os acessíveis apenas a organizações bem financiadas.
A Assisterr enfrenta esses desafios ao introduzir os Modelos de Linguagem Pequenos (SLMs) e promover uma abordagem de desenvolvimento de IA de propriedade da comunidade. Os SLMs são projetados para serem mais eficientes, exigindo menos poder computacional e dados, mantendo ao mesmo tempo um alto desempenho, tornando a tecnologia de IA mais acessível e sustentável. Além disso, os modelos de IA e agentes da Assisterr de propriedade da comunidade capacitam os usuários a contribuir e se beneficiar dos avanços da IA, promovendo a inovação e a inclusão, e garantindo que os benefícios da IA sejam compartilhados de forma mais ampla na sociedade.
Origem: website Assisterr
Assisterr AI é uma plataforma de IA descentralizada projetada para democratizar o acesso à inteligência artificial, aproveitando modelos de linguagem pequenos (SLMs) e agentes de IA de propriedade da comunidade. Seu objetivo principal é fornecer uma alternativa mais eficiente, acessível e sustentável aos modelos tradicionais de IA, abordando as limitações dos modelos de linguagem grandes (LLMs) e promovendo um ecossistema de IA colaborativo.
Modelos de Linguagem de Grande Porte (LLMs), como GPT-3 e BERT, são modelos de IA treinados em grandes quantidades de dados de texto para entender e gerar linguagem semelhante à humana. Eles são capazes de executar uma ampla variedade de tarefas, desde a conclusão de texto até a tradução e resumo. No entanto, os LLMs têm várias limitações notáveis:
Pequenos modelos de linguagem (SLMs), embora semelhantes em conceito aos LLMs, são projetados para serem mais precisos, especializados e eficientes. Ao focar em tarefas e conjuntos de dados específicos, os SLMs fornecem desempenho superior para aplicações de nicho, tornando-os mais adequados para casos de uso especializados. Utilizando conjuntos de dados personalizados e focando nas necessidades específicas do negócio, os SLMs podem oferecer desempenho superior e adaptabilidade situacional a uma fração do custo. Isso também é encorajador para a construção de SLMs de código aberto, onde projetos mais baratos desenvolveram SLMs com precisão competitiva em relação aos veteranos LLMs a custos muito mais baixos.
Os Modelos de Linguagem Pequenos (SLMs) estão no cerne da tecnologia da Assisterr. Ao contrário dos Modelos de Linguagem Grandes (LLMs), os SLMs são projetados para serem mais eficientes e especializados. Eles concentram-se em tarefas e conjuntos de dados específicos, o que lhes permite oferecer um desempenho superior para aplicações de nicho. Esta especialização torna os SLMs mais acessíveis e sustentáveis, uma vez que requerem menos potência computacional e dados.
Para enfrentar as limitações dos agentes baseados em LLM, surgiram abordagens avançadas que envolvem múltiplos modelos de linguagem pequenos (SLMs) trabalhando em estruturas de agentes colaborativos. Dois enfoques principais são utilizados no desenvolvimento de agentes de IA a partir de conjuntos de SLMs: Misturas de Especialistas (MoE) e Misturas de Agentes (MoA).
Misturas de Especialistas (MoE)
Origem: Assisterr Litepaper
Quando combinado em ensembles MoE, o raciocínio moderno de SLM pode alcançar uma flexibilidade de aprendizado aprimorada sem perder sua capacidade de resolução de problemas funcionais. A aprendizagem em conjunto pode combinar as habilidades de raciocínio de vários modelos menores, cada um especializado em diferentes contextos associados, para resolver problemas complexos. Isso gera uma compreensão híbrida que continua a permitir que a IA mergulhe profundamente. As camadas de especialistas podem ser compostas por MoEs, criando estruturas hierárquicas para aprofundar ainda mais a complexidade contextual e a proficiência na resolução de problemas. Um MoE tipicamente usa uma camada de portão esparsa que seleciona dinamicamente entre várias redes paralelas para dar a resposta mais apropriada ao prompt. Para obter respostas mais flexíveis, os especialistas individuais podem ser ajustados para geração de código, tradução ou análise de sentimentos. Arquiteturas MoE mais sofisticadas podem conter várias dessas camadas de MoE em combinação com outros componentes. Como qualquer arquitetura de modelo de linguagem típico, a camada de portão MoE opera em tokens semânticos e requer treinamento.
Misturas de Agentes (MoA)
Quando montados em arquiteturas MoA, os SLMs aumentam a seletividade de conjuntos de raciocínio diversificados, permitindo que a IA execute com precisão uma tarefa com a metodologia necessária. Os modelos agenticos são montados em um consórcio que coloca protocolos de execução em camadas para melhorar a eficiência e a resolução de problemas de tarefas complexas. A IA, portanto, funciona em cenários de vários domínios. As equipas de agentes podem trabalhar em sequência, melhorando iterativamente os resultados anteriores. O MoA já superou significativamente modelos maiores, incluindo a pontuação de precisão de 57,5% do GPT-4 Omni no AlpacaEval 2.0, mesmo em modelos de código aberto. Uma mistura de agentes (MoA) opera no nível de saídas do modelo, não tokens semânticos. Ele não apresenta uma camada de bloqueio, mas encaminha o prompt de texto para todos os agentes de forma paralelizada. As saídas do MoA também não são agregadas por adição e normalização. Em vez disso, eles são concatenados e combinados com um prompt de síntese e agregação antes de serem passados para um modelo separado para produzir a saída final. Os modelos são assim divididos em "proponentes" que computam saídas diversas e "agregadores" que integram os resultados. Assim como para o MoE, várias dessas camadas podem ser combinadas. A falta de camadas de regulação torna esta abordagem mais flexível e adaptável a tarefas complexas.
A economia DeAI (Inteligência Artificial Descentralizada) é um aspecto fundamental da plataforma da Assisterr. Ela utiliza a tecnologia blockchain para criar um mercado descentralizado para modelos de IA e dados. Essa economia incentiva o compartilhamento de dados e a colaboração, garantindo que os colaboradores sejam recompensados de forma justa por seus esforços. Os principais componentes da economia DeAI incluem:
AssisterrAI fornece um pipeline de infraestrutura unificado para criar, tokenizar e distribuir Pequenos Modelos de Linguagem (SLMs) de uma forma que incentive todas as contribuições da comunidade. O Laboratório de IA permite que os usuários contribuam para modelos em sua área de conhecimento, tornando-se co-criadores e co-proprietários da IA. Esta abordagem garante que os trabalhadores autônomos de IA não só ganhem de forma pontual e transacional, mas também capturem um valor de mercado mais amplo, garantindo um futuro melhor e tornando as pessoas beneficiárias da IA em vez de vítimas do progresso e da automação.
Para aceder à plataforma, os utilizadores ligam uma carteira Solana baseada no navegador, bem como o seu perfil X e conta Discord. Eles podem então criar modelos através do separador AI Lab da interface do utilizador Assisterr, que oferece um formulário simples para especificar parâmetros-chave, modelos de prompt e metadados do modelo. Os utilizadores podem carregar diretamente dados que serão incorporados no modelo através da geração aumentada de recuperação (RAG) e posteriormente através do ajuste fino. Uma vez criado, o modelo pode ser tornado público através da loja SLM. No futuro, o AI Lab adotará um paradigma modular, multi-modelo com uma arquitetura de Mistura de Agentes e estratégias de recuperação aumentadas.
Os contribuidores da Assisterr são recompensados por todas as etapas na gênese de um modelo de IA, desde a contribuição de dados e criação do modelo até a validação e revisão. Esse mecanismo de compartilhamento de receita é implementado por meio de um módulo de tokenização SLM. O AI Lab conecta efetivamente casos de uso empresariais com os dados e expertise necessários. Assim que um modelo aparece na guia SLM Store da interface da Assisterr, qualquer usuário pode consultá-lo por meio de uma interface de chatbot. Atualmente, os bots ajudam em vários nichos nos ecossistemas Web3, saúde, desenvolvimento de software e finanças.
Cada modelo na loja SLM vem com um tesouro denominado na moeda nativa da Assisterr, que é reabastecido a partir do saldo do usuário correspondente a cada consulta. As consultas podem ser feitas a partir da interface da WebUI com uma carteira Solana conectada ou através de uma API, tornando os modelos da loja SLM acessíveis através de outras aplicações. Os colaboradores podem criar SLMs, montá-los em agentes e implantá-los através de uma interface sem código, oferecendo um período rápido de entrada no mercado e um ciclo de inovação rápido. Isso resolve os desafios de distribuição e monetização enfrentados por criadores e desenvolvedores independentes de modelos.
Através do separador Contribuir e Ganhar, os utilizadores podem participar em melhorias iterativas aos modelos existentes na loja SLM, cumprindo pedidos de dados e validando métricas de desempenho em troca de tokens de gestão (MTs) ou do token nativo Assisterr. Este processo de revisão por pares garante uma evolução constante e um aumento da capacidade de criação de modelos ao longo do tempo. Combinado com características como Mixture of Agents (MoA), isso permite um progresso cumulativo e uma experimentação contínua a partir de baixo. A natureza modular e especializada dos SLMs permite uma integração rápida nos fluxos de trabalho existentes. No futuro, as empresas ou indivíduos poderão descrever os seus problemas e os serviços da Assisterr envolverão um conjunto relevante de SLMs/Agents para encontrar uma solução.
O token nativo Assisterr é o veículo através do qual as operações do ecossistema AssisterrAI são executadas. Ele é transacionado em resposta à validação das ações tomadas no cumprimento dos protocolos de contratos inteligentes em cada etapa do processo de desenvolvimento do SLM. Ao alavancar o token, os participantes podem interagir com as facilidades do ecossistema Assisterr, tais como acessar produtos, pagar taxas e contribuir para a criação, gestão e monetização dos SLMs.
Os agentes de IA de finanças descentralizadas (DeFi) são uma inovação significativa no espaço Web3. Indo além dos sistemas de recomendação de propósito geral, a IA especializada operando dentro de restrições seguras e com permissão pode otimizar e automatizar melhor as carteiras financeiras. Os SLMs agentes, criados para mídia de transação rápida como protocolos Solana DeFi, podem aprimorar empréstimos/empréstimos, negociação perpétua e stake. Esses agentes fornecem melhor curadoria de dados, raciocínio multimodal e análise funcional profunda por meio de conjuntos de SLM e um consórcio moderno de Mistura de Agentes (MoA).
Agentes de negociação, adaptados para cenários de negociação complexos, podem analisar clusters de carteiras e tendências de ação de preços, mostrando-se altamente úteis tanto no mercado volátil de DeFi quanto nas finanças tradicionais (TradFi). O MoA baseado em SLM pode ser particularmente eficaz em estratégias de negociação referenciadas por dados, onde o meio e o método de execução são cruciais. Esses agentes aumentam a eficiência e a lucratividade da negociação, aproveitando algoritmos avançados e dados em tempo real.
Agentes de chat autónomos com capacidades avançadas de aprendizagem e análise são valiosos em vários campos académicos, sociais e profissionais. Podem atuar como proxies de suporte para vários serviços, ligando-se a redes sociais e aplicações de TI. Ao incorporar funcionalidades de agente, estes modelos de suporte conversacional podem atuar como intermediários, implementando funções com base no feedback do utilizador e fornecendo suporte acionável.
Os SLMs podem criar proxies baseados em texto, áudio ou vídeo, produzindo avatares para tarefas de mergulho profundo e voltadas para o público. Esses avatares podem lidar com utilitários complexos, como avatares 3D, geração autônoma de texto para vídeo e integrações de transmissão ao vivo em plataformas sociais. A MoA baseada em SLM pode aprimorar interações multimodais de próxima geração, tornando os avatares voltados para o público mais interativos e eficazes.
O lançamento de um conceito de prova de conceito de Web3 Developer Relations (DevRel) especializado na plataforma AssisterrAI demonstrou uma forte adequação ao mercado. Um regime robusto de DevRel é essencial para envolver os desenvolvedores e fornecer suporte abrangente ao adotar uma pilha de tecnologia. No entanto, isso vem com custos substanciais, com salários para funções de DevRel variando de US $ 90 mil a US $ 200 mil por ano. Muitas solicitações de suporte ao desenvolvedor são previsíveis e podem ser automatizadas, aumentando a eficiência do DevRel por meio do uso direcionado de SLMs. Essa abordagem reduz custos mantendo suporte de alta qualidade para os desenvolvedores.
1. Visite o site Assisterr: vá para Website Assisterr e clique em "Abrir aplicativo"
2. Conecte sua carteira: Clique no botão “Selecionar carteira” e conecte sua carteira Solana baseada em navegador. Essa carteira será usada para transações e acesso a vários recursos na plataforma.
3. Ligação de Contas Sociais: Conecte seu perfil X e conta do Discord. Essas conexões ajudam a verificar sua identidade e integrar sua presença social com o ecossistema Assisterr.
4. Completar o Registo: Siga as instruções apresentadas no ecrã para concluir o processo de registo. Uma vez registado, poderá começar a explorar a plataforma e as suas funcionalidades.
1. Navegue até a Loja SLM: Após fazer login, vá para o Separador da Loja SLMna interface do Assistente.
2. Navegue pelos modelos disponíveis: explore os vários pequenos modelos de linguagem (SLMs) disponíveis na loja. Cada modelo é projetado para tarefas e setores específicos, como ecossistemas Web3, saúde, desenvolvimento de software e finanças.
3. Modelos de consulta: Você pode consultar qualquer modelo através de uma interface de chatbot. Basta selecionar o modelo de seu interesse e começar a interagir com ele. As consultas podem ser feitas a partir da interface da web com uma carteira Solana conectada ou através de uma API para integração com outras aplicações.
1. Aceda ao AI Lab: vá para o Separador do Laboratório de IAna interface do Assisterr.
2. Especificar Parâmetros do Modelo: Preencha o formulário de configuração para especificar os parâmetros-chave, modelos de prompt e metadados para o seu modelo. Isso inclui definir o nome do modelo, alça, descrição do propósito, categoria, imagem de capa, iniciadores de conversa e conjunto de dados. Você também pode agilizar este processo usando o assistente de IA.
3. Carregar Dados: Carregar diretamente dados que serão incorporados no modelo através da geração aumentada por recuperação (RAG) e ajuste fino. Estes dados ajudam a treinar o modelo a realizar as suas tarefas pretendidas.
4. Publicar o seu SLM: Depois de ter configurado o modelo, clique no botão button. O seu modelo será gerado e poderá decidir se o torna público na loja SLM ou o mantém privado. Ao torná-lo público, permite que outros utilizadores acedam e consultem o seu modelo.
Assisterr, uma startup de infraestrutura de IA sediada em Cambridge, encerrou com sucesso uma rodada de financiamento pré-semente de $1.7 milhões. Esta rodada de investimento contou com a participação de proeminentes fundos de capital de risco Web3, incluindo Web3.com Ventures, Moonhill Capital, Contango, Outlier Ventures, Decasonic, Zephyrus Capital, Wise3 Ventures, Saxon, GFI Ventures, X Ventures, Koyamaki, Lucid Drakes Ventures e notáveis anjos como Michael Heinrich, Mark Rydon, Nader Dabit, Anthony Lesoismier-Geniaux e Ethan Francis. Os fundos foram fundamentais para a construção da infraestrutura fundamental da Assisterr e o lançamento de sua plataforma.
Desde o seu lançamento, a Assisterr alcançou marcos significativos, incluindo a atração de 150.000 usuários registrados e o lançamento de mais de 60 Small Language Models (SLMs) para os principais protocolos Web3 como Solana, Optimism, 0g.ai e NEAR. Além disso, a Assisterr recebeu reconhecimento ao vencer vários hackathons globais e participar do programa AI Startups do Google, garantindo $350.000 em financiamento para apoiar suas necessidades de infraestrutura de GPU, CPU e nuvem.
Assisterr tem um roadmap claro para o crescimento e desenvolvimento futuro. Os principais marcos incluem:
Laboratório de IA (T4 2024)
Crescimento da Rede (H1 2025)
Mistura de Agentes SLM (H2 2025)
Assisterr está a liderar uma nova era de IA descentralizada e de propriedade da comunidade, aproveitando Modelos de Linguagem Pequenos (SLMs) e modelos econômicos inovadores. Ao abordar as limitações dos Modelos de Linguagem Grandes (LLMs) e promover uma abordagem colaborativa, a Assisterr está a tornar a tecnologia de IA mais acessível, eficiente e sustentável. O ecossistema abrangente da plataforma, incluindo os Laboratórios de IA, a Loja SLM e elementos colaborativos, capacita os utilizadores a criar, partilhar e rentabilizar modelos de IA.