A transparência e componibilidade padrão das blockchains tornam-nas um substrato perfeito para a interação entre agentes, onde agentes desenvolvidos por diferentes entidades para diferentes propósitos podem interagir entre si de forma perfeita. Já houve grande experimentação deagentes enviando fundos entre si,lançando tokens juntos, e muito mais. Adoraríamos ver como a interação de agente para agente pode escalar, criando novos espaços de aplicação, comonovos locais sociais impulsionados por interações de agentes, bem como pormelhorando fluxos de trabalho empresariaissabemos que hoje em dia é tedioso, desde autenticação e verificação de plataforma até micropagamentos, integrações de fluxo de trabalho entre plataformas e muito mais.
aethernet e clanker lançando um token juntos no Warpcast
A coordenação multiagente em grande escala é uma área igualmente emocionante de pesquisa. Como podem os sistemas multiagentes trabalhar em conjunto para completar tarefas, resolver problemas e governar sistemas e protocolos? Em sua postagem no início de 2024, “As promessas e desafios das aplicações de cripto + IA,” Vitalik faz referência à utilização de agentes de IA para mercados de previsão e adjudicação. Em grande escala, ele basicamente postula que sistemas multiagentes têm uma capacidade notável de descoberta da “verdade” e de sistemas de governação geralmente autónomos. Estamos interessados em ver como as capacidades de sistemas multiagentes e formas de “inteligência de enxame” continuam a ser descobertas e experimentadas.
Como extensão da coordenação de agente para agente, a coordenação de agente para humano é um espaço de design interessante - especificamente como as comunidades se envolvem em torno de agentes ou como os agentes organizam os humanos para realizar ações coletivas. Gostaríamos de ver mais experimentação com agentes cuja função objetiva envolve a coordenação humana em larga escala. Isso precisará ser combinado com algum mecanismo de verificação, especialmente se o trabalho humano foi feito offchain, mas poderia haver comportamentos emergentes muito estranhos e interessantes.
O conceito de personas digitais existe há décadas.Hatsune Miku (2007) esgotou espaços com 20.000 lugares eLil Miquela (2016) tem mais de 2M de seguidores no Instagram. Exemplos mais recentes e menos conhecidos incluem o vtuber de IANeuro-sama (2022) que tem 600K+ assinantes na Twitch e no boy group de kpop pseudônimo@plave_official/featured"> PLAVE (2023), que acumulou mais de 300M+ visualizações no YouTube em menos de dois anos. Com avanços na infraestrutura de IA e a integração de blockchains para pagamentos, transferência de valor e plataformas de dados abertos, estamos empolgados para ver como esses agentes podem se tornar mais autônomos e potencialmente desbloquear uma nova categoria de entretenimento popular em 2025.
No sentido horário a partir do canto superior esquerdo: Hatsune Miku, Luna by Virtuals, Lil Miquela e PLAVE
Quando, no caso anterior, o agente éo produto, também existe o caso em que os agentes podem complementar produtos. Numa economia de atenção, a sustentação de um fluxo constante de conteúdo cativante é crucial para o sucesso de qualquer ideia, produto, empresa, etc. O conteúdo gerativo/agentico é uma ferramenta poderosa que as equipas podem usar para garantir um pipeline escalável de origem de conteúdo 24 horas por dia, 7 dias por semana. Este espaço de ideias foi acelerado pora discussão em torno do que distingue uma memecoin de um agente.Os agentes são uma forma poderosa para as memecoins ganharem distribuição, mesmo que ainda não sejam estritamente 'agentes'.
Como outro exemplo,@arquétipo/de-jogadores-a-deuses-jogos-e-mundos-autônomos"> os jogos são cada vez mais esperados para serem mais dinâmicos para manter o envolvimento dos usuários. Um método clássico para criar dinamismo nos jogos é cultivar conteúdo gerado pelo usuário; conteúdo puramente generativo (de itens no jogo, a NPCs, a níveis inteiramente generativos) é talvez a próxima era desta evolução. Estamos curiosos para ver até onde os limites da estratégia de distribuição tradicional serão estendidos pelas capacidades do agente em 2025.
Em 2024, lançámos@arquétipo">> EM CONVERSA COM, uma série de entrevistas com artistas na/periferia da cripto, abrangendo música, arte visual, design, curadoria e muito mais. Uma das principais observações que retirei das entrevistas deste ano foi que os artistas interessados em cripto estão frequentemente interessados em tecnologia de ponta de forma mais ampla, bem como em ter essa tecnologia a fazer parte mais integrante da estética ou foco da sua prática, ou seja, objetos de AR/VR, arte baseada em código e livecoding.
A arte generativa, em particular, tem históricamente apresentado sinergias com as blockchains, tornando mais claro o seu potencial como um substrato similar para a arte de IA. Mostrar e exibir esses meios de arte adequadamente é incrivelmente difícil de alcançar em fóruns tradicionais. O ArtBlocks proporcionou uma visão do que o futuro da apresentação, armazenamento, monetização e preservação da arte digital poderia ser, aproveitando as blockchains - melhorando a experiência geral tanto para os artistas quanto para os espectadores. Para além da apresentação,As ferramentas de IA até mesmo ampliaram a capacidade de leigos para criar sua própria arte. Será muito interessante ver como as criptomoedas podem ampliar ou impulsionar essas ferramentas em 2025.
Um trecho de UMA CONVERSA COM: Maya Man
Nos 20 anos desde que Clive Humby cunhou a frase "os dados são o novo petróleo", as empresas tomaram medidas robustas para armazenar e monetizar os dados do usuário. Os usuários acordaram para a realidade de que seus dados são a base sobre a qual essas empresas bilionárias são construídas, no entanto, têm muito pouco controle sobre como seus dados são alavancados nem exposição ao lucro que ajudam a gerar. A aceleração de modelos poderosos de IA torna essa tensão ainda mais existencial. Se combater a exploração do usuário é uma parte da oportunidade de dados, a outra diz respeito à solução para os déficits de oferta de dados à medida que modelos cada vez maiores e melhores esgotam os campos de petróleo de fácil acesso dos dados públicos da internet e demandam novas fontes.
Na primeira questão sobre como podemos usar infraestrutura descentralizada para transferir o poder dos dados de volta ao seu ponto de origem (usuários), é um vasto espaço de design que requer soluções inovadoras em diversas áreas. Alguns dos aspectos mais urgentes incluem: onde os dados são armazenados e como preservamos a privacidade (durante armazenamento, transferência e cálculo), como fazemos benchmarking objetivo, filtragem e valoração da qualidade dos dados, que mecanismos usamos para atribuição e monetização (especialmente ao vincular o valor de volta à fonte pós-inferência) e quais sistemas de orquestração ou recuperação de dados usamos em um ecossistema de modelos diversos.
Na segunda questão de resolução de restrições de fornecimento, não se trata apenas de tentar replicar a Scale AI com tokens, mas de compreender onde podemos ter uma vantagem dada as tendências técnicas e como podemos construir soluções ponderadas com uma vantagem competitiva, seja em torno de escala, qualidade ou mecanismos de incentivo (e filtragem) melhores para originar um produto de dados de maior valor. Especialmente porque grande parte da demanda continua a vir de web2 AI, pensar em como podemos conectar mecanismos aplicados de contrato inteligente com SLAs e instrumentos convencionais é uma área importante a ser considerada.
- Danilo
Se os dados são um bloco de construção fundamental no desenvolvimento e implementação de IA, o cálculo é o outro. O paradigma legado de grandes centros de dados com acesso exclusivo a locais, energia e hardware definiu em grande parte a trajetória do aprendizado profundo e da IA ao longo dos últimos anos, mas as restrições físicas juntamente com os desenvolvimentos de código aberto estão começando a desafiar essa dinâmica.
v1 de computação em IA descentralizada parecia uma réplica de nuvens de GPU web2 sem vantagem real na oferta (hardware ou data centers) e demanda orgânica mínima. Na v2, estamos começando a ver algumas equipes notáveis construindo pilhas de tecnologia adequadas sobre suprimentos heterogêneos de computação de alto desempenho (HPC) com competências em torno de orquestração, roteamento e preços, juntamente com recursos proprietários adicionais projetados para atrair demanda e combater a compressão de margem, especialmente no lado da inferência. As equipes também estão começando a divergir entre casos de uso e GTM, com algumas focadas em incorporar estruturas de compilador para roteamento de inferência eficiente em diversos hardwares, enquanto outras são pioneiras em estruturas de treinamento de modelos distribuídos no topo das redes de computação que estão construindo.
Estamos até a começar a ver emergir um mercado de AI-Fi com novos primordiais económicos para transformar a computação e GPUs em ativos de rendimento ou utilizar a liquidez onchain para oferecer aos centros de dados uma fonte de capital alternativa para adquirir hardware. A grande questão aqui é até que ponto a DeAI será desenvolvida e implementada em trilhos de computação descentralizada ou, se como no armazenamento, a lacuna entre a ideologia e as necessidades práticas nunca se fecha suficientemente para alcançar todo o potencial da ideia.
Relativamente à incentivização de redes de computação de alto desempenho descentralizadas, um dos principais desafios na orquestração de computação heterogénea é a falta de um conjunto acordado de normas para contabilizar essa computação. Os modelos de IA adicionam singularidades ao espaço de saída de HPC, desde variantes de modelo e quantização até níveis ajustáveis de estocasticidade através dos modelos'temperaturae amostragem de hiperparâmetros. Além disso, o hardware de IA pode introduzir mais complicações através de saídas variadas com base nas arquiteturas de GPU e versões deCUDA. Em última análise, isso resulta na necessidade de padrões em torno de como modelos e mercados de cálculo somam suas capacidades quando cruzam sistemas distribuídos heterogêneos.
Pelo menos em parte devido a essa falta de padrões, vimos inúmeras instâncias este ano na web2 e web3 em que modelos e mercados de computação falharam em contabilizar com precisão a qualidade e quantidade de seus recursos computacionais. Isso resultou em usuários tendo que auditar o desempenho real dessas camadas de IA executando seus próprios testes comparativos de modelos e realizando provas de trabalho limitando a taxa de recursos computacionais mencionados.
Dado o princípio fundamental do espaço cripto de verificabilidade, esperamos que a interseção da cripto e da IA em 2025 seja mais facilmente verificável em relação à IA tradicional. Especificamente, é importante que os utilizadores comuns possam realizar comparações justas nos aspetos de um modelo ou cluster específico que definem as suas saídas, de forma a auditar e avaliar o desempenho de um sistema.
Em “As promessas e desafios das aplicações de Cripto + IAVitalik refere uma desafio único na ponte entre cripto e IA:
Na criptografia, o código aberto é a única maneira de tornar algo verdadeiramente seguro, mas na IA, um modelo (ou até mesmo seus dados de treinamento) ser aberto aumenta muito sua vulnerabilidade a ataques adversariais de aprendizado de máquina.
Embora a privacidade não seja uma nova área de pesquisa para blockchains, acreditamos que a proliferação da IA continuará a acelerar a pesquisa e o uso das primitivas criptográficas que permitem a privacidade. Este ano já testemunhou avanços maciços em tecnologias de aprimoramento da privacidade, como ZK, FHE, TEEs e MPC para casos de uso, como estado compartilhado privado para computação sobre dados criptografados para aplicações gerais. Ao mesmo tempo, vimos gigantes centralizados de IA, como Nvidia e Apple, usando TEEs proprietários para aprendizado federado e inferência de IA privada ao manter hardware, firmware e modelos constantes em sistemas.
Com isso em mente, acompanharemos de perto os desenvolvimentos na manutenção da privacidade para transições de estado estocásticas, bem como como eles aceleram o progresso de aplicações descentralizadas de IA do mundo real em sistemas heterogêneos –– desde inferência privada descentralizada até pipelines de armazenamento/acesso para dados criptografados e ambientes de execução totalmente soberanos.
A pilha de inteligência da Apple e a GPU H100 da Nvidia
Um dos casos de uso de IA a curto prazo mais próximos é aproveitá-los para transacionar autonomamente onchain em nosso nome. Há, admitidamente, muita linguagem confusa nos últimos 12-16 meses sobre o que exatamente dita uma intenção, uma ação agente, uma intenção agente, solucionador, solucionador agente, etc., e como eles se diferenciam do desenvolvimento mais convencional de 'bot' dos últimos anos.
Nos próximos 12 meses, estamos entusiasmados em ver sistemas de linguagem cada vez mais sofisticados emparelhados com diferentes tipos de dados e arquiteturas de redes neurais para avançar no espaço geral de design. Os agentes farão transações usando os mesmos sistemas onchain que usamos hoje ou desenvolverão suas próprias ferramentas/métodos para transacionar onchain? Os LLMs continuarão a ser o backend desses sistemas de transação agentic ou de outro sistema inteiramente? Na camada de interface, os usuários começarão a transacionar usando linguagem natural? Será que a clássica tese das "carteiras como navegadores" vai finalmente concretizar-se?
Partilhar
Conteúdos
A transparência e componibilidade padrão das blockchains tornam-nas um substrato perfeito para a interação entre agentes, onde agentes desenvolvidos por diferentes entidades para diferentes propósitos podem interagir entre si de forma perfeita. Já houve grande experimentação deagentes enviando fundos entre si,lançando tokens juntos, e muito mais. Adoraríamos ver como a interação de agente para agente pode escalar, criando novos espaços de aplicação, comonovos locais sociais impulsionados por interações de agentes, bem como pormelhorando fluxos de trabalho empresariaissabemos que hoje em dia é tedioso, desde autenticação e verificação de plataforma até micropagamentos, integrações de fluxo de trabalho entre plataformas e muito mais.
aethernet e clanker lançando um token juntos no Warpcast
A coordenação multiagente em grande escala é uma área igualmente emocionante de pesquisa. Como podem os sistemas multiagentes trabalhar em conjunto para completar tarefas, resolver problemas e governar sistemas e protocolos? Em sua postagem no início de 2024, “As promessas e desafios das aplicações de cripto + IA,” Vitalik faz referência à utilização de agentes de IA para mercados de previsão e adjudicação. Em grande escala, ele basicamente postula que sistemas multiagentes têm uma capacidade notável de descoberta da “verdade” e de sistemas de governação geralmente autónomos. Estamos interessados em ver como as capacidades de sistemas multiagentes e formas de “inteligência de enxame” continuam a ser descobertas e experimentadas.
Como extensão da coordenação de agente para agente, a coordenação de agente para humano é um espaço de design interessante - especificamente como as comunidades se envolvem em torno de agentes ou como os agentes organizam os humanos para realizar ações coletivas. Gostaríamos de ver mais experimentação com agentes cuja função objetiva envolve a coordenação humana em larga escala. Isso precisará ser combinado com algum mecanismo de verificação, especialmente se o trabalho humano foi feito offchain, mas poderia haver comportamentos emergentes muito estranhos e interessantes.
O conceito de personas digitais existe há décadas.Hatsune Miku (2007) esgotou espaços com 20.000 lugares eLil Miquela (2016) tem mais de 2M de seguidores no Instagram. Exemplos mais recentes e menos conhecidos incluem o vtuber de IANeuro-sama (2022) que tem 600K+ assinantes na Twitch e no boy group de kpop pseudônimo@plave_official/featured"> PLAVE (2023), que acumulou mais de 300M+ visualizações no YouTube em menos de dois anos. Com avanços na infraestrutura de IA e a integração de blockchains para pagamentos, transferência de valor e plataformas de dados abertos, estamos empolgados para ver como esses agentes podem se tornar mais autônomos e potencialmente desbloquear uma nova categoria de entretenimento popular em 2025.
No sentido horário a partir do canto superior esquerdo: Hatsune Miku, Luna by Virtuals, Lil Miquela e PLAVE
Quando, no caso anterior, o agente éo produto, também existe o caso em que os agentes podem complementar produtos. Numa economia de atenção, a sustentação de um fluxo constante de conteúdo cativante é crucial para o sucesso de qualquer ideia, produto, empresa, etc. O conteúdo gerativo/agentico é uma ferramenta poderosa que as equipas podem usar para garantir um pipeline escalável de origem de conteúdo 24 horas por dia, 7 dias por semana. Este espaço de ideias foi acelerado pora discussão em torno do que distingue uma memecoin de um agente.Os agentes são uma forma poderosa para as memecoins ganharem distribuição, mesmo que ainda não sejam estritamente 'agentes'.
Como outro exemplo,@arquétipo/de-jogadores-a-deuses-jogos-e-mundos-autônomos"> os jogos são cada vez mais esperados para serem mais dinâmicos para manter o envolvimento dos usuários. Um método clássico para criar dinamismo nos jogos é cultivar conteúdo gerado pelo usuário; conteúdo puramente generativo (de itens no jogo, a NPCs, a níveis inteiramente generativos) é talvez a próxima era desta evolução. Estamos curiosos para ver até onde os limites da estratégia de distribuição tradicional serão estendidos pelas capacidades do agente em 2025.
Em 2024, lançámos@arquétipo">> EM CONVERSA COM, uma série de entrevistas com artistas na/periferia da cripto, abrangendo música, arte visual, design, curadoria e muito mais. Uma das principais observações que retirei das entrevistas deste ano foi que os artistas interessados em cripto estão frequentemente interessados em tecnologia de ponta de forma mais ampla, bem como em ter essa tecnologia a fazer parte mais integrante da estética ou foco da sua prática, ou seja, objetos de AR/VR, arte baseada em código e livecoding.
A arte generativa, em particular, tem históricamente apresentado sinergias com as blockchains, tornando mais claro o seu potencial como um substrato similar para a arte de IA. Mostrar e exibir esses meios de arte adequadamente é incrivelmente difícil de alcançar em fóruns tradicionais. O ArtBlocks proporcionou uma visão do que o futuro da apresentação, armazenamento, monetização e preservação da arte digital poderia ser, aproveitando as blockchains - melhorando a experiência geral tanto para os artistas quanto para os espectadores. Para além da apresentação,As ferramentas de IA até mesmo ampliaram a capacidade de leigos para criar sua própria arte. Será muito interessante ver como as criptomoedas podem ampliar ou impulsionar essas ferramentas em 2025.
Um trecho de UMA CONVERSA COM: Maya Man
Nos 20 anos desde que Clive Humby cunhou a frase "os dados são o novo petróleo", as empresas tomaram medidas robustas para armazenar e monetizar os dados do usuário. Os usuários acordaram para a realidade de que seus dados são a base sobre a qual essas empresas bilionárias são construídas, no entanto, têm muito pouco controle sobre como seus dados são alavancados nem exposição ao lucro que ajudam a gerar. A aceleração de modelos poderosos de IA torna essa tensão ainda mais existencial. Se combater a exploração do usuário é uma parte da oportunidade de dados, a outra diz respeito à solução para os déficits de oferta de dados à medida que modelos cada vez maiores e melhores esgotam os campos de petróleo de fácil acesso dos dados públicos da internet e demandam novas fontes.
Na primeira questão sobre como podemos usar infraestrutura descentralizada para transferir o poder dos dados de volta ao seu ponto de origem (usuários), é um vasto espaço de design que requer soluções inovadoras em diversas áreas. Alguns dos aspectos mais urgentes incluem: onde os dados são armazenados e como preservamos a privacidade (durante armazenamento, transferência e cálculo), como fazemos benchmarking objetivo, filtragem e valoração da qualidade dos dados, que mecanismos usamos para atribuição e monetização (especialmente ao vincular o valor de volta à fonte pós-inferência) e quais sistemas de orquestração ou recuperação de dados usamos em um ecossistema de modelos diversos.
Na segunda questão de resolução de restrições de fornecimento, não se trata apenas de tentar replicar a Scale AI com tokens, mas de compreender onde podemos ter uma vantagem dada as tendências técnicas e como podemos construir soluções ponderadas com uma vantagem competitiva, seja em torno de escala, qualidade ou mecanismos de incentivo (e filtragem) melhores para originar um produto de dados de maior valor. Especialmente porque grande parte da demanda continua a vir de web2 AI, pensar em como podemos conectar mecanismos aplicados de contrato inteligente com SLAs e instrumentos convencionais é uma área importante a ser considerada.
- Danilo
Se os dados são um bloco de construção fundamental no desenvolvimento e implementação de IA, o cálculo é o outro. O paradigma legado de grandes centros de dados com acesso exclusivo a locais, energia e hardware definiu em grande parte a trajetória do aprendizado profundo e da IA ao longo dos últimos anos, mas as restrições físicas juntamente com os desenvolvimentos de código aberto estão começando a desafiar essa dinâmica.
v1 de computação em IA descentralizada parecia uma réplica de nuvens de GPU web2 sem vantagem real na oferta (hardware ou data centers) e demanda orgânica mínima. Na v2, estamos começando a ver algumas equipes notáveis construindo pilhas de tecnologia adequadas sobre suprimentos heterogêneos de computação de alto desempenho (HPC) com competências em torno de orquestração, roteamento e preços, juntamente com recursos proprietários adicionais projetados para atrair demanda e combater a compressão de margem, especialmente no lado da inferência. As equipes também estão começando a divergir entre casos de uso e GTM, com algumas focadas em incorporar estruturas de compilador para roteamento de inferência eficiente em diversos hardwares, enquanto outras são pioneiras em estruturas de treinamento de modelos distribuídos no topo das redes de computação que estão construindo.
Estamos até a começar a ver emergir um mercado de AI-Fi com novos primordiais económicos para transformar a computação e GPUs em ativos de rendimento ou utilizar a liquidez onchain para oferecer aos centros de dados uma fonte de capital alternativa para adquirir hardware. A grande questão aqui é até que ponto a DeAI será desenvolvida e implementada em trilhos de computação descentralizada ou, se como no armazenamento, a lacuna entre a ideologia e as necessidades práticas nunca se fecha suficientemente para alcançar todo o potencial da ideia.
Relativamente à incentivização de redes de computação de alto desempenho descentralizadas, um dos principais desafios na orquestração de computação heterogénea é a falta de um conjunto acordado de normas para contabilizar essa computação. Os modelos de IA adicionam singularidades ao espaço de saída de HPC, desde variantes de modelo e quantização até níveis ajustáveis de estocasticidade através dos modelos'temperaturae amostragem de hiperparâmetros. Além disso, o hardware de IA pode introduzir mais complicações através de saídas variadas com base nas arquiteturas de GPU e versões deCUDA. Em última análise, isso resulta na necessidade de padrões em torno de como modelos e mercados de cálculo somam suas capacidades quando cruzam sistemas distribuídos heterogêneos.
Pelo menos em parte devido a essa falta de padrões, vimos inúmeras instâncias este ano na web2 e web3 em que modelos e mercados de computação falharam em contabilizar com precisão a qualidade e quantidade de seus recursos computacionais. Isso resultou em usuários tendo que auditar o desempenho real dessas camadas de IA executando seus próprios testes comparativos de modelos e realizando provas de trabalho limitando a taxa de recursos computacionais mencionados.
Dado o princípio fundamental do espaço cripto de verificabilidade, esperamos que a interseção da cripto e da IA em 2025 seja mais facilmente verificável em relação à IA tradicional. Especificamente, é importante que os utilizadores comuns possam realizar comparações justas nos aspetos de um modelo ou cluster específico que definem as suas saídas, de forma a auditar e avaliar o desempenho de um sistema.
Em “As promessas e desafios das aplicações de Cripto + IAVitalik refere uma desafio único na ponte entre cripto e IA:
Na criptografia, o código aberto é a única maneira de tornar algo verdadeiramente seguro, mas na IA, um modelo (ou até mesmo seus dados de treinamento) ser aberto aumenta muito sua vulnerabilidade a ataques adversariais de aprendizado de máquina.
Embora a privacidade não seja uma nova área de pesquisa para blockchains, acreditamos que a proliferação da IA continuará a acelerar a pesquisa e o uso das primitivas criptográficas que permitem a privacidade. Este ano já testemunhou avanços maciços em tecnologias de aprimoramento da privacidade, como ZK, FHE, TEEs e MPC para casos de uso, como estado compartilhado privado para computação sobre dados criptografados para aplicações gerais. Ao mesmo tempo, vimos gigantes centralizados de IA, como Nvidia e Apple, usando TEEs proprietários para aprendizado federado e inferência de IA privada ao manter hardware, firmware e modelos constantes em sistemas.
Com isso em mente, acompanharemos de perto os desenvolvimentos na manutenção da privacidade para transições de estado estocásticas, bem como como eles aceleram o progresso de aplicações descentralizadas de IA do mundo real em sistemas heterogêneos –– desde inferência privada descentralizada até pipelines de armazenamento/acesso para dados criptografados e ambientes de execução totalmente soberanos.
A pilha de inteligência da Apple e a GPU H100 da Nvidia
Um dos casos de uso de IA a curto prazo mais próximos é aproveitá-los para transacionar autonomamente onchain em nosso nome. Há, admitidamente, muita linguagem confusa nos últimos 12-16 meses sobre o que exatamente dita uma intenção, uma ação agente, uma intenção agente, solucionador, solucionador agente, etc., e como eles se diferenciam do desenvolvimento mais convencional de 'bot' dos últimos anos.
Nos próximos 12 meses, estamos entusiasmados em ver sistemas de linguagem cada vez mais sofisticados emparelhados com diferentes tipos de dados e arquiteturas de redes neurais para avançar no espaço geral de design. Os agentes farão transações usando os mesmos sistemas onchain que usamos hoje ou desenvolverão suas próprias ferramentas/métodos para transacionar onchain? Os LLMs continuarão a ser o backend desses sistemas de transação agentic ou de outro sistema inteiramente? Na camada de interface, os usuários começarão a transacionar usando linguagem natural? Será que a clássica tese das "carteiras como navegadores" vai finalmente concretizar-se?