Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Pre-IPOs
Desbloquear acesso completo a IPO de ações globais
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
a16z Fundador: No tempo do Agente, as coisas verdadeiramente importantes mudaram
Autor: a16z
Tradução: FuturePulse
Fonte do sinal: Esta é a última entrevista do fundador da a16z, Marc Andreessen, no podcast Latent Space. Ele é um renomado empreendedor de internet dos EUA, uma das figuras-chave no desenvolvimento inicial da internet; também, após fundar a16z, tornou-se uma das principais figuras de investimento no Vale do Silício. Toda a conversa gira em torno da história do desenvolvimento da IA e das tendências mais recentes, altamente recomendada.
Esta rodada de IA não surgiu do nada, mas é a primeira fase de uma longa corrida tecnológica de 80 anos que finalmente
Marc Andreessen descreve o momento atual como uma “sucesso repentino de 80 anos”, significando que o que parece uma explosão repentina para o público na verdade é o resultado de décadas de reserva tecnológica sendo liberada de uma só vez.
Ele remonta essa linha de desenvolvimento até as primeiras pesquisas em redes neurais e enfatiza que a indústria hoje já aceita a avaliação de que “redes neurais são a arquitetura correta”.
Na narrativa dele, os pontos-chave não são um momento único, mas uma sequência de marcos: AlexNet, Transformer, ChatGPT, modelos de raciocínio, até agentes e autoaperfeiçoamento.
Ele destaca especialmente que desta vez não é apenas o fortalecimento da geração de texto, mas a aparição simultânea de quatro categorias de funcionalidades: LLMs, raciocínio, codificação, além de agentes / autoaperfeiçoamento recursivo.
A razão pela qual ele acredita que “desta vez é diferente” não é porque a narrativa seja mais convincente, mas porque essas capacidades já começaram a atuar em tarefas reais.
Ele explica o conceito de agentes de forma bastante concreta: essencialmente “LLM + shell + sistema de arquivos + markdown + cron/loop”. Nesse esquema, o LLM é o núcleo de raciocínio e geração, o shell fornece o ambiente de execução, o sistema de arquivos armazena o estado, o markdown torna o estado legível, e o cron/loop fornece despertadores periódicos e avanço de tarefas.
Ele acredita que a importância dessa combinação está no fato de que, além do modelo em si ser novo, os outros componentes já são maduros, compreendidos e reutilizáveis no mundo do software há bastante tempo.
O estado do agente é salvo em arquivos, permitindo migração entre modelos e ambientes de execução; o modelo subjacente pode ser substituído, mas a memória e o estado permanecem.
Ele reforça repetidamente a introspecção: o agente sabe seus próprios arquivos, consegue ler seu próprio estado e até reescrever seus arquivos e funções, avançando na direção de “autoextensão”.
Para ele, a verdadeira inovação não é apenas “o modelo responde”, mas o agente usar toda a cadeia de ferramentas Unix para aproveitar ao máximo o potencial do computador.
Marc Andreessen afirmou claramente que, no futuro, “você talvez não precise mais de interface de usuário”.
Ele aponta ainda que, no futuro, os principais usuários de software podem não ser humanos, mas “outros bots”.
Isso significa que muitas interfaces projetadas hoje para cliques, navegação e preenchimento de formulários podem se tornar camadas de execução chamadas pelos agentes por trás.
Nesse mundo, as pessoas serão mais como quem define objetivos: informam ao sistema o que querem, e o agente chama os serviços, opera softwares e conclui os processos.
Ele conecta essa mudança a um futuro maior do software: softwares de alta qualidade se tornarão cada vez mais “abundantes”, deixando de ser produtos escassos feitos manualmente por poucos engenheiros.
Ele também prevê que a importância das linguagens de programação diminuirá; os modelos escreverão código entre linguagens, traduzirão entre elas, e, no futuro, as pessoas se preocuparão mais em entender por que a IA organiza o código de determinada forma do que em dominar uma linguagem específica.
Ele até menciona uma direção mais radical: conceitualmente, a IA pode não apenas gerar código, mas também produzir código binário de baixo nível ou pesos de modelos diretamente.
Ele revisita 2000 e destaca que a crise não foi tanto por “a internet não funcionar”, mas por uma superconstrução de infraestrutura de telecomunicações e banda larga, com fibras ópticas e data centers sendo instalados de forma prematura, seguidos de um longo período de digestão.
Hoje, ele acredita que também há preocupações com “superconstrução”, mas os principais investidores são grandes empresas com caixa abundante, como Microsoft, Amazon e Google, ao contrário de players altamente alavancados e frágeis.
Ele destaca que, atualmente, basta um investimento que permita rodar GPUs para que rapidamente gere receita, diferente de 2000, quando havia muita capacidade ociosa.
Ele reforça que estamos usando uma versão “sandbagged” (subestimada) da tecnologia: devido à oferta limitada de GPUs, memória, centros de dados, o potencial dos modelos ainda não foi totalmente liberado.
Na opinião dele, nos próximos anos, as verdadeiras restrições não serão apenas GPU, mas também CPU, memória, rede e o ecossistema de chips como um todo.
Ele compara as leis de escalonamento da IA às leis de Moore, acreditando que elas não apenas descrevem padrões, mas continuam a impulsionar a sinergia entre capital, engenharia e indústria.
Ele menciona um fenômeno contraintuitivo, mas importante: com a velocidade de otimização de software cada vez maior, algumas gerações antigas de chips podem até se tornar mais valiosas economicamente do que quando foram adquiridas.
Marc Andreessen enfatiza que o open source é extremamente importante, não apenas por ser gratuito, mas por “ensinar o mundo a fazer como se faz”.
Ele descreve o lançamento de projetos open source como DeepSeek como um “presente ao mundo”, pois código + artigos disseminam rapidamente o conhecimento, elevando o padrão de toda a indústria.
Na narrativa dele, open source não é só uma escolha técnica, mas também uma estratégia geopolítica e de mercado: diferentes países e empresas adotam estratégias de abertura distintas, baseadas em suas restrições comerciais e objetivos de influência.
Ele reforça a importância da inferência na borda (“Edge inference”): nos próximos anos, o custo de inferência centralizada pode não ser suficiente para muitas aplicações de consumo, que não podem arcar com custos elevados de inferência na nuvem por longos períodos.
Ele cita um padrão recorrente: modelos que hoje parecem impossíveis de rodar em PCs muitas vezes conseguem ser executados localmente alguns meses depois.
Além do custo, fatores como confiança, privacidade, latência e cenários de uso impulsionam a preferência por execução local: dispositivos vestíveis, fechaduras inteligentes, dispositivos pessoais, todos se beneficiam de inferência de baixa latência e local.
Sua conclusão é direta: quase tudo que tem um chip no futuro provavelmente terá um modelo de IA embutido.
Na questão da segurança, sua avaliação é bastante contundente: quase todas as vulnerabilidades de segurança serão mais fáceis de detectar, podendo ocorrer, a curto prazo, grandes desastres de segurança cibernética.
Por outro lado, ele acredita que agentes inteligentes de programação irão escalar a capacidade de corrigir vulnerabilidades; no futuro, “proteger o software” pode significar deixar bots escanearem e consertarem automaticamente.
Quanto à identidade, ele acha que “prova de bot” não é viável, pois os bots ficarão cada vez mais fortes; a solução mais realista é “prova de humano”, combinando reconhecimento biométrico, criptografia e divulgação seletiva.
Ele também aborda uma questão frequentemente negligenciada: se os agentes realmente operarem no mundo real, precisarão de dinheiro, capacidade de pagamento, e até de uma infraestrutura básica de contas bancárias, cartões ou stablecoins. No nível organizacional, usa o conceito de capitalismo gerencial, sugerindo que a IA pode reforçar empresas lideradas por fundadores, pois bots são bons em relatórios, coordenação, tarefas administrativas e gestão.
Porém, ele não acredita que a sociedade aceitará a IA de forma rápida e tranquila: cita exemplos de licenças profissionais, sindicatos, greves de estivadores, órgãos governamentais, educação K-12, saúde, mostrando que há muitos obstáculos institucionais.
Sua conclusão é que, tanto os utópicos quanto os apocalípticos da IA, tendem a ignorar um ponto importante: quando a tecnologia se torna possível, isso não significa que 8 bilhões de pessoas irão imediatamente mudar junto.