a16z Fundador: No tempo do Agente, as coisas verdadeiramente importantes mudaram

Autor: a16z

Tradução: FuturePulse

Fonte do sinal: Esta é a última entrevista do fundador da a16z, Marc Andreessen, no podcast Latent Space. Ele é um renomado empreendedor de internet dos EUA, uma das figuras-chave no desenvolvimento inicial da internet; também, após fundar a16z, tornou-se uma das principais figuras de investimento no Vale do Silício. Toda a conversa gira em torno da história do desenvolvimento da IA e das tendências mais recentes, altamente recomendada.

  1. Esta rodada de IA não surgiu do nada, mas é a primeira fase de uma longa corrida tecnológica de 80 anos que finalmente “começou a trabalhar”

Esta rodada de IA não surgiu do nada, mas é a primeira fase de uma longa corrida tecnológica de 80 anos que finalmente

Marc Andreessen descreve o momento atual como uma “sucesso repentino de 80 anos”, significando que o que parece uma explosão repentina para o público na verdade é o resultado de décadas de reserva tecnológica sendo liberada de uma só vez.

Ele remonta essa linha de desenvolvimento até as primeiras pesquisas em redes neurais e enfatiza que a indústria hoje já aceita a avaliação de que “redes neurais são a arquitetura correta”.

Na narrativa dele, os pontos-chave não são um momento único, mas uma sequência de marcos: AlexNet, Transformer, ChatGPT, modelos de raciocínio, até agentes e autoaperfeiçoamento.

Ele destaca especialmente que desta vez não é apenas o fortalecimento da geração de texto, mas a aparição simultânea de quatro categorias de funcionalidades: LLMs, raciocínio, codificação, além de agentes / autoaperfeiçoamento recursivo.

A razão pela qual ele acredita que “desta vez é diferente” não é porque a narrativa seja mais convincente, mas porque essas capacidades já começaram a atuar em tarefas reais.

  1. A arquitetura de agentes representada por Pi e OpenClaw é uma mudança de software mais profunda do que chatbots

Ele explica o conceito de agentes de forma bastante concreta: essencialmente “LLM + shell + sistema de arquivos + markdown + cron/loop”. Nesse esquema, o LLM é o núcleo de raciocínio e geração, o shell fornece o ambiente de execução, o sistema de arquivos armazena o estado, o markdown torna o estado legível, e o cron/loop fornece despertadores periódicos e avanço de tarefas.

Ele acredita que a importância dessa combinação está no fato de que, além do modelo em si ser novo, os outros componentes já são maduros, compreendidos e reutilizáveis no mundo do software há bastante tempo.

O estado do agente é salvo em arquivos, permitindo migração entre modelos e ambientes de execução; o modelo subjacente pode ser substituído, mas a memória e o estado permanecem.

Ele reforça repetidamente a introspecção: o agente sabe seus próprios arquivos, consegue ler seu próprio estado e até reescrever seus arquivos e funções, avançando na direção de “autoextensão”.

Para ele, a verdadeira inovação não é apenas “o modelo responde”, mas o agente usar toda a cadeia de ferramentas Unix para aproveitar ao máximo o potencial do computador.

  1. A era dos navegadores, GUIs tradicionais e “software de clique manual” será substituída gradualmente por uma interação baseada em agentes

Marc Andreessen afirmou claramente que, no futuro, “você talvez não precise mais de interface de usuário”.

Ele aponta ainda que, no futuro, os principais usuários de software podem não ser humanos, mas “outros bots”.

Isso significa que muitas interfaces projetadas hoje para cliques, navegação e preenchimento de formulários podem se tornar camadas de execução chamadas pelos agentes por trás.

Nesse mundo, as pessoas serão mais como quem define objetivos: informam ao sistema o que querem, e o agente chama os serviços, opera softwares e conclui os processos.

Ele conecta essa mudança a um futuro maior do software: softwares de alta qualidade se tornarão cada vez mais “abundantes”, deixando de ser produtos escassos feitos manualmente por poucos engenheiros.

Ele também prevê que a importância das linguagens de programação diminuirá; os modelos escreverão código entre linguagens, traduzirão entre elas, e, no futuro, as pessoas se preocuparão mais em entender por que a IA organiza o código de determinada forma do que em dominar uma linguagem específica.

Ele até menciona uma direção mais radical: conceitualmente, a IA pode não apenas gerar código, mas também produzir código binário de baixo nível ou pesos de modelos diretamente.

  1. Este ciclo de investimento em IA é semelhante à bolha da internet de 2000, mas a estrutura de oferta e demanda subjacente é diferente

Ele revisita 2000 e destaca que a crise não foi tanto por “a internet não funcionar”, mas por uma superconstrução de infraestrutura de telecomunicações e banda larga, com fibras ópticas e data centers sendo instalados de forma prematura, seguidos de um longo período de digestão.

Hoje, ele acredita que também há preocupações com “superconstrução”, mas os principais investidores são grandes empresas com caixa abundante, como Microsoft, Amazon e Google, ao contrário de players altamente alavancados e frágeis.

Ele destaca que, atualmente, basta um investimento que permita rodar GPUs para que rapidamente gere receita, diferente de 2000, quando havia muita capacidade ociosa.

Ele reforça que estamos usando uma versão “sandbagged” (subestimada) da tecnologia: devido à oferta limitada de GPUs, memória, centros de dados, o potencial dos modelos ainda não foi totalmente liberado.

Na opinião dele, nos próximos anos, as verdadeiras restrições não serão apenas GPU, mas também CPU, memória, rede e o ecossistema de chips como um todo.

Ele compara as leis de escalonamento da IA às leis de Moore, acreditando que elas não apenas descrevem padrões, mas continuam a impulsionar a sinergia entre capital, engenharia e indústria.

Ele menciona um fenômeno contraintuitivo, mas importante: com a velocidade de otimização de software cada vez maior, algumas gerações antigas de chips podem até se tornar mais valiosas economicamente do que quando foram adquiridas.

  1. Open source, inferência na borda e execução local não são detalhes secundários, mas parte fundamental da competição em IA

Marc Andreessen enfatiza que o open source é extremamente importante, não apenas por ser gratuito, mas por “ensinar o mundo a fazer como se faz”.

Ele descreve o lançamento de projetos open source como DeepSeek como um “presente ao mundo”, pois código + artigos disseminam rapidamente o conhecimento, elevando o padrão de toda a indústria.

Na narrativa dele, open source não é só uma escolha técnica, mas também uma estratégia geopolítica e de mercado: diferentes países e empresas adotam estratégias de abertura distintas, baseadas em suas restrições comerciais e objetivos de influência.

Ele reforça a importância da inferência na borda (“Edge inference”): nos próximos anos, o custo de inferência centralizada pode não ser suficiente para muitas aplicações de consumo, que não podem arcar com custos elevados de inferência na nuvem por longos períodos.

Ele cita um padrão recorrente: modelos que hoje parecem impossíveis de rodar em PCs muitas vezes conseguem ser executados localmente alguns meses depois.

Além do custo, fatores como confiança, privacidade, latência e cenários de uso impulsionam a preferência por execução local: dispositivos vestíveis, fechaduras inteligentes, dispositivos pessoais, todos se beneficiam de inferência de baixa latência e local.

Sua conclusão é direta: quase tudo que tem um chip no futuro provavelmente terá um modelo de IA embutido.

  1. Os verdadeiros desafios da IA não estão apenas na capacidade do modelo, mas na segurança, identidade, fluxo financeiro, organização e resistência institucional

Na questão da segurança, sua avaliação é bastante contundente: quase todas as vulnerabilidades de segurança serão mais fáceis de detectar, podendo ocorrer, a curto prazo, grandes desastres de segurança cibernética.

Por outro lado, ele acredita que agentes inteligentes de programação irão escalar a capacidade de corrigir vulnerabilidades; no futuro, “proteger o software” pode significar deixar bots escanearem e consertarem automaticamente.

Quanto à identidade, ele acha que “prova de bot” não é viável, pois os bots ficarão cada vez mais fortes; a solução mais realista é “prova de humano”, combinando reconhecimento biométrico, criptografia e divulgação seletiva.

Ele também aborda uma questão frequentemente negligenciada: se os agentes realmente operarem no mundo real, precisarão de dinheiro, capacidade de pagamento, e até de uma infraestrutura básica de contas bancárias, cartões ou stablecoins. No nível organizacional, usa o conceito de capitalismo gerencial, sugerindo que a IA pode reforçar empresas lideradas por fundadores, pois bots são bons em relatórios, coordenação, tarefas administrativas e gestão.

Porém, ele não acredita que a sociedade aceitará a IA de forma rápida e tranquila: cita exemplos de licenças profissionais, sindicatos, greves de estivadores, órgãos governamentais, educação K-12, saúde, mostrando que há muitos obstáculos institucionais.

Sua conclusão é que, tanto os utópicos quanto os apocalípticos da IA, tendem a ignorar um ponto importante: quando a tecnologia se torna possível, isso não significa que 8 bilhões de pessoas irão imediatamente mudar junto.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar