De acordo com o anúncio do blogue oficial da Google DeepMind, a Google lançou em 21 de abril de 2026 os novos agentes de investigação autónoma da próxima geração, o Deep Research e o Deep Research Max, construídos sobre o Gemini 3.1 Pro, como versão oficial após a versão preview disponibilizada em dezembro de 2025 através da Interactions API. As duas variantes estão agora disponíveis ao público em forma de public preview nos planos pagos da Gemini API, e a Google Cloud deverá integrar progressivamente clientes de empresas e startups.
As duas variantes têm objetivos diferentes: interativo vs. profundidade assíncrona
A Google divide os dois agentes por cenários de utilização: o Deep Research enfatiza a velocidade e baixa latência, sendo indicado para interfaces de utilização interativas; o Deep Research Max, por sua vez, troca a computação prolongada na fase de teste (test-time compute) por uma cobertura mais abrangente, sendo indicado para fluxos de trabalho assíncronos, com o agente a poder executar tarefas longas de forma independente.
No benchmarking de recuperação e raciocínio, o Deep Research Max apresenta “melhorias significativas” face à versão de dezembro de 2025, ao consultar mais fontes de informação e ao conseguir identificar detalhes anteriormente ignorados.
Suporte a MCP: a Google integra pela primeira vez um padrão aberto do ecossistema da Claude
Ambos os agentes suportam o Model Context Protocol (MCP), permitindo aos utilizadores ligar fontes de dados privadas através do MCP. O MCP é um padrão aberto lançado pela Anthropic no final de 2024 e que se difundiu rapidamente no primeiro semestre de 2026; até março de 2026, o número acumulado de instalações já ultrapassou 97 milhões. A Google adota formalmente o MCP nos seus agentes Gemini, o que simboliza que a indústria dos agentes de IA começa a convergir para um protocolo comum de ligação de ferramentas.
Lista de novas funcionalidades: investigação multimodal, gráficos nativos, modo de dados interno
As principais capacidades da série Deep Research incluem: investigação multimodal (suporta PDFs, CSV, imagens, áudio e vídeo como materiais de investigação), gráficos e infografias nativos gerados (formatos HTML e Nano Banana), e planeamento colaborativo com o utilizador (pontos de revisão humana fornecidos antes da execução), raciocínio intermédio durante streaming em tempo real, e a opção de desativar o acesso à rede, para que o agente faça investigação apenas com dados internos da empresa.
Esta opção de “desativar a rede” tem um significado claro para cenários de segurança e conformidade em contexto empresarial: setores como jurídico, saúde e financeiro podem evitar que o agente faça pesquisa cruzada entre dados internos sensíveis e a rede pública, reduzindo riscos de fuga de dados e de não conformidade.
Cenário competitivo: três empresas de topo trocam argumentos na mesma semana
O Deep Research Max da Google e uma grande atualização do Codex da OpenAI “for (almost) everything” na mesma semana (computer use, memória, mais de 90 plugins), além do Live Artifacts lançado pela Anthropic no Cowork, criaram uma frente de confronto positiva. As três empresas líderes publicaram produtos claros na mesma semana para “investigação autónoma / agentes de produção a nível empresarial”, refletindo que os agentes de IA já evoluíram de uma abordagem experimental para uma disputa de posicionamento comercial.
O product manager do Deep Research Max, Lukas Haas, e o Program Manager Srinivas Tadepalli, indicaram no anúncio oficial que o lançamento destes dois agentes marca uma viragem na indústria dos agentes de investigação em IA: “do simples resumo da Web, para a integração dos dados internos da empresa, a visualização nativa e o refinamento iterativo”.
Esta notícia sobre a Google que promove o Deep Research Max: suporta MCP e permite ligar dados privados da empresa, aparece pela primeira vez em 鏈新聞 ABMedia.
Related Articles
A Google Research lança o ReasoningBank: agentes de IA aprendem estratégias de raciocínio com sucesso e falha
Professor da Tsinghua Dai Jifeng Lança Naive.ai, Angaria ~$300M a $800M Valuation
AWS Expands Multi-Agent AI Workflows, Supports Claude Opus 4.7 on Bedrock
0G Labs faz parceria com a Alibaba Cloud para permitir acesso de agentes de IA na cadeia ao modelo Qwen
0G integra o Alibaba Cloud Qianwen LLM, o primeiro agente de IA na cadeia a obter acesso a um modelo de grande escala para uso comercial
A ProCap Financial e a Kalshi Lançam um Produto de Investigação para Mercados de Previsão