Según el anuncio del blog oficial de Google DeepMind, Google presentó el 21 de abril de 2026 a su nueva generación de agentes de investigación autónoma, Deep Research y Deep Research Max, construidos sobre Gemini 3.1 Pro, como versión oficial posterior a la versión previa (preview) ofrecida en diciembre de 2025 a través de la Interactions API. Ambas variantes ya están disponibles en forma de public preview dentro de los planes de pago de la Gemini API, y los usuarios nuevos de Google Cloud y las empresas irán incorporándolos gradualmente.
Ambas variantes tienen un enfoque diferente: interactivo vs. profundidad asíncrona
Google divide ambos agentes según el contexto de uso: Deep Research enfatiza la velocidad y la baja latencia, y se adapta a interfaces de usuario de uso interactivo; Deep Research Max, en cambio, utiliza cómputo durante la fase de prueba (test-time compute) por más tiempo para ofrecer una cobertura más completa, y se adapta a flujos de trabajo asíncronos, donde el agente puede ejecutar tareas largas de manera independiente.
En benchmarks de recuperación y razonamiento, Deep Research Max presenta en comparación con la versión de diciembre de 2025 una mejora «significativa», ya que consulta más fuentes de información y puede identificar detalles que antes se habían pasado por alto.
Compatibilidad con MCP: Google integra por primera vez el estándar abierto del ecosistema de Claude
Ambos agentes admiten Model Context Protocol (MCP). Los usuarios pueden conectar sus propias fuentes de datos exclusivas mediante MCP. MCP es un estándar abierto que Anthropic lanzó a finales de 2024 y que se expandió rápidamente durante la primera mitad de 2026; a marzo de 2026, el número de instalaciones acumuladas ya superó los 97,00 millones de veces. Google adopta formalmente MCP dentro de agentes de Gemini, lo que simboliza que la industria de agentes de IA comienza a converger hacia un protocolo común de conexión de herramientas.
Lista de nuevas funciones: investigación multimodal, gráficos nativos, modo de datos interno
Las capacidades clave de la serie Deep Research incluyen: investigación multimodal (que admite PDF, CSV, imágenes, audio y video como materiales de investigación), generación nativa de gráficos e infografías (formatos HTML y Nano Banana), y planificación colaborativa con el usuario (puntos de revisión manual antes de la ejecución), razonamiento intermedio durante el streaming en tiempo real, y la posibilidad de desactivar el acceso a la red para que el agente realice la investigación solo con datos internos de la empresa.
La opción de «cerrar la red» tiene un significado claro para ciberseguridad empresarial y escenarios de cumplimiento: industrias como legal, salud y finanzas pueden evitar que el agente realice búsquedas cruzadas entre datos internos sensibles y la red pública, reduciendo el riesgo de filtración de datos y de incumplimiento normativo.
Panorama competitivo: tres grandes empresas de agentes de investigación chocan en la misma semana
Deep Research Max de Google y la gran actualización de Codex de OpenAI «for (almost) everything» (computer use, memoria, más de 90 plugins) en la misma semana, así como el enfrentamiento positivo con Live Artifacts, lanzado por Anthropic en Cowork. Las tres empresas líderes publicaron productos claros en la misma semana de «investigación autónoma/producción a nivel empresarial», lo que refleja que los agentes de IA ya han pasado de una fase experimental a una batalla por posicionamiento comercial.
El product manager de Deep Research Max, Lukas Haas, y el program manager Srinivas Tadepalli, señalaron en el anuncio oficial que el lanzamiento de estos dos agentes marca una inflexión en la industria de agentes de investigación de IA: «de meros resúmenes de la web, hacia la integración de datos internos de la empresa, visualización nativa e iteraciones de refinamiento».
Este artículo, Google impulsa Deep Research Max: admite MCP y permite conectar datos privados de la empresa, apareció por primera vez en 鏈新聞 ABMedia.
Artículos relacionados
Google Research publica ReasoningBank: los agentes de IA aprenden estrategias de razonamiento del éxito y del fracaso
El profesor de Tsinghua Dai Jifeng lanza Naive.ai y recauda ~$300M con una valoración de $800M
AWS Amplía los Flujos de Trabajo de IA de Múltiples Agentes y Admite Claude Opus 4.7 en Bedrock
0G Labs se asocia con Alibaba Cloud para habilitar acceso a agentes de IA en cadena al modelo Qwen
0G integra Alibaba Cloud Qianwen LLM y el primer agente de IA en la cadena de bloques obtiene acceso a un modelo empresarial
ProCap Financial y Kalshi lanzan un producto de investigación de mercados de predicción