Según el seguimiento de 1M AI News, la plataforma de agentes de IA de código abierto OpenClaw ha publicado la versión 2026.4.2. Esta versión incluye 2 cambios importantes, aproximadamente 15 mejoras de funciones y más de 30 correcciones.
Los dos cambios importantes continúan la externalización de la arquitectura de complementos iniciada el 2026.3.31: la configuración x_search de xAI y la configuración web_fetch de Firecrawl se han trasladado desde la ruta principal a la propia ruta de complementos; la configuración antigua puede migrarse automáticamente mediante openclaw doctor --fix.
El tema único más denso de esta versión es la centralización de la seguridad de los enlaces HTTP de los proveedores, y el colaborador vincentkoc envió 8 correcciones relacionadas. Antes, la autorización de solicitudes, la configuración de proxy, las políticas TLS y el manejo de encabezados en rutas compartidas de HTTP, transmisión en flujo y WebSocket se distribuían en los códigos de adaptación de cada proveedor; ahora se ha unificado y convergido: la centralización de las estrategias nativas/mediante proxy de solicitudes para los endpoints compatibles con GitHub Copilot, Anthropic y OpenAI evita que un endpoint falsificado o un proxy hereden los valores predeterminados nativos; las solicitudes de medios como audio e imágenes se enrutan a través de una ruta HTTP compartida; los endpoints de generación de imágenes ya no infieren permisos de acceso a redes privadas desde el base URL configurado; la comparación de claves webhook entre canales unifica el uso de una función de comparación segura en tiempo. Para usuarios que se autoalojan o integran múltiples proveedores de terceros, estos cambios cierran una serie de vulnerabilidades de falsificación de solicitudes y herencia de políticas.
En cuanto a nuevas funciones, en el lado de Android se agregó la integración con Google Assistant: los usuarios pueden iniciar OpenClaw directamente desde el asistente de voz y enviar el texto de la solicitud a la interfaz de conversación. Los valores predeterminados han cambiado: la ejecución del host del gateway y los nodos ahora usa por defecto security=full y ask=off, es decir, se fuerza la política de seguridad pero sin confirmación emergente en cada ocasión. El sistema de complementos agrega el gancho before_agent_reply, que permite que los complementos acorten todo el flujo usando una respuesta compuesta antes de que el LLM responda. Task Flow continúa perfeccionándose: se agregan la generación de sub-tareas gestionadas y la intención de cancelación “pegajosa”; el orquestador externo puede detener inmediatamente la programación y esperar a que finalicen de forma natural las sub-tareas activas.
Otras correcciones: las etiquetas de pensamiento interno antml:thinking del modelo de Anthropic, que antes se filtraban en el texto visible para el usuario, ahora se filtran en el extremo de salida; las llamadas a la herramienta Kimi Coding perdían parámetros debido a la incompatibilidad de formatos entre Anthropic y OpenAI, y ya se ha hecho una normalización; en MS Teams, cuando se supera el límite de streaming de 4000 caracteres, ya no se vuelve a repetir la salida de contenido que ya se transmitió.