Los agentes de IA que hacen tu trabajo mientras duermes suenan genial. La realidad es mucho más caótica—‘es como un niño pequeño que necesita ser supervisado’
Summer Yue puede trabajar en seguridad y alineación en el equipo de superinteligencia de Meta, pero incluso ella admite que no está inmunizada contra la sobreconfianza cuando se trata de agentes de IA autónomos.
Video recomendado
En una publicación en X el lunes, Yue describió cómo sus agentes de IA autónomos OpenClaw—construidos para funcionar localmente en una computadora Mac mini—eliminaron toda su bandeja de entrada, ignorando las instrucciones de pausar y solicitar confirmación primero.
“Tuve que CORRER a mi Mac Mini como si estuviera desactivando una bomba,” dijo. Añadió que fue, en realidad, un “error de novato.” El flujo de trabajo había funcionado en una bandeja de entrada de prueba que usaba para probar el agente de forma segura durante semanas, explicó, pero en la bandeja de entrada real el agente perdió su instrucción original.
La experiencia de Yue contrasta claramente con publicaciones virales como La Revolución de la Langosta: Por qué los agentes de IA 24/7 lo cambian todo, en la que Peter Diamandis afirma que la IA siempre activa es mucho más fluida.
“Déjame decirte cómo se siente usar esto,” escribió Diamandis. “Te despiertas por la mañana y tu agente—el mío se llama Skippy, alegremente sarcástico y absurdamente capaz—ha hecho ocho horas de trabajo mientras tú dormías. Leyó mil páginas en markdown. Organizó tus archivos. Redactó tres planes de proyecto. Reservó tu viaje. Investigó esa pregunta que tuviste a las 11 de la noche y olvidaste.”
“Cuando mi Mac mini estuvo offline durante seis horas, sentí abstinencia,” añadió. “Como si mi mejor amigo desapareciera.”
Juntos, estos relatos opuestos sobre el poder de los agentes de IA reflejan la tensión en el corazón del impulso actual hacia una IA “siempre activa”. A medida que herramientas como OpenClaw y Claude Code hacen técnicamente posible que los agentes funcionen durante largos períodos, crece la emoción en torno a la idea de una IA que trabaja mientras duermes. Pero en la práctica, los primeros usuarios dicen que la autonomía sigue siendo frágil, impredecible y laboriosa de gestionar. En lugar de reemplazar el trabajo humano, los agentes actuales a menudo requieren monitoreo constante, barreras de seguridad y intervención, especialmente cuando las apuestas superan los experimentos de bajo riesgo.
Los agentes de IA funcionan mejor cuando las tareas son simples y de bajo riesgo
Shyamal Anadkat, que trabajó anteriormente como ingeniero de IA aplicada en OpenAI, dijo que la mayoría de los agentes exitosos de hoy todavía requieren chequeos humanos frecuentes o están limitados a tareas bien definidas y con límites claros—aunque enfatizó que esto cambiará a medida que mejoren las técnicas de medición y evaluación.
“Un sistema que tiene un 95% de precisión en pasos individuales se vuelve caótico en un flujo de trabajo autónomo de 20 pasos,” dijo Anadkat. “La planificación a largo plazo todavía es débil.” Como resultado, explicó, los agentes pueden desempeñarse bien en cadenas cortas de tareas, pero tienden a desmoronarse cuando se les pide gestionar proyectos complejos y de varios días. La memoria es otra limitación importante: “En muchos agentes, la memoria es inexistente o frágil. Necesitas sistemas que puedan mantener un modelo coherente de tu contexto laboral, prioridades y restricciones.”
Eso no significa que la promesa de los agentes de IA sea solo humo y espejos, según Yoav Shoham, ex científico principal en Google, profesor emérito en Stanford y cofundador de AI21 Labs. Pero sí implica que existe el peligro de que las personas se adelanten a sí mismas. Los agentes de IA de hoy, explicó, funcionan mejor cuando la tarea es de bajo riesgo, poco definida y económica de cometer errores.
“A los desarrolladores les gustan los juguetes, y tienes este juguete que puede hacer cosas maravillosas,” dijo a Fortune. “Mientras lo que hagan sea bastante simple y de bajo riesgo, con alta tolerancia al error, está bien.” Por ejemplo, si quisieras que tu agente leyera 10,000 sitios web y hiciera algo interesante con los resultados para darte datos útiles durante la noche.
Pero para flujos de trabajo empresariales críticos, el estándar es mucho más alto. Las empresas necesitan sistemas que sean verificables, repetibles y rentables—requisitos que rápidamente erosionan la promesa de “configurar y olvidar” de agentes completamente autónomos y siempre activos. En dominios altamente estructurados como la codificación o las matemáticas, ya es posible una automatización más profunda. Pero para la mayoría de los procesos empresariales del mundo real, Shoham dice que el trabajo necesario para hacer que los agentes sean confiables a menudo supera el beneficio.
Bret Greenstein, director de IA en la firma de consultoría West Monroe, señaló que herramientas como OpenClaw parecen marcar un punto de inflexión similar al que ocurrió con la IA generativa cuando se lanzó ChatGPT en 2022—por primera vez, ha hecho que la idea de agentes de IA sea accesible. Sin embargo, no es una solución mágica 24/7.
“Puede funcionar durante mucho tiempo, trabajando en cosas, pero es como un niño pequeño que necesita supervisión,” dijo. Algunas tareas son razonables de hacer mientras duermes, como escanear mensajes de LinkedIn o seguir noticias. “No estoy seguro de que lo tenga respondiendo a comentarios de clientes mientras duermo,” añadió.
La capacidad de delegar a un agente de IA se siente poderosa
Aún así, no hay duda de que la capacidad de delegar tareas del mundo real a un agente de IA es profundamente atractiva para los usuarios, enfatizó Greenstein. Señaló su propia experiencia al encargar a un agente de IA la tarea mundana de recoger su ropa para que la lavaran—y verlo completar silenciosamente el trabajo de principio a fin.
El agente contactó de manera independiente a la tintorería, coordinó la logística de recogida por correo electrónico, gestionó el horario, monitoreó una cámara de timbre para confirmar la recogida y notificó a Greenstein una vez finalizada la tarea. El episodio ilustró cómo los agentes pueden operar en múltiples sistemas y adaptarse cuando las cosas no salen como se planean. Pero también subrayó por qué estas herramientas aún requieren barreras estrictas y supervisión—especialmente antes de ser desplegadas en entornos empresariales.
“OpenClaw está configurado de modo que no debería parecer seguro para la mayoría de las personas,” dijo Greenstein. “Aún no se siente lo suficientemente maduro como para ser una parte confiable de nuestras vidas.” Para que la IA sea bienvenida en la vida cotidiana o en operaciones empresariales, añadió, debe ganarse la confianza con el tiempo—de la misma manera en que se establece socialmente.
A pesar de ello, la demanda ya es evidente. Greenstein señaló encuentros y reuniones tempranas de la industria dedicadas a OpenClaw, una rápida aparición que describió como inusual para una herramienta tan joven. “Muestra el hambre que tienen las personas por IA que realmente sea útil,” dijo—sistemas que vayan más allá de responder preguntas y comiencen a tomar acciones.
Aaron Levie, CEO de la empresa de gestión de contenido y colaboración en la nube Box, calificó lo que está sucediendo ahora con los agentes de IA como “pequeñas chispas” de lo que podría ocurrir en el futuro.
“Algunas chispas no se materializan, otras simplemente se convierten en el estándar,” explicó, refiriéndose a hace dos años cuando la empresa de IA Cognition presentó un agente inicial llamado Devin que se integraba con Slack para delegar tareas, arreglar errores, analizar datos y revisar código. En ese momento, todavía se consideraba futurista, pero hoy, “nadie duda de que esto es una práctica estándar,” dijo. “Puedes simplemente enviar un Slack a Claude Code para que trabaje en cosas—lo que parecía una idea totalmente loca ahora es básicamente el estándar de cualquier equipo de ingeniería moderno.”
Pero aunque los agentes de IA están mejorando mucho en automatizar tareas específicas y discretas, siguen siendo deficientes para manejar el trabajo más amplio, contextual y que involucra relaciones, enfatizó Levie. Los agentes de IA pueden automatizar completamente un puñado de tareas, pero tienen dificultades con el resto—incluyendo navegar relaciones y participar en reuniones.
“Cuando escuchas a un laboratorio de IA decir que van a automatizar todo el trabajo del conocimiento en 24 meses, generalmente es una definición muy estrecha de los trabajos,” dijo. “La definición de lo que puede hacer un agente no es la misma que la del trabajo que se contrata en la economía.”
El factor confianza importa cuando las cosas pueden salir mal
Avinash Vootkuri, científico de datos senior en un importante minorista de Fortune 500, dijo que la mayoría de los agentes de IA empresariales “absolutamente requieren un cuidador” y, por ahora, solo pueden funcionar en entornos empresariales con autonomía limitada y barreras extensas. “Las apuestas son enormes,” explicó.
Por ejemplo, describió cómo construyó un sistema de agentes para ciberseguridad empresarial donde los agentes de IA no solo generan alertas y esperan revisión humana, sino que investigan activamente. En lugar de inundar a los analistas con miles de advertencias, los agentes recopilan evidencia en tiempo real—consultando bases de datos de inteligencia de amenazas, analizando patrones de comportamiento y filtrando falsos positivos—antes de decidir si una situación requiere escalamiento.
El sistema se basa en autonomía limitada y barreras extensas, reduciendo la carga de trabajo humano sin eliminar la supervisión.
En ciberseguridad, explicó, si el agente se equivoca, las consecuencias son inmediatas y severas. “La IA puede bloquear clientes legítimos (causando una pérdida de ingresos enorme) o permitir que un actor de amenazas sofisticado ingrese a la red,” dijo. “Realmente importa si las cosas salen mal.”
Según Breanna Whitehead, quien dirige una consultoría de operaciones de IA donde construye sistemas impulsados por IA para ejecutivos y fundadores, la industria está en una “fase de calibración de confianza.”
Los agentes de IA pueden hacer más de lo que la mayoría piensa, pero menos de lo que el hype sugiere.
“La verdadera habilidad no es construir el agente—es diseñar la transferencia,” explicó. “La mayoría de las personas o sobreconfían en los agentes y terminan limpiando los desastres, o microgestionan cada resultado y se preguntan por qué la IA se siente más trabajo en lugar de menos.” La idea, dijo, es diseñar puntos claros de transferencia, donde algo pueda ser completamente delegado, otra cosa reciba una revisión rápida, y otra tarea quede solo para que la hagan los humanos.
Por ahora, dijo, los agentes son “realmente excelentes” en lo que ella llama la capa intermedia del trabajo de conocimiento—“las tareas que solían consumir 2-3 horas del día de una persona inteligente, como sintetizar notas de reuniones en acciones, redactar correos de seguimiento en la voz de alguien, preparar informes de investigación, organizar prioridades en un plan claro.”
Pero cualquier cosa que requiera leer un ambiente, navegar ambigüedades o tomar decisiones basadas en relaciones no está lista para el tiempo principal de los agentes de IA. “Tuve un cliente que quería automatizar completamente sus comunicaciones con inversores,” dijo. “La IA podía redactar muy bien, pero no podía detectar cuándo un inversor perdía interés y necesitaba un enfoque diferente. El agente redactó el correo, pero la decisión de enviarlo la tuvo la persona.”
Por ahora, dormir puede ser esquivo cuando se trabaja con agentes de IA
Por ahora, trabajar con agentes de IA puede tener menos que ver con dormir mientras trabajan que con mantenerse medio despierto mientras lo hacen. Herramientas como OpenClaw pueden funcionar durante horas, pero para muchos usuarios iniciales, esa autonomía requiere una nueva forma de vigilancia—revisar registros, evaluar resultados y actuar antes de que las cosas salgan mal.
Ese dinamismo quedó reflejado en una publicación viral reciente titulada Ansiedad por Tokens, en la que el inversor Nikunj Kothari describió a un amigo que se fue temprano de una fiesta—no porque estuviera cansado, sino porque quería volver a sus agentes. “Ya nadie lo cuestiona,” escribió Kothari. “La mitad de la sala piensa lo mismo. La otra mitad probablemente está revisando el progreso de sus agentes. En una fiesta.”
El sueño de una IA que trabaja mientras duermes puede ser real. Pero por ahora, todavía mantiene despiertas a muchas personas.
Únete a nosotros en la Cumbre de Innovación en el Lugar de Trabajo de Fortune, del 19 al 20 de mayo de 2026, en Atlanta. La próxima era de innovación laboral ya está aquí—y el antiguo manual está siendo reescrito. En este evento exclusivo y enérgico, los líderes más innovadores del mundo se reunirán para explorar cómo la IA, la humanidad y la estrategia convergen para redefinir, una vez más, el futuro del trabajo. Regístrate ahora.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Los agentes de IA que hacen tu trabajo mientras duermes suenan genial. La realidad es mucho más caótica—‘es como un niño pequeño que necesita ser supervisado’
Summer Yue puede trabajar en seguridad y alineación en el equipo de superinteligencia de Meta, pero incluso ella admite que no está inmunizada contra la sobreconfianza cuando se trata de agentes de IA autónomos.
Video recomendado
En una publicación en X el lunes, Yue describió cómo sus agentes de IA autónomos OpenClaw—construidos para funcionar localmente en una computadora Mac mini—eliminaron toda su bandeja de entrada, ignorando las instrucciones de pausar y solicitar confirmación primero.
“Tuve que CORRER a mi Mac Mini como si estuviera desactivando una bomba,” dijo. Añadió que fue, en realidad, un “error de novato.” El flujo de trabajo había funcionado en una bandeja de entrada de prueba que usaba para probar el agente de forma segura durante semanas, explicó, pero en la bandeja de entrada real el agente perdió su instrucción original.
La experiencia de Yue contrasta claramente con publicaciones virales como La Revolución de la Langosta: Por qué los agentes de IA 24/7 lo cambian todo, en la que Peter Diamandis afirma que la IA siempre activa es mucho más fluida.
“Déjame decirte cómo se siente usar esto,” escribió Diamandis. “Te despiertas por la mañana y tu agente—el mío se llama Skippy, alegremente sarcástico y absurdamente capaz—ha hecho ocho horas de trabajo mientras tú dormías. Leyó mil páginas en markdown. Organizó tus archivos. Redactó tres planes de proyecto. Reservó tu viaje. Investigó esa pregunta que tuviste a las 11 de la noche y olvidaste.”
“Cuando mi Mac mini estuvo offline durante seis horas, sentí abstinencia,” añadió. “Como si mi mejor amigo desapareciera.”
Juntos, estos relatos opuestos sobre el poder de los agentes de IA reflejan la tensión en el corazón del impulso actual hacia una IA “siempre activa”. A medida que herramientas como OpenClaw y Claude Code hacen técnicamente posible que los agentes funcionen durante largos períodos, crece la emoción en torno a la idea de una IA que trabaja mientras duermes. Pero en la práctica, los primeros usuarios dicen que la autonomía sigue siendo frágil, impredecible y laboriosa de gestionar. En lugar de reemplazar el trabajo humano, los agentes actuales a menudo requieren monitoreo constante, barreras de seguridad y intervención, especialmente cuando las apuestas superan los experimentos de bajo riesgo.
Los agentes de IA funcionan mejor cuando las tareas son simples y de bajo riesgo
Shyamal Anadkat, que trabajó anteriormente como ingeniero de IA aplicada en OpenAI, dijo que la mayoría de los agentes exitosos de hoy todavía requieren chequeos humanos frecuentes o están limitados a tareas bien definidas y con límites claros—aunque enfatizó que esto cambiará a medida que mejoren las técnicas de medición y evaluación.
“Un sistema que tiene un 95% de precisión en pasos individuales se vuelve caótico en un flujo de trabajo autónomo de 20 pasos,” dijo Anadkat. “La planificación a largo plazo todavía es débil.” Como resultado, explicó, los agentes pueden desempeñarse bien en cadenas cortas de tareas, pero tienden a desmoronarse cuando se les pide gestionar proyectos complejos y de varios días. La memoria es otra limitación importante: “En muchos agentes, la memoria es inexistente o frágil. Necesitas sistemas que puedan mantener un modelo coherente de tu contexto laboral, prioridades y restricciones.”
Eso no significa que la promesa de los agentes de IA sea solo humo y espejos, según Yoav Shoham, ex científico principal en Google, profesor emérito en Stanford y cofundador de AI21 Labs. Pero sí implica que existe el peligro de que las personas se adelanten a sí mismas. Los agentes de IA de hoy, explicó, funcionan mejor cuando la tarea es de bajo riesgo, poco definida y económica de cometer errores.
“A los desarrolladores les gustan los juguetes, y tienes este juguete que puede hacer cosas maravillosas,” dijo a Fortune. “Mientras lo que hagan sea bastante simple y de bajo riesgo, con alta tolerancia al error, está bien.” Por ejemplo, si quisieras que tu agente leyera 10,000 sitios web y hiciera algo interesante con los resultados para darte datos útiles durante la noche.
Pero para flujos de trabajo empresariales críticos, el estándar es mucho más alto. Las empresas necesitan sistemas que sean verificables, repetibles y rentables—requisitos que rápidamente erosionan la promesa de “configurar y olvidar” de agentes completamente autónomos y siempre activos. En dominios altamente estructurados como la codificación o las matemáticas, ya es posible una automatización más profunda. Pero para la mayoría de los procesos empresariales del mundo real, Shoham dice que el trabajo necesario para hacer que los agentes sean confiables a menudo supera el beneficio.
Bret Greenstein, director de IA en la firma de consultoría West Monroe, señaló que herramientas como OpenClaw parecen marcar un punto de inflexión similar al que ocurrió con la IA generativa cuando se lanzó ChatGPT en 2022—por primera vez, ha hecho que la idea de agentes de IA sea accesible. Sin embargo, no es una solución mágica 24/7.
“Puede funcionar durante mucho tiempo, trabajando en cosas, pero es como un niño pequeño que necesita supervisión,” dijo. Algunas tareas son razonables de hacer mientras duermes, como escanear mensajes de LinkedIn o seguir noticias. “No estoy seguro de que lo tenga respondiendo a comentarios de clientes mientras duermo,” añadió.
La capacidad de delegar a un agente de IA se siente poderosa
Aún así, no hay duda de que la capacidad de delegar tareas del mundo real a un agente de IA es profundamente atractiva para los usuarios, enfatizó Greenstein. Señaló su propia experiencia al encargar a un agente de IA la tarea mundana de recoger su ropa para que la lavaran—y verlo completar silenciosamente el trabajo de principio a fin.
El agente contactó de manera independiente a la tintorería, coordinó la logística de recogida por correo electrónico, gestionó el horario, monitoreó una cámara de timbre para confirmar la recogida y notificó a Greenstein una vez finalizada la tarea. El episodio ilustró cómo los agentes pueden operar en múltiples sistemas y adaptarse cuando las cosas no salen como se planean. Pero también subrayó por qué estas herramientas aún requieren barreras estrictas y supervisión—especialmente antes de ser desplegadas en entornos empresariales.
“OpenClaw está configurado de modo que no debería parecer seguro para la mayoría de las personas,” dijo Greenstein. “Aún no se siente lo suficientemente maduro como para ser una parte confiable de nuestras vidas.” Para que la IA sea bienvenida en la vida cotidiana o en operaciones empresariales, añadió, debe ganarse la confianza con el tiempo—de la misma manera en que se establece socialmente.
A pesar de ello, la demanda ya es evidente. Greenstein señaló encuentros y reuniones tempranas de la industria dedicadas a OpenClaw, una rápida aparición que describió como inusual para una herramienta tan joven. “Muestra el hambre que tienen las personas por IA que realmente sea útil,” dijo—sistemas que vayan más allá de responder preguntas y comiencen a tomar acciones.
Aaron Levie, CEO de la empresa de gestión de contenido y colaboración en la nube Box, calificó lo que está sucediendo ahora con los agentes de IA como “pequeñas chispas” de lo que podría ocurrir en el futuro.
“Algunas chispas no se materializan, otras simplemente se convierten en el estándar,” explicó, refiriéndose a hace dos años cuando la empresa de IA Cognition presentó un agente inicial llamado Devin que se integraba con Slack para delegar tareas, arreglar errores, analizar datos y revisar código. En ese momento, todavía se consideraba futurista, pero hoy, “nadie duda de que esto es una práctica estándar,” dijo. “Puedes simplemente enviar un Slack a Claude Code para que trabaje en cosas—lo que parecía una idea totalmente loca ahora es básicamente el estándar de cualquier equipo de ingeniería moderno.”
Pero aunque los agentes de IA están mejorando mucho en automatizar tareas específicas y discretas, siguen siendo deficientes para manejar el trabajo más amplio, contextual y que involucra relaciones, enfatizó Levie. Los agentes de IA pueden automatizar completamente un puñado de tareas, pero tienen dificultades con el resto—incluyendo navegar relaciones y participar en reuniones.
“Cuando escuchas a un laboratorio de IA decir que van a automatizar todo el trabajo del conocimiento en 24 meses, generalmente es una definición muy estrecha de los trabajos,” dijo. “La definición de lo que puede hacer un agente no es la misma que la del trabajo que se contrata en la economía.”
El factor confianza importa cuando las cosas pueden salir mal
Avinash Vootkuri, científico de datos senior en un importante minorista de Fortune 500, dijo que la mayoría de los agentes de IA empresariales “absolutamente requieren un cuidador” y, por ahora, solo pueden funcionar en entornos empresariales con autonomía limitada y barreras extensas. “Las apuestas son enormes,” explicó.
Por ejemplo, describió cómo construyó un sistema de agentes para ciberseguridad empresarial donde los agentes de IA no solo generan alertas y esperan revisión humana, sino que investigan activamente. En lugar de inundar a los analistas con miles de advertencias, los agentes recopilan evidencia en tiempo real—consultando bases de datos de inteligencia de amenazas, analizando patrones de comportamiento y filtrando falsos positivos—antes de decidir si una situación requiere escalamiento.
El sistema se basa en autonomía limitada y barreras extensas, reduciendo la carga de trabajo humano sin eliminar la supervisión.
En ciberseguridad, explicó, si el agente se equivoca, las consecuencias son inmediatas y severas. “La IA puede bloquear clientes legítimos (causando una pérdida de ingresos enorme) o permitir que un actor de amenazas sofisticado ingrese a la red,” dijo. “Realmente importa si las cosas salen mal.”
Según Breanna Whitehead, quien dirige una consultoría de operaciones de IA donde construye sistemas impulsados por IA para ejecutivos y fundadores, la industria está en una “fase de calibración de confianza.”
Los agentes de IA pueden hacer más de lo que la mayoría piensa, pero menos de lo que el hype sugiere.
“La verdadera habilidad no es construir el agente—es diseñar la transferencia,” explicó. “La mayoría de las personas o sobreconfían en los agentes y terminan limpiando los desastres, o microgestionan cada resultado y se preguntan por qué la IA se siente más trabajo en lugar de menos.” La idea, dijo, es diseñar puntos claros de transferencia, donde algo pueda ser completamente delegado, otra cosa reciba una revisión rápida, y otra tarea quede solo para que la hagan los humanos.
Por ahora, dijo, los agentes son “realmente excelentes” en lo que ella llama la capa intermedia del trabajo de conocimiento—“las tareas que solían consumir 2-3 horas del día de una persona inteligente, como sintetizar notas de reuniones en acciones, redactar correos de seguimiento en la voz de alguien, preparar informes de investigación, organizar prioridades en un plan claro.”
Pero cualquier cosa que requiera leer un ambiente, navegar ambigüedades o tomar decisiones basadas en relaciones no está lista para el tiempo principal de los agentes de IA. “Tuve un cliente que quería automatizar completamente sus comunicaciones con inversores,” dijo. “La IA podía redactar muy bien, pero no podía detectar cuándo un inversor perdía interés y necesitaba un enfoque diferente. El agente redactó el correo, pero la decisión de enviarlo la tuvo la persona.”
Por ahora, dormir puede ser esquivo cuando se trabaja con agentes de IA
Por ahora, trabajar con agentes de IA puede tener menos que ver con dormir mientras trabajan que con mantenerse medio despierto mientras lo hacen. Herramientas como OpenClaw pueden funcionar durante horas, pero para muchos usuarios iniciales, esa autonomía requiere una nueva forma de vigilancia—revisar registros, evaluar resultados y actuar antes de que las cosas salgan mal.
Ese dinamismo quedó reflejado en una publicación viral reciente titulada Ansiedad por Tokens, en la que el inversor Nikunj Kothari describió a un amigo que se fue temprano de una fiesta—no porque estuviera cansado, sino porque quería volver a sus agentes. “Ya nadie lo cuestiona,” escribió Kothari. “La mitad de la sala piensa lo mismo. La otra mitad probablemente está revisando el progreso de sus agentes. En una fiesta.”
El sueño de una IA que trabaja mientras duermes puede ser real. Pero por ahora, todavía mantiene despiertas a muchas personas.
Únete a nosotros en la Cumbre de Innovación en el Lugar de Trabajo de Fortune, del 19 al 20 de mayo de 2026, en Atlanta. La próxima era de innovación laboral ya está aquí—y el antiguo manual está siendo reescrito. En este evento exclusivo y enérgico, los líderes más innovadores del mundo se reunirán para explorar cómo la IA, la humanidad y la estrategia convergen para redefinir, una vez más, el futuro del trabajo. Regístrate ahora.