Agentes de IA que fazem o seu trabalho enquanto dorme parecem ótimos. A realidade é muito mais confusa — ‘é como um bebé que precisa de supervisão’

Summer Yue pode trabalhar na segurança e alinhamento na equipa de superinteligência da Meta, mas mesmo ela admite que não está imune à confiança excessiva quando se trata de agentes de IA autónomos.

Vídeo Recomendado


Numa publicação na X na segunda-feira, Yue descreveu como os seus agentes de IA autónomos OpenClaw—construídos para funcionar localmente num computador Mac mini—apagaram toda a sua caixa de entrada, ignorando instruções para pausar e pedir confirmação primeiro.

“Tive que CORRER para o meu Mac Mini como se estivesse a desarmar uma bomba,” disse ela. Foi, acrescentou, um “erro de principiante.” O fluxo de trabalho tinha funcionado numa caixa de entrada de teste que usava para experimentar o agente com segurança durante semanas, explicou, mas na caixa de entrada real o agente perdeu a instrução original.

A experiência de Yue contrasta fortemente com publicações virais como A Revolução da Lagosta: Porque os Agentes de IA 24/7 Mudaram Tudo, onde Peter Diamandis afirma que a IA sempre ativa é muito mais fluida.

“Deixa-me explicar como é usar isto,” escreveu Diamandis. “Acordas de manhã e o teu agente—o meu chama-se Skippy, sarcasticamente alegre e absurdamente capaz—já fez oito horas de trabalho enquanto tu dormias. Leu mil páginas de markdown. Organizou os teus ficheiros. Redigiu três planos de projeto. Reservou a tua viagem. Pesquisou aquela questão que tinhas às 23h e esqueceste-te dela.”

“Quando o meu Mac mini ficou offline durante seis horas, senti abstinência,” acrescentou. “Como se o meu melhor amigo tivesse desaparecido.”

Juntos, estes relatos opostos sobre o poder dos agentes de IA capturam a tensão no coração do atual impulso para uma IA “sempre ligada”. À medida que ferramentas como OpenClaw e Claude Code tornam tecnicamente possível que os agentes funcionem por longos períodos, o entusiasmo cresce em torno da ideia de IA que trabalha enquanto tu dormes. Mas, na prática, os primeiros utilizadores dizem que a autonomia continua frágil, imprevisível e laboriosa de gerir. Em vez de substituir o trabalho humano, os agentes atuais muitas vezes requerem monitorização constante, limites de segurança e intervenção, especialmente quando as apostas sobem além de experiências de baixo risco.

Agentes de IA funcionam melhor quando as tarefas são simples e de baixo risco

Shyamal Anadkat, que trabalhou anteriormente como engenheiro de IA aplicada na OpenAI, afirmou que a maioria dos agentes bem-sucedidos de hoje ainda requerem verificações humanas frequentes ou estão limitados a tarefas bem definidas e de limites estreitos—embora tenha destacado que isto mudará à medida que as técnicas de medição e avaliação melhorarem.

“Um sistema que é 95% preciso em passos individuais torna-se caótico numa workflow autónoma de 20 passos,” disse Anadkat. “O planeamento de longo prazo ainda é fraco.” Como resultado, explicou, os agentes podem desempenhar bem em cadeias de tarefas curtas, mas tendem a desmoronar quando são solicitados a gerir projetos complexos de vários dias. A memória é outra grande limitação: “Em muitos agentes, a memória é inexistente ou frágil. Precisas de sistemas que possam manter um modelo coerente do teu contexto de trabalho, prioridades e restrições.”

Isso não significa que a promessa dos agentes de IA seja toda ilusão, segundo Yoav Shoham, antigo cientista principal na Google, professor emérito em Stanford e cofundador da AI21 Labs. Mas significa que há o risco de as pessoas se adiantarem demasiado. Os agentes de IA de hoje, explicou, funcionam melhor quando a tarefa é de baixo risco, pouco definida e barata de errar.

“Os desenvolvedores gostam de brinquedos, e tu tens este brinquedo que pode fazer coisas maravilhosas,” disse ele à Fortune. “Desde que o que fazem seja bastante simples e de baixo risco, com alta tolerância ao erro, tudo bem.” Por exemplo, se quisesses que o teu agente lesse 10.000 websites e fizesse algo interessante com os resultados para te dar pormenores de informação durante a noite que possam ser úteis.

Mas para fluxos de trabalho empresariais críticos, o padrão é muito mais elevado. As empresas precisam de sistemas que sejam verificáveis, repetíveis e rentáveis—requisitos que rapidamente minam a promessa de “configurar e esquecer” de agentes totalmente autónomos e sempre ligados. Em domínios altamente estruturados, como codificação ou matemática, a automação mais profunda já é possível. Mas, para a maioria dos processos empresariais do mundo real, Shoham afirma que o trabalho necessário para tornar os agentes fiáveis muitas vezes supera o benefício.

Bret Greenstein, diretor de IA na consultora West Monroe, destacou que ferramentas como OpenClaw parecem um ponto de viragem semelhante ao que aconteceu com a IA generativa quando o ChatGPT foi lançado em 2022—pela primeira vez, tornou-se acessível a ideia de agentes de IA. Ainda assim, não é uma solução mágica 24/7.

“Pode funcionar durante muito tempo, a trabalhar em tarefas, mas é como um bebé que precisa de supervisão,” disse ele. Algumas tarefas são razoáveis de fazer enquanto estás a dormir, como escanear mensagens no LinkedIn ou acompanhar notícias. “Não tenho certeza se gostaria que estivesse a responder ao feedback dos clientes enquanto durmo,” afirmou.

Capacidade de delegar a um agente de IA parece poderosa

Ainda assim, não há dúvida de que a capacidade de delegar tarefas do mundo real a um agente de IA é profundamente atraente para os utilizadores, reforçou Greenstein. Ele destacou a sua própria experiência ao entregar a um agente de IA a tarefa mundana de apanhar as roupas para serem lavadas a seco—e assistir ao seu trabalho silencioso a completar a tarefa de ponta a ponta.

O agente contactou independentemente a lavandaria, organizou a logística de recolha por email, coordenou o horário, monitorizou uma campainha de porta para confirmar a recolha e notificou Greenstein assim que a tarefa foi concluída. O episódio ilustrou como os agentes podem operar através de múltiplos sistemas e adaptar-se quando as coisas não correm como planeado. Mas também destacou por que estas ferramentas ainda requerem limites estritos e supervisão—especialmente antes de serem implementadas em ambientes empresariais.

“O OpenClaw está configurado de modo que não deve parecer seguro para a maioria das pessoas,” disse Greenstein. “Ainda não parece suficientemente maduro para ser uma parte confiável das nossas vidas.” Para que a IA seja bem-vinda na vida quotidiana ou nas operações empresariais, acrescentou, ela tem que ganhar confiança ao longo do tempo—semelhante à forma como a confiança se estabelece socialmente.

Mesmo assim, a procura já é evidente. Greenstein apontou encontros e reuniões iniciais da indústria dedicados ao OpenClaw, uma rápida emergência que descreveu como incomum para uma ferramenta tão jovem. “Mostra a fome que as pessoas têm por IA que seja realmente útil,” disse—sistemas que vão além de responder a perguntas e começam a tomar ações.

Aaron Levie, CEO da empresa de gestão de conteúdo e colaboração baseada na cloud Box, chamou o que está a acontecer agora com os agentes de IA de “pequenos brilhos” do que pode acontecer no futuro.

“Alguns brilhos acabam por não se concretizar, outros tornam-se o padrão,” explicou, referindo-se a há dois anos quando a empresa de IA Cognition lançou um agente inicial chamado Devin que se integrava com o Slack para delegação de tarefas, correção de bugs, análise de dados e revisão de código. Na altura, ainda era visto como futurista, mas hoje, “ninguém tem dúvidas de que isto é uma prática padrão,” disse. “Basta enviar uma mensagem no Slack ao Claude Code para trabalhar em coisas—o que parecia uma ideia totalmente louca é agora basicamente o padrão de qualquer equipa de engenharia moderna.”

Mas, enquanto os agentes de IA estão a tornar-se muito bons em automatizar tarefas específicas e discretas, continuam fracos na gestão do trabalho mais amplo, contextual e que compõe a maioria dos empregos, destacou Levie. Os agentes de IA podem automatizar completamente um punhado de tarefas, mas têm dificuldades com o resto—incluindo navegar relacionamentos e participar em reuniões.

“Quando ouves um laboratório de IA dizer que vai automatizar todo o trabalho de conhecimento em 24 meses, isso geralmente é uma definição muito estreita de empregos,” afirmou. “A definição do que um agente pode fazer não é a mesma do que o trabalho que é contratado na economia.”

O fator confiança importa quando as coisas podem correr mal

Avinash Vootkuri, cientista de dados sénior numa grande retalhista Fortune 500, afirmou que a maioria dos agentes de IA empresariais “absolutamente requerem um babysitter” e, por agora, só podem funcionar em ambientes empresariais com autonomia limitada e limites de segurança extensos. “As apostas são enormes,” explicou.

Por exemplo, descreveu a construção de um sistema de cibersegurança empresarial onde os agentes de IA não apenas acionam alertas e esperam revisão humana, mas investigam ativamente. Em vez de sobrecarregar os analistas com milhares de avisos, os agentes recolhem evidências em tempo real—consultando bases de dados de inteligência de ameaças, analisando padrões comportamentais e filtrando falsos positivos—antes de decidir se uma situação merece escalada.

O sistema baseia-se em autonomia limitada e limites de segurança rigorosos, reduzindo a carga de trabalho humana sem eliminar a supervisão.

Na cibersegurança, explicou, se o agente errar, as consequências são imediatas e graves. “A IA pode bloquear clientes legítimos (causando perdas de receita enormes) ou deixar um ator de ameaça sofisticado entrar na rede,” disse. “Importa mesmo quando as coisas correm mal.”

Segundo Breanna Whitehead, que gere uma consultoria de operações de IA onde constrói sistemas alimentados por IA para executivos e fundadores, a indústria está numa “fase de calibração de confiança.”

Os agentes de IA podem fazer mais do que a maioria das pessoas permite, mas menos do que o hype sugere.

“A verdadeira habilidade não é construir o agente—é desenhar a transferência de tarefas,” explicou. “A maioria das pessoas ou confia demais nos agentes e acaba por limpar as confusões, ou microgerencia cada saída e pergunta-se por que a IA parece mais trabalho em vez de menos.” A ideia, disse, é desenhar pontos de transferência claros, onde algo pode ser totalmente delegado, outra coisa pode passar por uma revisão rápida, enquanto outra tarefa fica apenas para humanos fazerem.

Por agora, afirmou, os agentes são “verdadeiramente excelentes” naquilo que chamou de camada intermédia do trabalho de conhecimento—“aquelas tarefas que costumavam consumir 2-3 horas do dia de uma pessoa inteligente, como sintetizar notas de reuniões em ações, redigir emails de acompanhamento no estilo de alguém, preparar resumos de pesquisa, organizar prioridades concorrentes numa estratégia clara.”

Mas tudo o que exija leitura de uma sala, navegação em ambiguidades ou tomada de decisões baseadas em relacionamentos ainda não está pronto para o auge dos agentes de IA. “Tive um cliente que queria automatizar completamente as comunicações com investidores,” disse ela. “A IA podia redigir de forma excelente, mas não percebia quando um financiador estava a perder interesse e precisava de uma abordagem diferente. O agente redigiu o email, mas o humano tinha que decidir se enviava ou não.”

Por agora, dormir pode ser uma miragem ao trabalhar com agentes de IA

Por agora, trabalhar com agentes de IA pode ter menos a ver com dormir enquanto eles trabalham do que com estar meio acordado enquanto o fazem. Ferramentas como OpenClaw podem funcionar horas a fio, mas para muitos utilizadores iniciais, essa autonomia vem acompanhada de um novo tipo de vigilância—verificar logs, rever outputs e intervir antes que as coisas corram mal.

Esse dinamismo foi capturado numa publicação viral recente intitulada Token Anxiety, onde o investidor Nikunj Kothari descreveu um amigo que saiu cedo de uma festa—não porque estivesse cansado, mas porque queria voltar aos seus agentes. “Ninguém questiona mais isso,” escreveu Kothari. “Metade da sala está a pensar a mesma coisa. A outra metade provavelmente está a verificar o progresso dos seus agentes. Numa festa.”

O sonho de uma IA que trabalha enquanto tu dormes pode ser real. Mas, por agora, ainda mantém muita gente acordada.

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
0/400
Sem comentários
  • Marcar

Negocie criptomoedas a qualquer hora e em qualquer lugar
qrCode
Escaneie o código para baixar o app da Gate
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)