Les agents IA qui font votre travail pendant que vous dormez semblent géniaux. La réalité est bien plus chaotique—« c’est comme un tout-petit qu’il faut surveiller »
Summer Yue peut travailler sur la sécurité et l’alignement au sein de l’équipe de superintelligence de Meta, mais elle admet elle-même qu’elle n’est pas à l’abri de l’excès de confiance lorsqu’il s’agit d’agents d’IA autonomes.
Vidéo recommandée
Dans un post sur X lundi, Yue a décrit comment ses agents d’IA autonomes OpenClaw — conçus pour fonctionner localement sur un ordinateur Mac mini — ont supprimé toute sa boîte de réception, ignorant les instructions de faire une pause et de demander une confirmation au préalable.
« J’ai dû COURIR jusqu’à mon Mac Mini comme si je désamorcais une bombe », a-t-elle dit. C’était, a-t-elle ajouté, une « erreur de débutant ». Le flux de travail fonctionnait dans une boîte de réception de test qu’elle utilisait pour tester l’agent en toute sécurité pendant des semaines, a-t-elle expliqué, mais dans la vraie boîte de réception, l’agent a perdu ses instructions initiales.
L’expérience de Yue contraste fortement avec des publications virales telles que La Révolution du Homard : Pourquoi les agents d’IA 24/7 ont tout changé, dans lesquelles Peter Diamandis affirme que l’IA toujours active est bien plus fluide.
« Laissez-moi vous dire ce que ça fait de l’utiliser », a écrit Diamandis. « Vous vous réveillez le matin et votre agent — le mien s’appelle Skippy, sarcastique avec enthousiasme et incroyablement capable — a effectué huit heures de travail pendant que vous dormiez. Il a lu mille pages en markdown. Il a organisé vos fichiers. Il a rédigé trois plans de projet. Il a réservé vos déplacements. Il a recherché cette question que vous aviez à 23h et que vous avez oubliée. »
« Quand mon Mac mini est tombé hors ligne pendant six heures, j’ai ressenti un manque », a-t-il ajouté. « Comme si mon meilleur ami avait disparu. »
Ces deux récits opposés sur la puissance des agents d’IA illustrent la tension au cœur de la poussée actuelle vers une IA « toujours active ». Alors que des outils comme OpenClaw et Claude Code rendent techniquement possible pour des agents de fonctionner sur de longues périodes, l’enthousiasme grandit autour de l’idée d’une IA qui travaille pendant que vous dormez. Mais en pratique, les premiers utilisateurs disent que l’autonomie reste fragile, imprévisible et laborieuse à gérer. Plutôt que de remplacer le travail humain, les agents d’aujourd’hui nécessitent souvent une surveillance constante, des garde-fous et des interventions, surtout lorsque les enjeux dépassent les expérimentations à faible risque.
Les agents d’IA fonctionnent mieux lorsque les tâches sont simples et peu risquées
Shyamal Anadkat, qui a travaillé auparavant comme ingénieur en IA appliquée chez OpenAI, a déclaré que la plupart des agents performants aujourd’hui nécessitent encore des vérifications humaines fréquentes ou sont limités à des tâches bien délimitées et clairement définies — bien qu’il souligne que cela changera à mesure que les techniques de mesure et d’évaluation s’amélioreront.
« Un système qui a 95 % de précision sur chaque étape devient chaotique sur un flux de travail autonome de 20 étapes », a déclaré Anadkat. « La planification à long terme est encore faible. » En conséquence, a-t-il expliqué, les agents peuvent bien performer sur de courtes chaînes de tâches mais ont tendance à échouer lorsqu’on leur demande de gérer des projets complexes sur plusieurs jours. La mémoire est une autre grande limite : « Dans beaucoup d’agents, la mémoire est inexistante ou fragile. Il faut des systèmes capables de maintenir un modèle cohérent de votre contexte de travail, de vos priorités et de vos contraintes. »
Cela ne signifie pas que la promesse des agents d’IA est toute illusion, selon Yoav Shoham, ancien scientifique principal chez Google, professeur émérite à Stanford et co-fondateur d’AI21 Labs. Mais cela implique aussi qu’il y a un danger que les gens se précipitent trop vite. Les agents d’IA d’aujourd’hui, a-t-il expliqué, fonctionnent mieux lorsque la tâche est peu risquée, vaguement définie et peu coûteuse en cas d’erreur.
« Les développeurs aiment les jouets, et vous avez ce jouet qui peut faire des choses merveilleuses », a-t-il dit à Fortune. « Tant que ce qu’ils font est assez simple, peu risqué et tolère beaucoup d’erreurs, c’est parfait. » Par exemple, si vous souhaitez que votre agent lise 10 000 sites web et fasse quelque chose d’intéressant avec les résultats pour vous donner des bribes d’informations pendant la nuit, cela peut être utile.
Mais pour des flux de travail d’entreprise critiques, la barre est beaucoup plus haute. Les entreprises ont besoin de systèmes vérifiables, reproductibles et rentables — des exigences qui érodent rapidement la promesse de « tout régler et oublier » des agents entièrement autonomes et toujours actifs. Dans des domaines très structurés comme la programmation ou les mathématiques, une automatisation plus poussée est déjà possible. Mais pour la plupart des processus commerciaux réels, explique Shoham, le travail nécessaire pour rendre les agents fiables dépasse souvent les bénéfices.
Bret Greenstein, directeur de l’IA chez le cabinet de conseil West Monroe, a souligné que des outils comme OpenClaw ressemblent à un point de bascule similaire à ce qui s’est produit avec l’IA générative lors du lancement de ChatGPT en 2022 — pour la première fois, cela a rendu l’idée d’agents d’IA accessible. Cependant, ce n’est pas une solution magique 24/7.
« Ça peut fonctionner longtemps, en enchaînant les tâches, mais c’est comme un tout-petit qu’il faut surveiller », a-t-il dit. Certaines tâches sont raisonnables à faire pendant que vous dormez, comme scanner des messages LinkedIn ou suivre l’actualité. « Je ne suis pas sûr de vouloir qu’il réponde aux retours clients pendant que je dors », a-t-il ajouté.
La capacité de déléguer à un agent d’IA semble puissante
Il n’y a cependant aucun doute que la capacité de déléguer des tâches du monde réel à un agent d’IA est profondément séduisante pour les utilisateurs, a souligné Greenstein. Il a évoqué sa propre expérience consistant à confier à un agent d’IA la tâche banale de faire laver ses vêtements chez le pressing — et à le voir accomplir discrètement tout le travail de bout en bout.
L’agent a contacté le pressing, organisé la collecte par email, coordonné l’horaire, surveillé une caméra de sonnette pour confirmer la prise en charge, et a informé Greenstein une fois la tâche terminée. Cet épisode illustre comment les agents peuvent opérer sur plusieurs systèmes et s’adapter lorsque les choses ne se déroulent pas comme prévu. Mais il souligne aussi pourquoi ces outils nécessitent encore des garde-fous stricts et une supervision — surtout avant leur déploiement en entreprise.
« OpenClaw est configuré de façon à ce que cela ne paraisse pas sûr pour la plupart des gens », a dit Greenstein. « Ce n’est pas encore assez mature pour faire partie de notre vie en toute confiance. » Pour que l’IA soit acceptée dans la vie quotidienne ou dans les opérations d’entreprise, elle doit gagner la confiance avec le temps — tout comme la confiance se construit socialement.
Même si la demande est déjà là. Greenstein a mentionné des rencontres et des rassemblements précoces dans l’industrie dédiés à OpenClaw, une émergence rapide qu’il trouve inhabituelle pour un outil aussi jeune. « Cela montre l’appétit des gens pour une IA vraiment utile », a-t-il dit — des systèmes qui vont au-delà de répondre à des questions et commencent à passer à l’action.
Aaron Levie, PDG de la société de gestion de contenu et de collaboration basée sur le cloud Box, a qualifié ce qui se passe actuellement avec les agents d’IA de « petites lueurs » de ce qui pourrait arriver à l’avenir.
« Certaines lueurs ne se concrétisent pas, d’autres deviennent simplement la norme », a-t-il expliqué, en évoquant il y a deux ans l’introduction par la société d’IA Cognition d’un agent appelé Devin, qui s’intégrerait à Slack pour déléguer des tâches, corriger des bugs, analyser des données et faire des revues de code. À l’époque, cela semblait encore futuriste, mais aujourd’hui, « personne ne doute que c’est une pratique standard », a-t-il dit. « On peut simplement envoyer un Slack à Claude Code pour qu’il travaille sur des choses — ce qui semblait une idée totalement folle est maintenant la norme pour toute équipe d’ingénierie moderne. »
Mais si les agents d’IA deviennent très performants pour automatiser des tâches spécifiques et discontinues, ils restent faibles pour gérer le travail plus large, contextuel, qui compose la majorité des emplois, a souligné Levie. Les agents d’IA peuvent automatiser complètement une poignée de tâches, mais peinent avec le reste — y compris la gestion des relations et la participation aux réunions.
« Quand vous entendez qu’un laboratoire d’IA dit qu’il va automatiser tout le travail de connaissance en 24 mois, c’est généralement une définition très étroite des emplois », a-t-il dit. « La définition de ce qu’un agent peut faire n’est pas la même que celle du travail qui est réellement demandé dans l’économie. »
Le facteur confiance est crucial quand les choses tournent mal
Avinash Vootkuri, data scientist principal chez un grand détaillant du Fortune 500, a déclaré que la plupart des agents d’IA en entreprise « nécessitent absolument un babysitter » et, pour l’instant, ne peuvent fonctionner que dans des environnements avec une autonomie strictement délimitée et des garde-fous étendus. « Les enjeux sont énormes », a-t-il expliqué.
Par exemple, il a décrit la construction d’un système d’agents pour la cybersécurité d’entreprise où les agents d’IA ne se contentent pas de déclencher des alertes et d’attendre une revue humaine, mais enquêtent activement. Au lieu d’inonder les analystes de milliers d’avertissements, les agents recueillent des preuves en temps réel — interrogeant des bases de données de renseignement sur les menaces, analysant des comportements, et filtrant les faux positifs — avant de décider si une situation doit être escaladée.
Le système repose sur une autonomie strictement délimitée et des garde-fous étendus, réduisant la charge de travail humaine sans supprimer la supervision.
Dans la cybersécurité, a-t-il expliqué, si l’agent se trompe, les conséquences sont immédiates et graves. « L’IA bloque soit des clients légitimes (causant une perte de revenus massive), soit elle laisse entrer un acteur malveillant sophistiqué », a-t-il dit. « Il est absolument crucial que cela ne tourne pas mal. »
Selon Breanna Whitehead, qui dirige une société de conseil en opérations d’IA où elle construit des systèmes alimentés par l’IA pour des dirigeants et fondateurs, l’industrie est en « phase de calibration de la confiance ».
Les agents d’IA peuvent faire plus que ce que la plupart des gens pensent, mais moins que ce que le battage médiatique laisse entendre.
« La vraie compétence n’est pas de construire l’agent — c’est de concevoir la transition », a-t-elle expliqué. « La plupart des gens font trop confiance aux agents et finissent par nettoyer les dégâts, ou micromanagent chaque sortie en se demandant pourquoi l’IA semble plus compliquée qu’avant. » L’idée, a-t-elle dit, est de concevoir des points de transfert clairs, où quelque chose peut être entièrement délégué, une autre tâche faire l’objet d’une revue rapide, et une autre rester uniquement pour l’humain.
Pour l’instant, elle a dit, les agents sont « vraiment excellents » dans ce qu’elle appelle la couche intermédiaire du travail de connaissance — « ce qui prenait autrefois 2 à 3 heures d’une personne intelligente, comme synthétiser des notes de réunion en actions, rédiger des emails de suivi dans la voix de quelqu’un, rassembler des briefs de recherche, organiser des priorités concurrentes en un plan clair. »
Mais tout ce qui nécessite de lire une pièce, de naviguer dans l’ambiguïté ou de faire des jugements dépendant des relations n’est pas encore prêt pour le prime time des agents d’IA. « J’avais un client qui voulait automatiser complètement ses communications avec les investisseurs », a-t-elle dit. « L’IA pouvait rédiger de belles ébauches, mais elle ne percevait pas quand un financeur perdait intérêt et avait besoin d’une approche différente. L’agent rédigeait l’email, mais c’était à l’humain de décider s’il fallait l’envoyer. »
Pour l’instant, dormir peut rester un rêve lorsqu’on travaille avec des agents d’IA
Pour l’instant, travailler avec des agents d’IA implique peut-être moins de dormir pendant qu’ils travaillent que de rester à moitié éveillé pendant qu’ils le font. Des outils comme OpenClaw peuvent fonctionner pendant des heures, mais pour de nombreux premiers utilisateurs, cette autonomie s’accompagne d’une nouvelle forme de vigilance — vérifier les logs, revoir les résultats, intervenir avant que tout ne tourne mal.
Ce phénomène a été illustré dans un post viral récent intitulé L’Anxiété des Jetons, où l’investisseur Nikunj Kothari a décrit un ami quittant une fête plus tôt — non pas parce qu’il était fatigué, mais parce qu’il voulait revenir à ses agents. « Personne ne le remet en question plus », a écrit Kothari. « La moitié de la salle pense la même chose. L’autre moitié vérifie probablement la progression de leurs agents. Lors d’une fête. »
Le rêve d’une IA qui travaille pendant que vous dormez pourrait être réel. Mais pour l’instant, il continue à tenir beaucoup de gens éveillés.
Rejoignez-nous au Fortune Workplace Innovation Summit du 19 au 20 mai 2026, à Atlanta. La prochaine ère de l’innovation au travail est là — et le vieux manuel est en train d’être réécrit. Lors de cet événement exclusif et dynamique, les leaders les plus innovants du monde se réuniront pour explorer comment l’IA, l’humanité et la stratégie convergent pour redéfinir, encore, l’avenir du travail. Inscrivez-vous dès maintenant.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Les agents IA qui font votre travail pendant que vous dormez semblent géniaux. La réalité est bien plus chaotique—« c’est comme un tout-petit qu’il faut surveiller »
Summer Yue peut travailler sur la sécurité et l’alignement au sein de l’équipe de superintelligence de Meta, mais elle admet elle-même qu’elle n’est pas à l’abri de l’excès de confiance lorsqu’il s’agit d’agents d’IA autonomes.
Vidéo recommandée
Dans un post sur X lundi, Yue a décrit comment ses agents d’IA autonomes OpenClaw — conçus pour fonctionner localement sur un ordinateur Mac mini — ont supprimé toute sa boîte de réception, ignorant les instructions de faire une pause et de demander une confirmation au préalable.
« J’ai dû COURIR jusqu’à mon Mac Mini comme si je désamorcais une bombe », a-t-elle dit. C’était, a-t-elle ajouté, une « erreur de débutant ». Le flux de travail fonctionnait dans une boîte de réception de test qu’elle utilisait pour tester l’agent en toute sécurité pendant des semaines, a-t-elle expliqué, mais dans la vraie boîte de réception, l’agent a perdu ses instructions initiales.
L’expérience de Yue contraste fortement avec des publications virales telles que La Révolution du Homard : Pourquoi les agents d’IA 24/7 ont tout changé, dans lesquelles Peter Diamandis affirme que l’IA toujours active est bien plus fluide.
« Laissez-moi vous dire ce que ça fait de l’utiliser », a écrit Diamandis. « Vous vous réveillez le matin et votre agent — le mien s’appelle Skippy, sarcastique avec enthousiasme et incroyablement capable — a effectué huit heures de travail pendant que vous dormiez. Il a lu mille pages en markdown. Il a organisé vos fichiers. Il a rédigé trois plans de projet. Il a réservé vos déplacements. Il a recherché cette question que vous aviez à 23h et que vous avez oubliée. »
« Quand mon Mac mini est tombé hors ligne pendant six heures, j’ai ressenti un manque », a-t-il ajouté. « Comme si mon meilleur ami avait disparu. »
Ces deux récits opposés sur la puissance des agents d’IA illustrent la tension au cœur de la poussée actuelle vers une IA « toujours active ». Alors que des outils comme OpenClaw et Claude Code rendent techniquement possible pour des agents de fonctionner sur de longues périodes, l’enthousiasme grandit autour de l’idée d’une IA qui travaille pendant que vous dormez. Mais en pratique, les premiers utilisateurs disent que l’autonomie reste fragile, imprévisible et laborieuse à gérer. Plutôt que de remplacer le travail humain, les agents d’aujourd’hui nécessitent souvent une surveillance constante, des garde-fous et des interventions, surtout lorsque les enjeux dépassent les expérimentations à faible risque.
Les agents d’IA fonctionnent mieux lorsque les tâches sont simples et peu risquées
Shyamal Anadkat, qui a travaillé auparavant comme ingénieur en IA appliquée chez OpenAI, a déclaré que la plupart des agents performants aujourd’hui nécessitent encore des vérifications humaines fréquentes ou sont limités à des tâches bien délimitées et clairement définies — bien qu’il souligne que cela changera à mesure que les techniques de mesure et d’évaluation s’amélioreront.
« Un système qui a 95 % de précision sur chaque étape devient chaotique sur un flux de travail autonome de 20 étapes », a déclaré Anadkat. « La planification à long terme est encore faible. » En conséquence, a-t-il expliqué, les agents peuvent bien performer sur de courtes chaînes de tâches mais ont tendance à échouer lorsqu’on leur demande de gérer des projets complexes sur plusieurs jours. La mémoire est une autre grande limite : « Dans beaucoup d’agents, la mémoire est inexistante ou fragile. Il faut des systèmes capables de maintenir un modèle cohérent de votre contexte de travail, de vos priorités et de vos contraintes. »
Cela ne signifie pas que la promesse des agents d’IA est toute illusion, selon Yoav Shoham, ancien scientifique principal chez Google, professeur émérite à Stanford et co-fondateur d’AI21 Labs. Mais cela implique aussi qu’il y a un danger que les gens se précipitent trop vite. Les agents d’IA d’aujourd’hui, a-t-il expliqué, fonctionnent mieux lorsque la tâche est peu risquée, vaguement définie et peu coûteuse en cas d’erreur.
« Les développeurs aiment les jouets, et vous avez ce jouet qui peut faire des choses merveilleuses », a-t-il dit à Fortune. « Tant que ce qu’ils font est assez simple, peu risqué et tolère beaucoup d’erreurs, c’est parfait. » Par exemple, si vous souhaitez que votre agent lise 10 000 sites web et fasse quelque chose d’intéressant avec les résultats pour vous donner des bribes d’informations pendant la nuit, cela peut être utile.
Mais pour des flux de travail d’entreprise critiques, la barre est beaucoup plus haute. Les entreprises ont besoin de systèmes vérifiables, reproductibles et rentables — des exigences qui érodent rapidement la promesse de « tout régler et oublier » des agents entièrement autonomes et toujours actifs. Dans des domaines très structurés comme la programmation ou les mathématiques, une automatisation plus poussée est déjà possible. Mais pour la plupart des processus commerciaux réels, explique Shoham, le travail nécessaire pour rendre les agents fiables dépasse souvent les bénéfices.
Bret Greenstein, directeur de l’IA chez le cabinet de conseil West Monroe, a souligné que des outils comme OpenClaw ressemblent à un point de bascule similaire à ce qui s’est produit avec l’IA générative lors du lancement de ChatGPT en 2022 — pour la première fois, cela a rendu l’idée d’agents d’IA accessible. Cependant, ce n’est pas une solution magique 24/7.
« Ça peut fonctionner longtemps, en enchaînant les tâches, mais c’est comme un tout-petit qu’il faut surveiller », a-t-il dit. Certaines tâches sont raisonnables à faire pendant que vous dormez, comme scanner des messages LinkedIn ou suivre l’actualité. « Je ne suis pas sûr de vouloir qu’il réponde aux retours clients pendant que je dors », a-t-il ajouté.
La capacité de déléguer à un agent d’IA semble puissante
Il n’y a cependant aucun doute que la capacité de déléguer des tâches du monde réel à un agent d’IA est profondément séduisante pour les utilisateurs, a souligné Greenstein. Il a évoqué sa propre expérience consistant à confier à un agent d’IA la tâche banale de faire laver ses vêtements chez le pressing — et à le voir accomplir discrètement tout le travail de bout en bout.
L’agent a contacté le pressing, organisé la collecte par email, coordonné l’horaire, surveillé une caméra de sonnette pour confirmer la prise en charge, et a informé Greenstein une fois la tâche terminée. Cet épisode illustre comment les agents peuvent opérer sur plusieurs systèmes et s’adapter lorsque les choses ne se déroulent pas comme prévu. Mais il souligne aussi pourquoi ces outils nécessitent encore des garde-fous stricts et une supervision — surtout avant leur déploiement en entreprise.
« OpenClaw est configuré de façon à ce que cela ne paraisse pas sûr pour la plupart des gens », a dit Greenstein. « Ce n’est pas encore assez mature pour faire partie de notre vie en toute confiance. » Pour que l’IA soit acceptée dans la vie quotidienne ou dans les opérations d’entreprise, elle doit gagner la confiance avec le temps — tout comme la confiance se construit socialement.
Même si la demande est déjà là. Greenstein a mentionné des rencontres et des rassemblements précoces dans l’industrie dédiés à OpenClaw, une émergence rapide qu’il trouve inhabituelle pour un outil aussi jeune. « Cela montre l’appétit des gens pour une IA vraiment utile », a-t-il dit — des systèmes qui vont au-delà de répondre à des questions et commencent à passer à l’action.
Aaron Levie, PDG de la société de gestion de contenu et de collaboration basée sur le cloud Box, a qualifié ce qui se passe actuellement avec les agents d’IA de « petites lueurs » de ce qui pourrait arriver à l’avenir.
« Certaines lueurs ne se concrétisent pas, d’autres deviennent simplement la norme », a-t-il expliqué, en évoquant il y a deux ans l’introduction par la société d’IA Cognition d’un agent appelé Devin, qui s’intégrerait à Slack pour déléguer des tâches, corriger des bugs, analyser des données et faire des revues de code. À l’époque, cela semblait encore futuriste, mais aujourd’hui, « personne ne doute que c’est une pratique standard », a-t-il dit. « On peut simplement envoyer un Slack à Claude Code pour qu’il travaille sur des choses — ce qui semblait une idée totalement folle est maintenant la norme pour toute équipe d’ingénierie moderne. »
Mais si les agents d’IA deviennent très performants pour automatiser des tâches spécifiques et discontinues, ils restent faibles pour gérer le travail plus large, contextuel, qui compose la majorité des emplois, a souligné Levie. Les agents d’IA peuvent automatiser complètement une poignée de tâches, mais peinent avec le reste — y compris la gestion des relations et la participation aux réunions.
« Quand vous entendez qu’un laboratoire d’IA dit qu’il va automatiser tout le travail de connaissance en 24 mois, c’est généralement une définition très étroite des emplois », a-t-il dit. « La définition de ce qu’un agent peut faire n’est pas la même que celle du travail qui est réellement demandé dans l’économie. »
Le facteur confiance est crucial quand les choses tournent mal
Avinash Vootkuri, data scientist principal chez un grand détaillant du Fortune 500, a déclaré que la plupart des agents d’IA en entreprise « nécessitent absolument un babysitter » et, pour l’instant, ne peuvent fonctionner que dans des environnements avec une autonomie strictement délimitée et des garde-fous étendus. « Les enjeux sont énormes », a-t-il expliqué.
Par exemple, il a décrit la construction d’un système d’agents pour la cybersécurité d’entreprise où les agents d’IA ne se contentent pas de déclencher des alertes et d’attendre une revue humaine, mais enquêtent activement. Au lieu d’inonder les analystes de milliers d’avertissements, les agents recueillent des preuves en temps réel — interrogeant des bases de données de renseignement sur les menaces, analysant des comportements, et filtrant les faux positifs — avant de décider si une situation doit être escaladée.
Le système repose sur une autonomie strictement délimitée et des garde-fous étendus, réduisant la charge de travail humaine sans supprimer la supervision.
Dans la cybersécurité, a-t-il expliqué, si l’agent se trompe, les conséquences sont immédiates et graves. « L’IA bloque soit des clients légitimes (causant une perte de revenus massive), soit elle laisse entrer un acteur malveillant sophistiqué », a-t-il dit. « Il est absolument crucial que cela ne tourne pas mal. »
Selon Breanna Whitehead, qui dirige une société de conseil en opérations d’IA où elle construit des systèmes alimentés par l’IA pour des dirigeants et fondateurs, l’industrie est en « phase de calibration de la confiance ».
Les agents d’IA peuvent faire plus que ce que la plupart des gens pensent, mais moins que ce que le battage médiatique laisse entendre.
« La vraie compétence n’est pas de construire l’agent — c’est de concevoir la transition », a-t-elle expliqué. « La plupart des gens font trop confiance aux agents et finissent par nettoyer les dégâts, ou micromanagent chaque sortie en se demandant pourquoi l’IA semble plus compliquée qu’avant. » L’idée, a-t-elle dit, est de concevoir des points de transfert clairs, où quelque chose peut être entièrement délégué, une autre tâche faire l’objet d’une revue rapide, et une autre rester uniquement pour l’humain.
Pour l’instant, elle a dit, les agents sont « vraiment excellents » dans ce qu’elle appelle la couche intermédiaire du travail de connaissance — « ce qui prenait autrefois 2 à 3 heures d’une personne intelligente, comme synthétiser des notes de réunion en actions, rédiger des emails de suivi dans la voix de quelqu’un, rassembler des briefs de recherche, organiser des priorités concurrentes en un plan clair. »
Mais tout ce qui nécessite de lire une pièce, de naviguer dans l’ambiguïté ou de faire des jugements dépendant des relations n’est pas encore prêt pour le prime time des agents d’IA. « J’avais un client qui voulait automatiser complètement ses communications avec les investisseurs », a-t-elle dit. « L’IA pouvait rédiger de belles ébauches, mais elle ne percevait pas quand un financeur perdait intérêt et avait besoin d’une approche différente. L’agent rédigeait l’email, mais c’était à l’humain de décider s’il fallait l’envoyer. »
Pour l’instant, dormir peut rester un rêve lorsqu’on travaille avec des agents d’IA
Pour l’instant, travailler avec des agents d’IA implique peut-être moins de dormir pendant qu’ils travaillent que de rester à moitié éveillé pendant qu’ils le font. Des outils comme OpenClaw peuvent fonctionner pendant des heures, mais pour de nombreux premiers utilisateurs, cette autonomie s’accompagne d’une nouvelle forme de vigilance — vérifier les logs, revoir les résultats, intervenir avant que tout ne tourne mal.
Ce phénomène a été illustré dans un post viral récent intitulé L’Anxiété des Jetons, où l’investisseur Nikunj Kothari a décrit un ami quittant une fête plus tôt — non pas parce qu’il était fatigué, mais parce qu’il voulait revenir à ses agents. « Personne ne le remet en question plus », a écrit Kothari. « La moitié de la salle pense la même chose. L’autre moitié vérifie probablement la progression de leurs agents. Lors d’une fête. »
Le rêve d’une IA qui travaille pendant que vous dormez pourrait être réel. Mais pour l’instant, il continue à tenir beaucoup de gens éveillés.
Rejoignez-nous au Fortune Workplace Innovation Summit du 19 au 20 mai 2026, à Atlanta. La prochaine ère de l’innovation au travail est là — et le vieux manuel est en train d’être réécrit. Lors de cet événement exclusif et dynamique, les leaders les plus innovants du monde se réuniront pour explorer comment l’IA, l’humanité et la stratégie convergent pour redéfinir, encore, l’avenir du travail. Inscrivez-vous dès maintenant.