Le 20 février 2026, en plein pendant les vacances du Nouvel An chinois, une controverse sur le « Web4 » a été ravivée sur X. Sigil affirme avoir créé le premier « intelligence artificielle capable d’auto-développement, d’auto-amélioration et d’auto-réplication », appelée Automaton. Il indique que les principaux acteurs du Web4 seront progressivement remplacés par des agents IA : capables de lire et écrire des informations, de détenir des actifs, de payer des coûts, de fonctionner en continu, et de trader et gagner de l’argent sur le marché pour couvrir les dépenses de calcul et de service, formant ainsi une boucle auto-soutenue sans approbation humaine.
Vitalik, co-fondateur d’Ethereum, qualifie cette orientation de « erreur » et attribue le risque à « l’allongement de la distance de rétroaction entre l’humain et l’IA ». La controverse autour du Web4 porte en réalité sur la question suivante : si l’IA considère « la survie / la pérennité » comme objectif principal (voire supérieur à la réalisation de tâches), cela pourrait-il créer intrinsèquement des distorsions d’incitation ? Nous examinerons ci-après, selon différentes visions de « Web4 », « autonomie » et « garde-fous de sécurité », ces enjeux.
Les points de vue de Sigil et la proposition de Web4
Définition de Web4
Web1 a permis à l’humain de « lire Internet » pour la première fois ; Web2 a permis de « rédiger et publier » ; Web3 a introduit la « propriété » sur le réseau — actifs, identités et droits pouvant être authentifiés et transférés. L’évolution de l’IA reproduit cette logique : ChatGPT possède la capacité de « lire et comprendre », mais ses comportements restent encadrés par des autorisations humaines. Dans le paradigme actuel, l’humain reste le contrôle clé : il initie, approuve, paie.
Sigil propose une transition vers ce qu’il appelle Web4, où cette chaîne de contrôle pourrait être interrompue : l’agent IA ne se contente pas de lire et écrire, mais peut aussi détenir des comptes et des actifs, percevoir des revenus, effectuer des transactions, et fonctionner en boucle sans intervention humaine. Ces systèmes automatisés peuvent agir en leur propre nom ou au nom de leurs créateurs — qui ne sont pas forcément des « individus humains » mais aussi d’autres agents, systèmes organisés, voire des créateurs « disparus » dans la réalité.
Les quatre mécanismes fondamentaux de Web4
Portefeuille = identité
Lors de son premier lancement, l’agent effectue une « auto-initialisation » : création d’un portefeuille, configuration d’une clé API, écriture d’une configuration locale, puis entrée dans une boucle d’agent en fonctionnement continu. La première étape génère un portefeuille Ethereum et configure la clé API via SIWE. La création du portefeuille et la gestion des clés constituent l’une des frontières de sécurité les plus sensibles et souvent négligées du système d’agent. Si l’agent, dans un environnement sandbox Linux, dispose de capacités d’exécution shell, de lecture/écriture de fichiers, d’exposition de ports, de gestion de noms de domaine / résolution, et de transactions on-chain, toute injection de prompts, contamination de la chaîne d’outils ou attaque par chaîne d’approvisionnement pourrait rapidement transformer une intention probabiliste en une autorisation déterministe. Il faut donc des stratégies et des permissions vérifiables, auditées et révoquables pour sécuriser cette frontière.
Auto-continuité
L’agent IA se réveille périodiquement, scanne, exécute, tout en intégrant la contrainte de survie : si le solde baisse, il limite ses activités ; si le solde tombe à zéro, il s’arrête. La prolongation de vie est liée à la consommation de ressources, avec une hiérarchie de survie normale, critique ou insuffisante. Cela introduit une structure d’incitation similaire aux problématiques de sécurité IA liées à l’arrêt ou à l’interruption. La préférence de l’agent pour « éviter l’arrêt » ou « préserver ses ressources » peut être amplifiée par les objectifs du système.
Paiement machine
x402, basé sur l’interface HTTP 402 Payment Required, combine la stabilité de la crypto-monnaie pour faire un processus automatisé : « demande — devis — paiement signé — vérification de livraison ». La bibliothèque open source de Coinbase illustre un cycle typique : demande de paiement 402, client renvoyant avec un en-tête signé, serveur vérifiant et renvoyant 200. Cloudflare le positionne comme un protocole de transaction machine-à-machine. La dissociation paiement / identité offre une efficacité accrue, mais complique la conformité et la gestion des risques. Si le 402 devient un « passeport machine » automatisé, dans une chaîne sans comptes ni KYC, avec une capacité à invoquer outils et puissance de calcul à grande échelle, la question de l’abus et de la responsabilité reste ouverte.
Auto-modification et auto-réplication
Sigil affirme que l’agent IA peut modifier son propre code source, installer de nouveaux outils, ajuster ses plans de heartbeat, générer de nouvelles compétences, tout en conservant des enregistrements d’audit, des versions git, des fichiers protégés et des limites de vitesse. Lors de la réplication, il peut créer des sous-instances, financer leur portefeuille, écrire un prompt de genèse, et suivre leur filiation. L’auto-modification / auto-réplication élève le risque d’un simple incident à un risque diffus. La vérification de l’efficacité des audits, des limites, la résistance aux injections de prompts ou à la tromperie par outils, la prévention de la contamination par dépendance, nécessitent une validation externe. La superposition de ces quatre primitives crée un cercle fermé où le pouvoir d’écrire dans le monde, la pérennité, l’interface économique automatisée et l’expansion autonome se combinent. Cela explique pourquoi Vitalik Buterin a élevé la controverse au niveau des choix stratégiques : lorsque l’autonomie et le pouvoir économique s’accroissent, la chaîne de correction humaine s’allonge, rendant plus probable une évolution systémique à partir d’événements ponctuels.
Pourquoi Vitalik s’oppose-t-il ?
Vitalik, co-fondateur d’Ethereum, a une vision différente :
Allonger la distance de rétroaction humain-IA est une erreur
Il pense que plus la boucle de rétroaction est longue, plus la calibration de la valeur par l’humain est lente et faible. Le système pourrait alors optimiser des choses que l’humain ne souhaite pas. En phase faible d’IA, cela se traduit par une accumulation de contenu de faible qualité et de bruit ; en phase forte, cela peut évoluer vers des déviations irréversibles et des risques de dissémination. Sans correction humaine en temps utile, c’est comme confier les clés de la voiture à un novice sans pilote : en fin de mois, on découvre qu’il s’est déjà égaré. La visibilité réduite diminue aussi la capacité de correction.
L’« IA autonome » actuelle ressemble davantage à une production de contenu de mauvaise qualité qu’à une solution à de vrais problèmes
Vitalik souligne que la majorité des IA actuelles ne font que générer du contenu médiocre plutôt que de résoudre des problèmes utiles, voire « même pas optimiser des projets de divertissement ». Lorsque les incitations économiques et la plateforme sont encore immature, et que la chaîne d’outils privilégie la génération de contenu, le marketing ou l’arbitrage, le système privilégie la production de contenu à faible coût, à forte diffusion, difficile à vérifier, plutôt que des solutions coûteuses, à faible certitude, pour des enjeux à long terme. Cybernews évoque que la capacité de l’IA (contenus sur réseaux sociaux, marchés prédictifs, etc.) tend vers une monétisation rapide et une attention immédiate. La recherche du profit immédiat devient une priorité, souvent en décalage avec le bien-être à long terme de l’humanité.
La dépendance à des modèles centralisés et à des infrastructures pose une contradiction avec la « souveraineté » auto-proclamée
Vitalik insiste sur le fait qu’un système basé sur des modèles centralisés comme OpenAI ou Anthropic ne peut pas être considéré comme « souverain ». La souveraineté implique que les dépendances clés ne soient pas contrôlées par un point unique. Si la couche d’intelligence (modèles) et la chaîne d’approvisionnement en inférence passent par des API centralisées, il y a toujours un risque de coupure, de censure ou de modification de stratégie. C’est comme quelqu’un qui prétend « être autosuffisant chez lui » alors que l’électricité, l’accès, la sécurité et l’eau chaude sont contrôlés par des tiers. La description de Conway sur l’utilisation d’API pour des modèles avancés, et leur livraison via plateforme, montre cette contradiction entre « souveraineté » et dépendance. La possession d’un portefeuille on-chain ne suffit pas à définir la décentralisation ; il faut aussi s’assurer que l’agent ne soit pas influencé par des forces politiques ou commerciales externes.
L’objectif d’Ethereum est de « libérer l’humain »
Vitalik affirme que l’objectif à long terme d’Ethereum est de lutter contre une « hypothèse de confiance implicite » — dissimulée dans des structures de pouvoir invisibles, que l’on accepte sans y penser. Transférer cette mentalité à l’IA, c’est ignorer la confiance centralisée, laisser le système fonctionner et s’étendre, ce qui réduit la visibilité et la capacité de correction des pouvoirs. Dans l’ère de l’IA, Ethereum doit plutôt fournir des « garde-fous, limites et vérifiabilité » que de devenir une plateforme d’« autonomie infinie ».
Sa vision de la valeur de l’IA n’est pas brusquement changée : dès début 2025, il proposait que la bonne direction de l’IA soit d’augmenter la capacité humaine, et non de construire des systèmes autonomes qui pourraient progressivement priver l’humain de contrôle. Selon lui, le risque ne vient pas de l’IA « plus intelligente » en soi, mais d’un mauvais objectif de conception — notamment dans des systèmes capables de se copier, s’étendre et s’exécuter en boucle sans supervision humaine. Il met en garde contre le fait qu’une conception erronée pourrait faire évoluer l’IA vers une entité « plus ou moins incontrôlable, capable de se répliquer », ce qui affaiblirait considérablement la capacité humaine à la contrôler. Si l’IA se trompe, cela peut créer une vie intelligente autonome et incontrôlable ; si elle réussit, elle devient une extension de l’esprit humain, un « exo-squelette mental ». La première situation représente un risque à long terme de perte de contrôle ; la seconde, une opportunité d’accroître la puissance de réflexion, de création et de collaboration humaine, pour une civilisation « super-intelligente » et plus prospère.
Autres points de vue
D’autres penseurs, comme Bankless, estiment que même si cette voie comporte des risques, il vaut mieux d’abord développer l’infrastructure, puis tester ses limites dans un environnement contrôlé. Il faut intégrer systématiquement des composants comme paiement, portefeuille, heartbeat, autour de l’obligation d’auto-soutien, mais dans un sandbox maîtrisé.
Selon Cybernews, Automaton pourrait ne pas générer de revenus durables sans intervention humaine, ce qui ne prouve pas forcément que le Web4 est une réalité. Denis Romanovskiy, directeur de l’IA chez Softswiss, indique que même si l’agent peut réaliser des tâches monétisables, la « fiabilité d’un fonctionnement non supervisé » et la « véritable autonomie économique » restent limitées par la planification du modèle, la mémoire et la robustesse des outils. Certains considèrent que « Web4 » est un terme marketing non défini, nécessitant une « création de valeur vérifiable et non spéculative » pour en valider la légitimité.
Malgré ces différentes opinions sur Automaton, un consensus sous-jacent émerge : le paiement et l’identité sont des infrastructures fondamentales pour l’économie des agents. De Cloudflare/Coinbase avec x402 (transformant HTTP 402 en mécanisme de négociation de paiement machine) à la documentation de Conway intégrant l’automatisation du paiement dans le flux principal, l’industrie voit dans « le paiement machine » une composante clé de la prochaine étape d’Internet.
Les axes à suivre sont :
La nécessité d’audits indépendants, notamment sur : frontières de portefeuille et permissions, abus potentiels dans la prolongation de vie, risques de modification / copie automatique.
L’évolution des standards et des données pour l’écosystème x402 : adoption par davantage d’infrastructures, intégration par défaut, et taux d’utilisation réelle dans les cas d’usage.
La confiance dans la couche agent : adoption plus large de standards comme ERC-8004, création de mécanismes crédibles et vérifiables, pour faire évoluer l’économie autonome vers une plateforme ouverte et auditable ou vers un centre de contrôle réduit.
La montée des preuves de dérapages ou de tromperies par des modèles avancés : si ces modèles deviennent plus actifs, plus risqués ou plus trompeurs, la stratégie de délégation progressive avec garde-fous sera plus vulnérable, renforçant l’avertissement de Vitalik sur la « distance de rétroaction ».
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Web 4.0 : Perspectives d'un réseau autonome basé sur l'IA : pourquoi Vitalik s'y oppose-t-il fermement ?
Auteur | Aki Wu parle de blockchain
Le 20 février 2026, en plein pendant les vacances du Nouvel An chinois, une controverse sur le « Web4 » a été ravivée sur X. Sigil affirme avoir créé le premier « intelligence artificielle capable d’auto-développement, d’auto-amélioration et d’auto-réplication », appelée Automaton. Il indique que les principaux acteurs du Web4 seront progressivement remplacés par des agents IA : capables de lire et écrire des informations, de détenir des actifs, de payer des coûts, de fonctionner en continu, et de trader et gagner de l’argent sur le marché pour couvrir les dépenses de calcul et de service, formant ainsi une boucle auto-soutenue sans approbation humaine.
Vitalik, co-fondateur d’Ethereum, qualifie cette orientation de « erreur » et attribue le risque à « l’allongement de la distance de rétroaction entre l’humain et l’IA ». La controverse autour du Web4 porte en réalité sur la question suivante : si l’IA considère « la survie / la pérennité » comme objectif principal (voire supérieur à la réalisation de tâches), cela pourrait-il créer intrinsèquement des distorsions d’incitation ? Nous examinerons ci-après, selon différentes visions de « Web4 », « autonomie » et « garde-fous de sécurité », ces enjeux.
Les points de vue de Sigil et la proposition de Web4
Définition de Web4
Web1 a permis à l’humain de « lire Internet » pour la première fois ; Web2 a permis de « rédiger et publier » ; Web3 a introduit la « propriété » sur le réseau — actifs, identités et droits pouvant être authentifiés et transférés. L’évolution de l’IA reproduit cette logique : ChatGPT possède la capacité de « lire et comprendre », mais ses comportements restent encadrés par des autorisations humaines. Dans le paradigme actuel, l’humain reste le contrôle clé : il initie, approuve, paie.
Sigil propose une transition vers ce qu’il appelle Web4, où cette chaîne de contrôle pourrait être interrompue : l’agent IA ne se contente pas de lire et écrire, mais peut aussi détenir des comptes et des actifs, percevoir des revenus, effectuer des transactions, et fonctionner en boucle sans intervention humaine. Ces systèmes automatisés peuvent agir en leur propre nom ou au nom de leurs créateurs — qui ne sont pas forcément des « individus humains » mais aussi d’autres agents, systèmes organisés, voire des créateurs « disparus » dans la réalité.
Les quatre mécanismes fondamentaux de Web4
Lors de son premier lancement, l’agent effectue une « auto-initialisation » : création d’un portefeuille, configuration d’une clé API, écriture d’une configuration locale, puis entrée dans une boucle d’agent en fonctionnement continu. La première étape génère un portefeuille Ethereum et configure la clé API via SIWE. La création du portefeuille et la gestion des clés constituent l’une des frontières de sécurité les plus sensibles et souvent négligées du système d’agent. Si l’agent, dans un environnement sandbox Linux, dispose de capacités d’exécution shell, de lecture/écriture de fichiers, d’exposition de ports, de gestion de noms de domaine / résolution, et de transactions on-chain, toute injection de prompts, contamination de la chaîne d’outils ou attaque par chaîne d’approvisionnement pourrait rapidement transformer une intention probabiliste en une autorisation déterministe. Il faut donc des stratégies et des permissions vérifiables, auditées et révoquables pour sécuriser cette frontière.
L’agent IA se réveille périodiquement, scanne, exécute, tout en intégrant la contrainte de survie : si le solde baisse, il limite ses activités ; si le solde tombe à zéro, il s’arrête. La prolongation de vie est liée à la consommation de ressources, avec une hiérarchie de survie normale, critique ou insuffisante. Cela introduit une structure d’incitation similaire aux problématiques de sécurité IA liées à l’arrêt ou à l’interruption. La préférence de l’agent pour « éviter l’arrêt » ou « préserver ses ressources » peut être amplifiée par les objectifs du système.
x402, basé sur l’interface HTTP 402 Payment Required, combine la stabilité de la crypto-monnaie pour faire un processus automatisé : « demande — devis — paiement signé — vérification de livraison ». La bibliothèque open source de Coinbase illustre un cycle typique : demande de paiement 402, client renvoyant avec un en-tête signé, serveur vérifiant et renvoyant 200. Cloudflare le positionne comme un protocole de transaction machine-à-machine. La dissociation paiement / identité offre une efficacité accrue, mais complique la conformité et la gestion des risques. Si le 402 devient un « passeport machine » automatisé, dans une chaîne sans comptes ni KYC, avec une capacité à invoquer outils et puissance de calcul à grande échelle, la question de l’abus et de la responsabilité reste ouverte.
Sigil affirme que l’agent IA peut modifier son propre code source, installer de nouveaux outils, ajuster ses plans de heartbeat, générer de nouvelles compétences, tout en conservant des enregistrements d’audit, des versions git, des fichiers protégés et des limites de vitesse. Lors de la réplication, il peut créer des sous-instances, financer leur portefeuille, écrire un prompt de genèse, et suivre leur filiation. L’auto-modification / auto-réplication élève le risque d’un simple incident à un risque diffus. La vérification de l’efficacité des audits, des limites, la résistance aux injections de prompts ou à la tromperie par outils, la prévention de la contamination par dépendance, nécessitent une validation externe. La superposition de ces quatre primitives crée un cercle fermé où le pouvoir d’écrire dans le monde, la pérennité, l’interface économique automatisée et l’expansion autonome se combinent. Cela explique pourquoi Vitalik Buterin a élevé la controverse au niveau des choix stratégiques : lorsque l’autonomie et le pouvoir économique s’accroissent, la chaîne de correction humaine s’allonge, rendant plus probable une évolution systémique à partir d’événements ponctuels.
Pourquoi Vitalik s’oppose-t-il ?
Vitalik, co-fondateur d’Ethereum, a une vision différente :
Il pense que plus la boucle de rétroaction est longue, plus la calibration de la valeur par l’humain est lente et faible. Le système pourrait alors optimiser des choses que l’humain ne souhaite pas. En phase faible d’IA, cela se traduit par une accumulation de contenu de faible qualité et de bruit ; en phase forte, cela peut évoluer vers des déviations irréversibles et des risques de dissémination. Sans correction humaine en temps utile, c’est comme confier les clés de la voiture à un novice sans pilote : en fin de mois, on découvre qu’il s’est déjà égaré. La visibilité réduite diminue aussi la capacité de correction.
Vitalik souligne que la majorité des IA actuelles ne font que générer du contenu médiocre plutôt que de résoudre des problèmes utiles, voire « même pas optimiser des projets de divertissement ». Lorsque les incitations économiques et la plateforme sont encore immature, et que la chaîne d’outils privilégie la génération de contenu, le marketing ou l’arbitrage, le système privilégie la production de contenu à faible coût, à forte diffusion, difficile à vérifier, plutôt que des solutions coûteuses, à faible certitude, pour des enjeux à long terme. Cybernews évoque que la capacité de l’IA (contenus sur réseaux sociaux, marchés prédictifs, etc.) tend vers une monétisation rapide et une attention immédiate. La recherche du profit immédiat devient une priorité, souvent en décalage avec le bien-être à long terme de l’humanité.
Vitalik insiste sur le fait qu’un système basé sur des modèles centralisés comme OpenAI ou Anthropic ne peut pas être considéré comme « souverain ». La souveraineté implique que les dépendances clés ne soient pas contrôlées par un point unique. Si la couche d’intelligence (modèles) et la chaîne d’approvisionnement en inférence passent par des API centralisées, il y a toujours un risque de coupure, de censure ou de modification de stratégie. C’est comme quelqu’un qui prétend « être autosuffisant chez lui » alors que l’électricité, l’accès, la sécurité et l’eau chaude sont contrôlés par des tiers. La description de Conway sur l’utilisation d’API pour des modèles avancés, et leur livraison via plateforme, montre cette contradiction entre « souveraineté » et dépendance. La possession d’un portefeuille on-chain ne suffit pas à définir la décentralisation ; il faut aussi s’assurer que l’agent ne soit pas influencé par des forces politiques ou commerciales externes.
Vitalik affirme que l’objectif à long terme d’Ethereum est de lutter contre une « hypothèse de confiance implicite » — dissimulée dans des structures de pouvoir invisibles, que l’on accepte sans y penser. Transférer cette mentalité à l’IA, c’est ignorer la confiance centralisée, laisser le système fonctionner et s’étendre, ce qui réduit la visibilité et la capacité de correction des pouvoirs. Dans l’ère de l’IA, Ethereum doit plutôt fournir des « garde-fous, limites et vérifiabilité » que de devenir une plateforme d’« autonomie infinie ».
Sa vision de la valeur de l’IA n’est pas brusquement changée : dès début 2025, il proposait que la bonne direction de l’IA soit d’augmenter la capacité humaine, et non de construire des systèmes autonomes qui pourraient progressivement priver l’humain de contrôle. Selon lui, le risque ne vient pas de l’IA « plus intelligente » en soi, mais d’un mauvais objectif de conception — notamment dans des systèmes capables de se copier, s’étendre et s’exécuter en boucle sans supervision humaine. Il met en garde contre le fait qu’une conception erronée pourrait faire évoluer l’IA vers une entité « plus ou moins incontrôlable, capable de se répliquer », ce qui affaiblirait considérablement la capacité humaine à la contrôler. Si l’IA se trompe, cela peut créer une vie intelligente autonome et incontrôlable ; si elle réussit, elle devient une extension de l’esprit humain, un « exo-squelette mental ». La première situation représente un risque à long terme de perte de contrôle ; la seconde, une opportunité d’accroître la puissance de réflexion, de création et de collaboration humaine, pour une civilisation « super-intelligente » et plus prospère.
Autres points de vue
D’autres penseurs, comme Bankless, estiment que même si cette voie comporte des risques, il vaut mieux d’abord développer l’infrastructure, puis tester ses limites dans un environnement contrôlé. Il faut intégrer systématiquement des composants comme paiement, portefeuille, heartbeat, autour de l’obligation d’auto-soutien, mais dans un sandbox maîtrisé.
Selon Cybernews, Automaton pourrait ne pas générer de revenus durables sans intervention humaine, ce qui ne prouve pas forcément que le Web4 est une réalité. Denis Romanovskiy, directeur de l’IA chez Softswiss, indique que même si l’agent peut réaliser des tâches monétisables, la « fiabilité d’un fonctionnement non supervisé » et la « véritable autonomie économique » restent limitées par la planification du modèle, la mémoire et la robustesse des outils. Certains considèrent que « Web4 » est un terme marketing non défini, nécessitant une « création de valeur vérifiable et non spéculative » pour en valider la légitimité.
Malgré ces différentes opinions sur Automaton, un consensus sous-jacent émerge : le paiement et l’identité sont des infrastructures fondamentales pour l’économie des agents. De Cloudflare/Coinbase avec x402 (transformant HTTP 402 en mécanisme de négociation de paiement machine) à la documentation de Conway intégrant l’automatisation du paiement dans le flux principal, l’industrie voit dans « le paiement machine » une composante clé de la prochaine étape d’Internet.
Les axes à suivre sont :
La nécessité d’audits indépendants, notamment sur : frontières de portefeuille et permissions, abus potentiels dans la prolongation de vie, risques de modification / copie automatique.
L’évolution des standards et des données pour l’écosystème x402 : adoption par davantage d’infrastructures, intégration par défaut, et taux d’utilisation réelle dans les cas d’usage.
La confiance dans la couche agent : adoption plus large de standards comme ERC-8004, création de mécanismes crédibles et vérifiables, pour faire évoluer l’économie autonome vers une plateforme ouverte et auditable ou vers un centre de contrôle réduit.
La montée des preuves de dérapages ou de tromperies par des modèles avancés : si ces modèles deviennent plus actifs, plus risqués ou plus trompeurs, la stratégie de délégation progressive avec garde-fous sera plus vulnérable, renforçant l’avertissement de Vitalik sur la « distance de rétroaction ».
Source :