Rapport de recherche : Examen de la manière dont SCP et AO influencent le monde hors chaîne à partir des premiers principes

Avancé1/15/2025, 11:37:32 AM
Cet article explorera en profondeur le concept et la conception architecturale d'AO, analysant comment il aborde les défis auxquels sont confrontées les chaînes de blocs publiques existantes comme Ethereum, apportant finalement de nouvelles opportunités de développement à Web3.

Points clés:

  1. De Bitcoin à Ethereum, comment pouvons-nous trouver le chemin optimal pour briser les limitations de débit et de scénarios?
  2. Partant des premiers principes, quelle est la clé pour percer à travers le bruit des mémés du marché et identifier les besoins fondamentaux de la blockchain?
  3. Quel genre de magie possèdent les principes d'innovation perturbatrice SCP et AO (orientés acteurs) (séparation du stockage et du calcul) qui peuvent permettre à Web3 de vraiment libérer son potentiel?
  4. Les résultats de l'exécution de programmes déterministes sur des données immuables seront-ils uniques et fiables ?
  5. Dans cette narration, pourquoi SCP et AO (Actor Oriented) peuvent-ils devenir des performances infinies, des données fiables et des guerriers hexagonaux composables ?

Introduction

[Source de données :Prix BTC]

Depuis la naissance de la blockchain en 2009, plus de 15 ans se sont écoulés. Comme un changement de paradigme dans la technologie numérique, elle enregistre les valeurs numériques et réseau, faisant de la cryptomonnaie une nouvelle innovation dans le paradigme capital.

En tant que premier-né, Bitcoin est prêt à devenir une réserve stratégique d'actifs. Lors de la conférence Bitcoin de 2024, Trump a pris un engagement, affirmant que s'il revient à la Maison Blanche, il veillera à ce que le gouvernement conserve 100% de ses avoirs en Bitcoin et le désigne comme une réserve stratégique d'actifs pour les États-Unis.

Après la victoire électorale de Trump, le Bitcoin a bondi de 150 %, son pic atteignant 107 287 $.

La victoire de Trump est clairement plus favorable à l'industrie de la cryptographie, car il a exprimé à plusieurs reprises un fort soutien aux cryptomonnaies.

Cependant, à court terme, la grande sensibilité des cryptomonnaies aux résultats des élections pourrait entraîner des pics de volatilité du marché à court terme. Cette forte dynamique haussière sera-t-elle durable ? L'auteur estime que ce n'est qu'en éliminant l'incertitude et en améliorant la scalabilité de la blockchain qu'un nouveau « mer Rouge » pourra être inauguré.

Les ombres derrière le boom «Web3» après l'élection américaine

[Source des données :DefiLlama]

Sous les projecteurs, la TVL (Total Value Locked) d'Ethereum, la deuxième plus grande cryptomonnaie en termes de capitalisation boursière, est restée stagnante depuis avoir atteint son pic historique en 2021.

Même au troisième trimestre de 2024, les revenus de la finance décentralisée (DeFi) d'Ethereum ont chuté à 261 millions de dollars, le niveau le plus bas depuis le T4 2020.

À première vue, il peut y avoir des pics occasionnels, mais la tendance générale montre un ralentissement de l'activité DeFi sur le réseau Ethereum.

De plus, le marché a vu l'émergence d'écosystèmes de blockchain entièrement alternatifs, tels que l'hyperliquid récemment populaire, une chaîne de trading basée sur un modèle de carnet d'ordres. Ses données ont connu une croissance rapide, avec une capitalisation boursière qui a grimpé dans le top 50 en seulement deux semaines. On s'attend à ce qu'il génère un chiffre d'affaires annuel qui se situe juste en dessous d'Ethereum, Solana et Tron parmi toutes les blockchains. Cela met indirectement en évidence la fatigue du DeFi traditionnel sur Ethereum, basé sur l'architecture AMM.

[Source des données :Volume de trading de Compound]

[Data source:Volume de trading Uniswap]

DeFi était autrefois le point central de l'écosystème Ethereum, mais en raison de frais de transaction réduits et d'une activité utilisateur moindre, ses revenus ont considérablement diminué.

En réponse, l'auteur essaie de contempler les raisons derrière les dilemmes actuels auxquels est confronté Ethereum, ou l'ensemble de la blockchain, et comment les surmonter.

Par coïncidence, avec le cinquième vol d'essai réussi de SpaceX, SpaceX est apparu comme une étoile montante de l'exploration spatiale commerciale. En regardant le chemin de développement de SpaceX, son succès peut être attribué à une méthodologie clé - les premiers principes. (Astuce : Le concept des premiers principes a été introduit pour la première fois par le philosophe grec antique Aristote il y a plus de 2 300 ans. Il a décrit les premiers principes comme « les propositions ou hypothèses les plus fondamentales dans chaque exploration du système, qui ne peuvent être omises, supprimées ou violées ».)

Maintenant, appliquons également la méthode des premiers principes, en dissipant le brouillard couche par couche, pour explorer les « atomes » fondamentaux de l’industrie de la blockchain. D’un point de vue fondamental, nous réexaminerons les dilemmes et les opportunités actuels auxquels cette industrie est confrontée.

Le « service Cloud » de Web3 est-il un pas en arrière ou l'avenir ?

Le "service cloud" de Web3 est-il un pas en arrière ou l'avenir ?

Lorsque le concept de AO (Actor Oriented) a été introduit, il a attiré une attention généralisée. Dans le contexte de l'homogénéisation croissante des blockchains publiques basées sur EVM, AO, en tant que conception architecturale perturbatrice, a montré un attrait unique.

Il ne s'agit pas simplement d'un concept théorique, mais une équipe le met déjà en pratique.

Comme mentionné précédemment, la plus grande valeur de la blockchain réside dans l'enregistrement de la valeur numérique. De ce point de vue, elle sert de registre public mondial transparent. Sur cette base, on peut soutenir que le premier principe de la blockchain est "l'entreposage".

AO est réalisé à travers un paradigme de consensus (SCP) basé sur le stockage. Tant que le stockage reste immuable, peu importe où se déroule le calcul, le résultat peut être garanti d'avoir un consensus. L'ordinateur global AO est né, permettant l'interconnexion et la collaboration du calcul parallèle à grande échelle.

En regardant en arrière sur 2024, l'un des événements les plus remarquables dans l'espace Web3 a été l'explosion de l'écosystème d'inscription, qui peut être considéré comme une pratique précoce de la séparation du stockage et du calcul. Par exemple, la technologie d'inscription utilisée par le protocole Runes permet d'intégrer de petites quantités de données dans les transactions Bitcoin. Bien que ces données n'affectent pas la fonction principale de la transaction, elles servent d'informations supplémentaires, formant une sortie claire, vérifiable et non consommable.

Bien que certains observateurs techniques aient initialement soulevé des préoccupations concernant la sécurité des inscriptions Bitcoin, craignant qu'elles ne deviennent des points d'entrée potentiels pour les attaques réseau,

au cours des deux dernières années, il a complètement stocké les données on-chain, et il n'y a eu aucune fourche de blockchain à ce jour. Cette stabilité prouve une fois de plus que tant que les données stockées ne sont pas altérées, peu importe où se produit le calcul, la cohérence et la sécurité des données peuvent être garanties.

Vous remarquerez peut-être que ceci est presque identique aux services cloud traditionnels. Par exemple:

En termes de gestion des ressources informatiques, dans l'architecture AO, un « Acteur » est une entité de calcul indépendante, et chaque unité de calcul peut exécuter son propre environnement. Cela ne ressemble-t-il pas aux microservices et à Docker dans les serveurs cloud traditionnels ? De même, les services cloud traditionnels s'appuient sur S3 ou NFS pour le stockage, tandis que AO s'appuie sur Arweave.

Cependant, réduire simplement AO à une "idée réchauffée" serait inexact. Bien que AO emprunte certains concepts de conception aux services cloud traditionnels, son cœur réside dans la combinaison du stockage décentralisé avec le calcul distribué. Arweave, en tant que réseau de stockage décentralisé, diffère fondamentalement du stockage centralisé traditionnel. Cette caractéristique décentralisée offre une sécurité et une résistance à la censure accrues aux données Web3.

Plus important encore, la combinaison de AO et Arweave n'est pas seulement une simple pile technique ; elle crée un nouveau paradigme. Ce paradigme allie les avantages de performance du calcul distribué à la fiabilité du stockage décentralisé, offrant ainsi une base solide pour l'innovation et le développement des applications Web3. Plus précisément, cette combinaison se reflète dans les deux aspects suivants :

  1. Parvenir à une conception entièrement décentralisée dans le système de stockage tout en garantissant des performances grâce à une architecture distribuée.
  2. Cette combinaison ne résout pas seulement certains défis fondamentaux dans l'espace Web3 (comme la sécurité du stockage et l'ouverture) mais fournit également les bases techniques pour une future innovation illimitée et composition.

Ce qui suit explorera en profondeur le concept et la conception architecturale de AO et analysera comment il aborde les dilemmes auxquels sont confrontées les chaînes de blocs publiques existantes comme Ethereum, apportant ainsi de nouvelles opportunités de développement à Web3.

Visualisation du dilemme actuel de Web3 du point de vue «atomique»

Depuis l'émergence d'Ethereum avec les smart contracts, il est sans aucun doute devenu la force dominante.

Certains pourraient demander, n'y a-t-il pas de Bitcoin? Cependant, il est important de noter que le Bitcoin a été créé comme un remplacement des monnaies traditionnelles, visant à devenir un système de trésorerie décentralisé et numérique. Ethereum, quant à lui, n'est pas seulement une crypto-monnaie; c'est une plateforme qui permet la création et l'exécution de contrats intelligents et d'applications décentralisées (DApps).

Dans l'ensemble, Bitcoin est une alternative numérique à la monnaie traditionnelle, avec un prix élevé mais pas nécessairement une valeur élevée. Ethereum, en revanche, ressemble davantage à une plateforme open source, offrant une valeur potentielle plus prometteuse en termes de richesse, et il représente mieux la vision conceptuelle actuelle d'un monde Web3 ouvert.

Depuis 2017, de nombreux projets ont tenté de défier Ethereum, mais très peu ont perduré. Les performances d'Ethereum ont longtemps été critiquées, ce qui a conduit à l'émergence de solutions de couche 2. Cependant, la croissance apparemment prospère de la couche 2 est en réalité une lutte désespérée face à l'adversité. À mesure que la concurrence s'intensifie, une série de problèmes ont progressivement émergé, devenant de sérieuses contraintes pour le développement de Web3 :

Il y a une limite supérieure aux performances et l'expérience utilisateur reste médiocre

[Data source:DeFiLlama]

[Data source: L2 BEAT]

Récemment, de plus en plus de personnes croient que le plan de mise à l'échelle de la couche 2 (L2) d'Ethereum a échoué.

Initialement, L2 était considéré comme une importante continuation de la sous-culture d'Ethereum dans sa stratégie de mise à l'échelle. Il était également soutenu par l'attente que L2 réduirait les frais de gaz et améliorerait le débit, entraînant une croissance à la fois du nombre d'utilisateurs et du volume des transactions. Cependant, malgré la réduction des frais de gaz, la croissance anticipée du nombre d'utilisateurs ne s'est pas concrétisée.

En fait, L2 est-il vraiment responsable de l'échec du plan de mise à l'échelle? Clairement, L2 est simplement un bouc émissaire. Bien qu'il porte une certaine responsabilité, la responsabilité principale incombe à Ethereum lui-même. De plus, ce résultat est un résultat inévitable des problèmes de conception sous-jacents de la plupart des chaînes Web3 d'aujourd'hui.

Pour expliquer cela d'un point de vue "atomique", L2 est responsable de la computation, tandis qu'Ethereum gère le stockage fondamental de la blockchain. Pour assurer une sécurité suffisante, Ethereum doit stocker des données et parvenir à un consensus.

Cependant, la conception d'Ethereum empêche les boucles infinies potentielles pendant l'exécution, ce qui pourrait entraîner l'arrêt de toute la plateforme. Par conséquent, l'exécution d'un contrat intelligent donné est limitée à un nombre fini d'étapes de calcul.

Cela conduit au paradoxe selon lequel L2 est conçu pour avoir des performances infinies, mais en réalité, les limitations de la chaîne principale lui imposent une limite.

L'effet d'étranglement dicte que L2 a une limite supérieure.

Pour une compréhension plus détaillée du mécanisme, les lecteurs peuvent explorer davantage en lisant : « De la DeFi traditionnelle à l’AgentFi : explorer l’avenir de la finance décentralisée. »

L'attrait limité des cas d'utilisation actuels

La plus grande réalisation d'Ethereum est l'écosystème florissant d'applications, où diverses applications décentralisées (DApps) sont développées.

Cependant, l'écosystème est-il vraiment aussi dynamique et diversifié qu'il y paraît?

De toute évidence, la réponse est non. Derrière l'écosystème d'application florissant d'Ethereum se trouve un environnement fortement financiarisé, avec un manque significatif d'applications non financières matures.

Jetons un coup d'œil aux secteurs d'application plus prospères sur Ethereum :

Tout d'abord, des concepts tels que les NFT, la DeFi, le GameFi et le SocialFi, bien qu'innovants sur le plan financier, ne sont pas encore adaptés au grand public. La raison pour laquelle le Web2 a connu une croissance si rapide réside dans sa fonctionnalité, qui est étroitement liée à la vie quotidienne des gens.

Par rapport aux produits et services financiers, les utilisateurs ordinaires sont plus préoccupés par des fonctionnalités telles que la messagerie, les interactions sociales, le streaming vidéo et le commerce électronique.

Deuxièmement, d'un point de vue concurrentiel, le prêt de crédit dans la finance traditionnelle est un produit très courant et répandu. Cependant, dans l'espace DeFi, ce type de produit est encore assez rare. La raison principale est le manque actuel d'un système de crédit hors-chaîne efficace.

Construire un système de crédit nécessite de permettre aux utilisateurs de vraiment posséder leurs profils personnels en ligne et leurs graphiques sociaux, qui peuvent transcender différentes applications.

Ce n'est que lorsque cette information décentralisée pourra être stockée et transmise sans frais qu'il sera possible de construire un puissant graphe d'informations personnelles Web3 et un système d'application Web3 basé sur le crédit.

Ici, nous réaffirmons un problème clé : l'échec de la couche 2 (L2) à attirer un nombre significatif d'utilisateurs n'est pas de sa faute. L2 n'a jamais été la force motrice principale. La véritable façon de surmonter le dilemme Web3 est d'innover de nouveaux scénarios d'application qui attirent les utilisateurs.

Cependant, la situation actuelle est comme être coincé dans la circulation des vacances - malgré les nombreuses idées innovantes, il est difficile de les faire avancer en raison des contraintes de performance des transactions.

L'essence de la blockchain est le « stockage ». Lorsque le stockage et le calcul sont couplés, il devient moins « atomique ». Dans une telle conception non authentique, il y aura inévitablement un plafond de performance.

Certains points de vue définissent l'essence de la blockchain comme une plate-forme de transaction, un système monétaire ou mettant l'accent sur la transparence et l'anonymat. Cependant, ces perspectives négligent les caractéristiques fondamentales de la blockchain en tant que structure de données et son potentiel d'application plus large. La blockchain n'est pas seulement destinée aux transactions financières ; son architecture lui permet de s'étendre à plusieurs secteurs, tels que la gestion de la chaîne d'approvisionnement, les dossiers médicaux et même la gestion des droits d'auteur.

Par conséquent, l'essence de la blockchain réside dans sa capacité à fonctionner comme un système de stockage. Ce n'est pas seulement parce qu'elle peut stocker des données en toute sécurité, mais aussi parce qu'elle garantit l'intégrité et la transparence des données grâce à un mécanisme de consensus distribué. Une fois qu'un bloc est ajouté à la chaîne, il est presque impossible de le modifier ou de le supprimer.

Infrastructure atomique: AO rend possible une performance infinie

[Data source:L2 TPS]

L'architecture de base de la blockchain fait face à un goulot d'étranglement évident : la limitation de l'espace de bloc. C'est comme un grand livre de taille fixe, où chaque transaction et chaque entrée de données doivent être enregistrées dans un bloc. Tant Ethereum que d'autres blockchains sont limités par les limites de taille de bloc, ce qui entraîne une concurrence pour l'espace entre les transactions. Cela soulève une question clé : pouvons-nous dépasser cette limitation ? L'espace de bloc doit-il toujours être limité ? Existe-t-il un moyen d'atteindre une véritable évolutivité infinie ?

Alors que la solution L2 d'Ethereum a réussi à améliorer les performances, on ne peut la considérer que comme un succès partiel. L2 a augmenté le débit de plusieurs ordres de grandeur, ce qui pourrait être suffisant pour gérer les pics de charge de transactions pour des projets individuels. Cependant, pour la plupart des solutions L2 qui dépendent du stockage et de la sécurité du consensus de la chaîne principale, ce niveau de scalabilité est loin d'être adéquat.

Il est important de noter que le TPS (transactions par seconde) de L2 ne peut pas être augmenté indéfiniment, principalement en raison des facteurs limitants suivants: disponibilité des données, vitesse de règlement, coûts de vérification, largeur de bande du réseau et complexité des contrats. Bien que les Rollups aient optimisé les besoins de stockage et de calcul sur Layer 1 (L1) grâce à la compression et à la validation, ils nécessitent toujours que les données soient soumises et vérifiées sur L1, ce qui les limite à la bande passante et au temps de blocage de L1. De plus, les coûts de calcul, tels que la génération de preuves à connaissance nulle, les goulots d'étranglement des performances des nœuds et les exigences d'exécution des contrats complexes, limitent également la scalabilité de L2.

[Data source: suiscan TPS]

Le véritable défi pour Web3 réside dans le débit limité et les applications insuffisantes, ce qui rend difficile d'attirer de nouveaux utilisateurs et risque de perdre de l'influence.

En termes simples, améliorer le débit est la clé d'un avenir prometteur pour Web3. Atteindre un réseau avec une évolutivité infinie et un débit élevé est sa vision. Par exemple, Sui utilise un traitement parallèle déterministe, arrangeant les transactions à l'avance pour éviter les conflits, améliorant ainsi la prévisibilité et l'évolutivité. Cette conception permet à Sui de gérer plus de 10 000 transactions par seconde (TPS). De plus, l'architecture de Sui permet d'augmenter le débit en ajoutant plus de nœuds de validation, atteignant théoriquement une évolutivité infinie. Son utilisation des protocoles Narwhal et Tusk réduit la latence, permettant un traitement efficace des transactions parallèles et surmontant les goulots d'étranglement d'évolutivité des solutions traditionnelles de couche 2.

Le concept AO que nous discutons suit un chemin similaire, en se concentrant sur différents aspects mais visant à construire un système de stockage évolutif.

Web3 nécessite une nouvelle infrastructure construite sur des principes fondamentaux, avec le stockage comme cœur. Tout comme Elon Musk a repensé les lancements de fusées et les véhicules électriques à partir de principes fondamentaux, en redessinant ces technologies complexes pour perturber les industries, la conception de AO reflète également cette approche. En dissociant le calcul du stockage, AO abandonne les cadres de blockchain traditionnels, créant des fondations de stockage Web3 orientées vers l'avenir et conduisant Web3 vers la vision de services cloud décentralisés.

Paradigme de consensus de stockage (SCP)

Avant de présenter AO, nous devons discuter d'un paradigme de conception relativement nouveau appelé SCP.

Bien que SCP puisse être inconnu pour beaucoup de personnes, la plupart des gens ont entendu parler des inscriptions Bitcoin. En termes généraux, le concept de conception derrière les inscriptions peut être considéré comme une forme de réflexion sur le stockage en tant qu'unité "atomique", bien qu'avec quelques écarts. Intéressant,Vitalik a également exprimé son intérêt à devenir le "ruban de papier" pour Web3, qui est en accord avec la philosophie derrière SCP.

Dans le modèle d'Ethereum, les calculs sont effectués par des nœuds complets, stockés de manière globale et mis à disposition pour des requêtes. Cette approche transforme Ethereum en un "ordinateur mondial" mais qui fonctionne comme un programme monofil, exécutant les étapes séquentiellement. Cette inefficacité inhérente crée également un terrain fertile pour la MEV (Valeur Maximale Extractible). Les signatures de transaction entrent dans le mempool d'Ethereum, sont diffusées publiquement et triées par les mineurs, généralement dans un délai de 12 secondes. Cependant, cette courte fenêtre est suffisante pour que les "chercheurs" interceptent, simulent et même rétro-ingénierie des stratégies potentielles. Plus d'informations sur ce sujet peuvent être explorées dans“Le paysage de la MEV un an après la fusion d'Ethereum.”

SCP, en revanche, sépare le calcul du stockage. Ce concept peut sembler abstrait, alors utilisons une analogie avec Web2.

Dans les scénarios Web2 tels que la messagerie ou les achats en ligne, un pic de trafic peut provoquer des surtensions qu'une seule machine ne peut gérer. Les ingénieurs ont résolu ce problème en répartissant les tâches de calcul sur plusieurs machines, en synchronisant et en stockant leurs résultats pour gérer le trafic de manière élastique. De même, SCP répartit les calculs entre les nœuds. Contrairement aux systèmes traditionnels qui utilisent des bases de données comme MySQL, SCP repose sur les mainnets de la blockchain pour le stockage.

En termes simples, SCP exploite la blockchain pour le stockage des données tandis que les serveurs hors chaîne gèrent le calcul et la génération de l'état. Cette architecture garantit la fiabilité des données tout en permettant un réseau à haute performance et en couches distinct du blockchain sous-jacent.

Dans SCP, la blockchain ne sert que de support de stockage, tandis que les clients ou serveurs hors chaîne effectuent tous les calculs et gèrent les états résultants. Cette conception améliore considérablement la scalabilité et les performances. Cependant, cela soulève une question clé : l'intégrité et la sécurité des données peuvent-elles être garanties lorsque les calculs et le stockage sont dissociés ?

Essentiellement, la blockchain agit comme une solution de stockage, avec le calcul déchargé vers les serveurs. Contrairement aux mécanismes de consensus traditionnels de la blockchain, SCP déplace le consensus hors-chaîne.

Avantages de cette approche

Sans processus de consensus complexes, chaque serveur se concentre exclusivement sur ses tâches de calcul, permettant un traitement des transactions quasi infini et une réduction des coûts opérationnels.

Bien que similaire aux solutions de scalabilité de rollup actuelles, l'ambition du SCP va plus loin. Il vise non seulement à résoudre la scalabilité de la blockchain, mais aussi à offrir un chemin transformateur de Web2 à Web3.

Quels sont les avantages de SCP? SCP découple le calcul du stockage. Cette conception non seulement améliore la flexibilité et la composition du système, mais abaisse également les barrières de développement, surmontant efficacement les limitations de performance des blockchains traditionnelles tout en garantissant la fiabilité des données. Ces innovations font de SCP une infrastructure efficace et évolutive qui renforce l'écosystème décentralisé de l'avenir.

  1. Composabilité :SCP place le calcul hors chaîne, préservant la nature fondamentale de la blockchain et maintenant ses attributs « atomiques ». Avec le calcul hors chaîne et la blockchain uniquement responsable du stockage, tout contrat intelligent peut être exécuté. La migration d'application basée sur SCP devient extrêmement simple, ce qui est un avantage crucial.
  2. Barrières de développement faibles :Le calcul hors chaîne permet aux développeurs d'utiliser n'importe quel langage de programmation, que ce soit C++, Python ou Rust, sans avoir besoin d'utiliser Solidity pour l'EVM. Le seul coût auquel les développeurs peuvent être confrontés est le coût de l'interaction avec l'API de la blockchain.
  3. Aucune restriction de performance: Le calcul hors chaîne aligne les capacités de calcul avec les applications traditionnelles. Le plafond de performance dépend des capacités matérielles des serveurs de calcul. Étant donné que la mise à l'échelle élastique des ressources informatiques traditionnelles est une technologie mature, la capacité de calcul est efficacement illimitée, à l'exception des coûts de la machine.
  4. Données de confiance :Puisque la fonction de base de "stockage" est gérée par la blockchain, toutes les données sont immuables et traçables. Tout nœud peut récupérer et recalculer les données lorsque la validité des résultats de l'état est remise en question, garantissant que la blockchain confère aux données une fiabilité.

Bitcoin a résolu le "Problème des Généraux Byzantins" en introduisant la preuve de travail (PoW), une approche révolutionnaire conçue par Satoshi Nakamoto dans les contraintes de l'époque, ce qui a finalement conduit au succès de Bitcoin.

De même, lorsque l'on aborde le calcul des contrats intelligents, partir des premiers principes peut aboutir à une solution apparemment contre-intuitive. Cependant, en décentralisant audacieusement les fonctions de calcul et en ramenant la blockchain à son essence fondamentale, on constate que le consensus de stockage est atteint tout en répondant simultanément aux exigences d'ouverture des données et de vérifiabilité. Cette approche offre des performances comparables à celles de Web2, incarnant l'essence de SCP.

Intégration SCP et AO : Se libérer des contraintes

Après toutes ces discussions, nous arrivons enfin à AO.

Tout d'abord, AO adopte un modèle de conception connu sous le nom de modèle d'acteur, qui a été initialement implémenté dans le langage de programmation Erlang.

L'architecture et la technologie derrière AO sont construites sur le paradigme SCP, séparant la couche de calcul de la couche de stockage. Cela permet à la couche de stockage de rester de manière permanente décentralisée, tandis que la couche de calcul conserve la structure de l'informatique traditionnelle.

Les ressources informatiques de AO ressemblent à celles des modèles informatiques traditionnels, mais intègrent une couche de stockage permanente, permettant des processus informatiques traçables et décentralisés.

À ce stade, vous pourriez vous demander, quelle chaîne principale AO utilise-t-elle pour sa couche de stockage?

Clairement, l'utilisation de Bitcoin ou Ethereum pour la couche de stockage serait impraticable. Les raisons en ont déjà été discutées précédemment et les lecteurs comprendront probablement facilement cela. Dans AO, le stockage des données et la vérifiabilité finale sont finalement gérés par Arweave.

Pourquoi choisir Arweave parmi les nombreuses solutions de stockage décentralisé ?

Le choix d'Arweave comme couche de stockage est principalement basé sur son accent unique sur le stockage de données permanentes au sein d'un réseau décentralisé. Arweave se positionne comme un "disque dur mondial où les données ne sont jamais perdues", en contraste avec le "grand livre mondial" de Bitcoin et l'"ordinateur mondial" d'Ethereum. Fondamentalement, Arweave fonctionne comme un disque dur mondial conçu pour ne jamais perdre de données.

Pour plus de détails techniques sur Arweave, consultez: “Comprendre Arweave: Une infrastructure clé de Web3

Ensuite, nous nous concentrerons sur la discussion des principes et des technologies de AO pour comprendre comment AO parvient à une computation infinie?

[Data source: Comment fonctionne Messenger | Manuel]

Le cœur de AO est de construire une couche de calcul infiniment évolutive et indépendante de l'environnement. Les nœuds de AO collaborent sur la base de protocoles et de mécanismes de communication, garantissant que chaque nœud fournit un service optimal pour éviter la consommation compétitive.

Tout d'abord, comprenons l'architecture de base d'AO. AO est composé de processus et de messages, ainsi que d'unités de planification (SU), d'unités de calcul (CU) et d'unités de messagerie (MU):

  • Process:L'unité de calcul des nœuds dans le réseau, utilisée pour le calcul des données et le traitement des messages. Par exemple, chaque contrat pourrait être un processus.
  • Message :Les processus interagissent par des messages, chaque message respectant la norme ANS-104. L'ensemble du système AO doit suivre cette norme.
  • Unité de planification (SU):Responsable de la numérotation des messages des processus, permettant de les ordonner et de télécharger les messages sur Arweave.
  • Unité de calcul (CU): Le nœud d'état au sein d'un processus AO, responsable de l'exécution des tâches de calcul et du renvoi des résultats calculés et des signatures au SU, garantissant la correction et la vérifiabilité des résultats.
  • Unité de messagerie (MU) :Le composant de routage dans le nœud, responsable de la livraison des messages de l'utilisateur à l'US et de l'exécution des vérifications d'intégrité sur les données signées.

Il est important de noter que AO n'a pas d'états partagés mais plutôt des états holographiques. Le consensus dans AO découle de la théorie des jeux. Étant donné que chaque calcul génère un état qui est téléchargé sur Arweave, cela garantit la vérifiabilité des données. Lorsque les utilisateurs ont des doutes sur certaines données, ils peuvent demander à un ou plusieurs nœuds de calculer les données sur Arweave. Si les résultats de règlement ne correspondent pas, les nœuds malhonnêtes seront pénalisés.

Innovation de l'Architecture AO : Stockage et État Holographique

L'innovation de l'architecture AO réside dans ses mécanismes de stockage et de vérification des données, qui remplacent les calculs redondants et l'espace limité des blocs caractéristiques des blockchains traditionnelles en utilisant un stockage décentralisé (Arweave) et des états holographiques.

  1. État holographique : Dans l'architecture AO, chaque calcul génère un « état holographique » qui est téléchargé sur le réseau de stockage décentralisé (Arweave). Cet « état holographique » n'est pas simplement un enregistrement de données de transaction ; il contient l'état complet et les données pertinentes de chaque calcul. Cela signifie que chaque calcul et son résultat sont enregistrés de manière permanente et peuvent être vérifiés à tout moment. L'état holographique, en tant que « capture instantanée de données », fournit au réseau une solution de stockage de données distribuée et décentralisée.
  2. Vérification du stockage: Dans ce modèle, la vérification des données ne repose plus sur chaque nœud répétant le calcul pour toutes les transactions. Au lieu de cela, elle est effectuée en stockant et en comparant les données téléchargées sur Arweave pour confirmer la validité des transactions. Lorsqu'un résultat de calcul d'un nœud ne correspond pas aux données stockées sur Arweave, les utilisateurs ou d'autres nœuds peuvent initier une demande de vérification. Le réseau recalculera alors les données et les comparera avec l'enregistrement stocké dans Arweave. Si les résultats ne correspondent pas, le nœud est pénalisé, garantissant ainsi l'intégrité du réseau.
  3. Dépasser la limitation de l'espace de bloc : L'espace de bloc de la blockchain traditionnelle est limité par des contraintes de stockage, chaque bloc ne pouvant contenir qu'un nombre limité de transactions. Cependant, dans l'architecture AO, les données ne sont plus stockées directement dans les blocs ; à la place, elles sont téléchargées sur un réseau de stockage décentralisé (comme Arweave). Cela signifie que le stockage et la vérification des données dans le réseau blockchain ne sont plus limités par la taille de l'espace de bloc, mais sont plutôt déchargés et étendus grâce au stockage décentralisé. En conséquence, la capacité du système blockchain n'est plus directement limitée par la taille du bloc.

Les limitations de l'espace de bloc des blockchains traditionnelles ne sont pas insurmontables. L'architecture AO, en s'appuyant sur le stockage décentralisé et les états holographiques, modifie la manière dont le stockage et la vérification des données sont gérés, rendant possible d'atteindre une évolutivité illimitée.

Le consensus dépend-il d'une computation redondante ?

Pas nécessairement. Les mécanismes de consensus ne doivent pas nécessairement reposer sur un calcul redondant, et ils peuvent être mis en œuvre de différentes manières. Des solutions qui dépendent du stockage plutôt que du calcul redondant sont réalisables dans certains scénarios, notamment lorsque l'intégrité et la cohérence des données peuvent être assurées par la vérification du stockage.

Dans l'architecture AO, le stockage sert d'alternative à la computation redondante. En téléchargeant les résultats de la computation sur un réseau de stockage décentralisé (Arweave dans ce cas), le système garantit l'immuabilité des données. De plus, grâce au téléchargement holographique des états, n'importe quel nœud peut vérifier les résultats de la computation à tout moment, garantissant la cohérence et la correction des données. Cette approche repose sur la fiabilité du stockage des données plutôt que sur la répétition de la computation par chaque nœud.

Maintenant, regardons les différences entre AO et ETH à travers un tableau :


Il est facile de voir que les caractéristiques centrales de AO peuvent être résumées en deux points clés:

  1. Calcul parallèle à grande échelle: prend en charge d'innombrables processus s'exécutant simultanément, améliorant considérablement la puissance de calcul.
  2. Dépendance minimisée à la confiance: Pas besoin de faire confiance à un seul nœud, car tous les résultats computationnels peuvent être reproduits indéfiniment et retracés.

Comment AO casse l'impasse : Ethereum et les dilemmes des chaînes de blocs publiques

Pour les deux principaux dilemmes auxquels Ethereum est confronté - les goulots d'étranglement de performance et le manque d'applications - je pense que c'est exactement là où AO brille. Les raisons sont les suivantes:

  1. Basé sur le paradigme SCP : Étant donné que AO sépare le calcul du stockage, il peut surpasser le modèle de calcul unique d'Ethereum. AO peut facilement s'adapter à davantage de ressources de calcul en fonction de la demande. De plus, le stockage d'état holographique des journaux de messages d'Arweave permet à AO de garantir le consensus en reproduisant les résultats de calcul, offrant une sécurité qui rivalise avec Ethereum et Bitcoin.
  2. Architecture de calcul parallèle basée sur le passage de messages : les interactions de processus d'AO ne nécessitent pas de se battre pour des "verrous". Dans le développement Web2, il est bien connu que les services haute performance évitent les conflits de verrouillage, car c'est très coûteux pour les services efficaces. AO évite les conflits de verrouillage grâce au passage de messages entre les processus, suivant ce principe. Cela permet à sa scalabilité d'atteindre n'importe quelle taille.
  3. Architecture modulaire : La modularité de AO se reflète dans la séparation de CU, SU et MU, permettant l'utilisation de n'importe quelle machine virtuelle ou séquenceur. Cela rend la migration et le développement de DApps à partir de différentes chaînes extrêmement pratiques et rentables. Associées à la capacité de stockage efficace d'Arweave, les DApps développées sur AO peuvent atteindre des fonctionnalités plus diverses. Par exemple, les graphiques de caractères peuvent être facilement réalisés sur AO.
  4. Soutien à l'adaptabilité de Web3 aux diverses exigences politiques : Bien que l'idée principale de Web3 soit la décentralisation et la déréglementation, les différentes politiques dans différents pays ont inévitablement un impact profond sur le développement et la promotion de Web3. L'architecture modulaire flexible de AO peut être adaptée aux politiques régionales différentes, garantissant ainsi dans une certaine mesure la stabilité et le développement durable des applications Web3.

Résumé

La séparation du calcul et du stockage est un concept brillant, et c'est une conception systématique basée sur les premiers principes.

Comme une direction narrative similaire aux "services cloud décentralisés", elle offre non seulement un scénario d'atterrissage solide mais aussi un espace imaginaire plus large pour se combiner avec l'IA.

En fait, ce n'est qu'en comprenant vraiment les besoins fondamentaux de Web3 que nous pouvons nous libérer des dilemmes et des contraintes engendrés par la dépendance au chemin.

L'intégration de SCP et AO offre une toute nouvelle approche : elle hérite de toutes les fonctionnalités de SCP, ne déploie plus de contrats intelligents on-chain mais stocke plutôt des données immuables et traçables off-chain, ce qui permet d'atteindre la fiabilité des données que tout le monde peut vérifier.

Bien sûr, il n'y a pas de chemin absolument parfait pour le moment. AO en est encore à ses débuts. Comment empêcher Web3 d'être trop financiarisé, créer suffisamment de scénarios d'application et apporter plus de possibilités pour l'avenir reste un défi sur la route du succès d'AO. Que AO puisse fournir une réponse satisfaisante reste à voir par le marché et le temps.

La combinaison de SCP et AO, en tant que paradigme de développement plein de potentiel, bien que ses idées n'aient pas encore été largement reconnues sur le marché, on s'attend à ce que AO joue un rôle important dans le domaine de Web3 à l'avenir, voire qu'il entraîne le développement ultérieur de Web3.

Avertissement:

  1. Cet article est reproduit à partir de [PermaDAO]. Tous les droits d'auteur appartiennent à l'auteur original [14]. S'il y a des objections à cette reproduction, veuillez contacter le Portail Apprendreéquipe, et ils s'en occuperont rapidement.
  2. Avertissement de responsabilité : Les points de vue et opinions exprimés dans cet article sont uniquement ceux de l'auteur et ne constituent aucun conseil en investissement.
  3. L'équipe Gate Learn effectue des traductions de l'article dans d'autres langues. Sauf mention contraire, la copie, la distribution ou le plagiat des articles traduits est interdit.

Rapport de recherche : Examen de la manière dont SCP et AO influencent le monde hors chaîne à partir des premiers principes

Avancé1/15/2025, 11:37:32 AM
Cet article explorera en profondeur le concept et la conception architecturale d'AO, analysant comment il aborde les défis auxquels sont confrontées les chaînes de blocs publiques existantes comme Ethereum, apportant finalement de nouvelles opportunités de développement à Web3.

Points clés:

  1. De Bitcoin à Ethereum, comment pouvons-nous trouver le chemin optimal pour briser les limitations de débit et de scénarios?
  2. Partant des premiers principes, quelle est la clé pour percer à travers le bruit des mémés du marché et identifier les besoins fondamentaux de la blockchain?
  3. Quel genre de magie possèdent les principes d'innovation perturbatrice SCP et AO (orientés acteurs) (séparation du stockage et du calcul) qui peuvent permettre à Web3 de vraiment libérer son potentiel?
  4. Les résultats de l'exécution de programmes déterministes sur des données immuables seront-ils uniques et fiables ?
  5. Dans cette narration, pourquoi SCP et AO (Actor Oriented) peuvent-ils devenir des performances infinies, des données fiables et des guerriers hexagonaux composables ?

Introduction

[Source de données :Prix BTC]

Depuis la naissance de la blockchain en 2009, plus de 15 ans se sont écoulés. Comme un changement de paradigme dans la technologie numérique, elle enregistre les valeurs numériques et réseau, faisant de la cryptomonnaie une nouvelle innovation dans le paradigme capital.

En tant que premier-né, Bitcoin est prêt à devenir une réserve stratégique d'actifs. Lors de la conférence Bitcoin de 2024, Trump a pris un engagement, affirmant que s'il revient à la Maison Blanche, il veillera à ce que le gouvernement conserve 100% de ses avoirs en Bitcoin et le désigne comme une réserve stratégique d'actifs pour les États-Unis.

Après la victoire électorale de Trump, le Bitcoin a bondi de 150 %, son pic atteignant 107 287 $.

La victoire de Trump est clairement plus favorable à l'industrie de la cryptographie, car il a exprimé à plusieurs reprises un fort soutien aux cryptomonnaies.

Cependant, à court terme, la grande sensibilité des cryptomonnaies aux résultats des élections pourrait entraîner des pics de volatilité du marché à court terme. Cette forte dynamique haussière sera-t-elle durable ? L'auteur estime que ce n'est qu'en éliminant l'incertitude et en améliorant la scalabilité de la blockchain qu'un nouveau « mer Rouge » pourra être inauguré.

Les ombres derrière le boom «Web3» après l'élection américaine

[Source des données :DefiLlama]

Sous les projecteurs, la TVL (Total Value Locked) d'Ethereum, la deuxième plus grande cryptomonnaie en termes de capitalisation boursière, est restée stagnante depuis avoir atteint son pic historique en 2021.

Même au troisième trimestre de 2024, les revenus de la finance décentralisée (DeFi) d'Ethereum ont chuté à 261 millions de dollars, le niveau le plus bas depuis le T4 2020.

À première vue, il peut y avoir des pics occasionnels, mais la tendance générale montre un ralentissement de l'activité DeFi sur le réseau Ethereum.

De plus, le marché a vu l'émergence d'écosystèmes de blockchain entièrement alternatifs, tels que l'hyperliquid récemment populaire, une chaîne de trading basée sur un modèle de carnet d'ordres. Ses données ont connu une croissance rapide, avec une capitalisation boursière qui a grimpé dans le top 50 en seulement deux semaines. On s'attend à ce qu'il génère un chiffre d'affaires annuel qui se situe juste en dessous d'Ethereum, Solana et Tron parmi toutes les blockchains. Cela met indirectement en évidence la fatigue du DeFi traditionnel sur Ethereum, basé sur l'architecture AMM.

[Source des données :Volume de trading de Compound]

[Data source:Volume de trading Uniswap]

DeFi était autrefois le point central de l'écosystème Ethereum, mais en raison de frais de transaction réduits et d'une activité utilisateur moindre, ses revenus ont considérablement diminué.

En réponse, l'auteur essaie de contempler les raisons derrière les dilemmes actuels auxquels est confronté Ethereum, ou l'ensemble de la blockchain, et comment les surmonter.

Par coïncidence, avec le cinquième vol d'essai réussi de SpaceX, SpaceX est apparu comme une étoile montante de l'exploration spatiale commerciale. En regardant le chemin de développement de SpaceX, son succès peut être attribué à une méthodologie clé - les premiers principes. (Astuce : Le concept des premiers principes a été introduit pour la première fois par le philosophe grec antique Aristote il y a plus de 2 300 ans. Il a décrit les premiers principes comme « les propositions ou hypothèses les plus fondamentales dans chaque exploration du système, qui ne peuvent être omises, supprimées ou violées ».)

Maintenant, appliquons également la méthode des premiers principes, en dissipant le brouillard couche par couche, pour explorer les « atomes » fondamentaux de l’industrie de la blockchain. D’un point de vue fondamental, nous réexaminerons les dilemmes et les opportunités actuels auxquels cette industrie est confrontée.

Le « service Cloud » de Web3 est-il un pas en arrière ou l'avenir ?

Le "service cloud" de Web3 est-il un pas en arrière ou l'avenir ?

Lorsque le concept de AO (Actor Oriented) a été introduit, il a attiré une attention généralisée. Dans le contexte de l'homogénéisation croissante des blockchains publiques basées sur EVM, AO, en tant que conception architecturale perturbatrice, a montré un attrait unique.

Il ne s'agit pas simplement d'un concept théorique, mais une équipe le met déjà en pratique.

Comme mentionné précédemment, la plus grande valeur de la blockchain réside dans l'enregistrement de la valeur numérique. De ce point de vue, elle sert de registre public mondial transparent. Sur cette base, on peut soutenir que le premier principe de la blockchain est "l'entreposage".

AO est réalisé à travers un paradigme de consensus (SCP) basé sur le stockage. Tant que le stockage reste immuable, peu importe où se déroule le calcul, le résultat peut être garanti d'avoir un consensus. L'ordinateur global AO est né, permettant l'interconnexion et la collaboration du calcul parallèle à grande échelle.

En regardant en arrière sur 2024, l'un des événements les plus remarquables dans l'espace Web3 a été l'explosion de l'écosystème d'inscription, qui peut être considéré comme une pratique précoce de la séparation du stockage et du calcul. Par exemple, la technologie d'inscription utilisée par le protocole Runes permet d'intégrer de petites quantités de données dans les transactions Bitcoin. Bien que ces données n'affectent pas la fonction principale de la transaction, elles servent d'informations supplémentaires, formant une sortie claire, vérifiable et non consommable.

Bien que certains observateurs techniques aient initialement soulevé des préoccupations concernant la sécurité des inscriptions Bitcoin, craignant qu'elles ne deviennent des points d'entrée potentiels pour les attaques réseau,

au cours des deux dernières années, il a complètement stocké les données on-chain, et il n'y a eu aucune fourche de blockchain à ce jour. Cette stabilité prouve une fois de plus que tant que les données stockées ne sont pas altérées, peu importe où se produit le calcul, la cohérence et la sécurité des données peuvent être garanties.

Vous remarquerez peut-être que ceci est presque identique aux services cloud traditionnels. Par exemple:

En termes de gestion des ressources informatiques, dans l'architecture AO, un « Acteur » est une entité de calcul indépendante, et chaque unité de calcul peut exécuter son propre environnement. Cela ne ressemble-t-il pas aux microservices et à Docker dans les serveurs cloud traditionnels ? De même, les services cloud traditionnels s'appuient sur S3 ou NFS pour le stockage, tandis que AO s'appuie sur Arweave.

Cependant, réduire simplement AO à une "idée réchauffée" serait inexact. Bien que AO emprunte certains concepts de conception aux services cloud traditionnels, son cœur réside dans la combinaison du stockage décentralisé avec le calcul distribué. Arweave, en tant que réseau de stockage décentralisé, diffère fondamentalement du stockage centralisé traditionnel. Cette caractéristique décentralisée offre une sécurité et une résistance à la censure accrues aux données Web3.

Plus important encore, la combinaison de AO et Arweave n'est pas seulement une simple pile technique ; elle crée un nouveau paradigme. Ce paradigme allie les avantages de performance du calcul distribué à la fiabilité du stockage décentralisé, offrant ainsi une base solide pour l'innovation et le développement des applications Web3. Plus précisément, cette combinaison se reflète dans les deux aspects suivants :

  1. Parvenir à une conception entièrement décentralisée dans le système de stockage tout en garantissant des performances grâce à une architecture distribuée.
  2. Cette combinaison ne résout pas seulement certains défis fondamentaux dans l'espace Web3 (comme la sécurité du stockage et l'ouverture) mais fournit également les bases techniques pour une future innovation illimitée et composition.

Ce qui suit explorera en profondeur le concept et la conception architecturale de AO et analysera comment il aborde les dilemmes auxquels sont confrontées les chaînes de blocs publiques existantes comme Ethereum, apportant ainsi de nouvelles opportunités de développement à Web3.

Visualisation du dilemme actuel de Web3 du point de vue «atomique»

Depuis l'émergence d'Ethereum avec les smart contracts, il est sans aucun doute devenu la force dominante.

Certains pourraient demander, n'y a-t-il pas de Bitcoin? Cependant, il est important de noter que le Bitcoin a été créé comme un remplacement des monnaies traditionnelles, visant à devenir un système de trésorerie décentralisé et numérique. Ethereum, quant à lui, n'est pas seulement une crypto-monnaie; c'est une plateforme qui permet la création et l'exécution de contrats intelligents et d'applications décentralisées (DApps).

Dans l'ensemble, Bitcoin est une alternative numérique à la monnaie traditionnelle, avec un prix élevé mais pas nécessairement une valeur élevée. Ethereum, en revanche, ressemble davantage à une plateforme open source, offrant une valeur potentielle plus prometteuse en termes de richesse, et il représente mieux la vision conceptuelle actuelle d'un monde Web3 ouvert.

Depuis 2017, de nombreux projets ont tenté de défier Ethereum, mais très peu ont perduré. Les performances d'Ethereum ont longtemps été critiquées, ce qui a conduit à l'émergence de solutions de couche 2. Cependant, la croissance apparemment prospère de la couche 2 est en réalité une lutte désespérée face à l'adversité. À mesure que la concurrence s'intensifie, une série de problèmes ont progressivement émergé, devenant de sérieuses contraintes pour le développement de Web3 :

Il y a une limite supérieure aux performances et l'expérience utilisateur reste médiocre

[Data source:DeFiLlama]

[Data source: L2 BEAT]

Récemment, de plus en plus de personnes croient que le plan de mise à l'échelle de la couche 2 (L2) d'Ethereum a échoué.

Initialement, L2 était considéré comme une importante continuation de la sous-culture d'Ethereum dans sa stratégie de mise à l'échelle. Il était également soutenu par l'attente que L2 réduirait les frais de gaz et améliorerait le débit, entraînant une croissance à la fois du nombre d'utilisateurs et du volume des transactions. Cependant, malgré la réduction des frais de gaz, la croissance anticipée du nombre d'utilisateurs ne s'est pas concrétisée.

En fait, L2 est-il vraiment responsable de l'échec du plan de mise à l'échelle? Clairement, L2 est simplement un bouc émissaire. Bien qu'il porte une certaine responsabilité, la responsabilité principale incombe à Ethereum lui-même. De plus, ce résultat est un résultat inévitable des problèmes de conception sous-jacents de la plupart des chaînes Web3 d'aujourd'hui.

Pour expliquer cela d'un point de vue "atomique", L2 est responsable de la computation, tandis qu'Ethereum gère le stockage fondamental de la blockchain. Pour assurer une sécurité suffisante, Ethereum doit stocker des données et parvenir à un consensus.

Cependant, la conception d'Ethereum empêche les boucles infinies potentielles pendant l'exécution, ce qui pourrait entraîner l'arrêt de toute la plateforme. Par conséquent, l'exécution d'un contrat intelligent donné est limitée à un nombre fini d'étapes de calcul.

Cela conduit au paradoxe selon lequel L2 est conçu pour avoir des performances infinies, mais en réalité, les limitations de la chaîne principale lui imposent une limite.

L'effet d'étranglement dicte que L2 a une limite supérieure.

Pour une compréhension plus détaillée du mécanisme, les lecteurs peuvent explorer davantage en lisant : « De la DeFi traditionnelle à l’AgentFi : explorer l’avenir de la finance décentralisée. »

L'attrait limité des cas d'utilisation actuels

La plus grande réalisation d'Ethereum est l'écosystème florissant d'applications, où diverses applications décentralisées (DApps) sont développées.

Cependant, l'écosystème est-il vraiment aussi dynamique et diversifié qu'il y paraît?

De toute évidence, la réponse est non. Derrière l'écosystème d'application florissant d'Ethereum se trouve un environnement fortement financiarisé, avec un manque significatif d'applications non financières matures.

Jetons un coup d'œil aux secteurs d'application plus prospères sur Ethereum :

Tout d'abord, des concepts tels que les NFT, la DeFi, le GameFi et le SocialFi, bien qu'innovants sur le plan financier, ne sont pas encore adaptés au grand public. La raison pour laquelle le Web2 a connu une croissance si rapide réside dans sa fonctionnalité, qui est étroitement liée à la vie quotidienne des gens.

Par rapport aux produits et services financiers, les utilisateurs ordinaires sont plus préoccupés par des fonctionnalités telles que la messagerie, les interactions sociales, le streaming vidéo et le commerce électronique.

Deuxièmement, d'un point de vue concurrentiel, le prêt de crédit dans la finance traditionnelle est un produit très courant et répandu. Cependant, dans l'espace DeFi, ce type de produit est encore assez rare. La raison principale est le manque actuel d'un système de crédit hors-chaîne efficace.

Construire un système de crédit nécessite de permettre aux utilisateurs de vraiment posséder leurs profils personnels en ligne et leurs graphiques sociaux, qui peuvent transcender différentes applications.

Ce n'est que lorsque cette information décentralisée pourra être stockée et transmise sans frais qu'il sera possible de construire un puissant graphe d'informations personnelles Web3 et un système d'application Web3 basé sur le crédit.

Ici, nous réaffirmons un problème clé : l'échec de la couche 2 (L2) à attirer un nombre significatif d'utilisateurs n'est pas de sa faute. L2 n'a jamais été la force motrice principale. La véritable façon de surmonter le dilemme Web3 est d'innover de nouveaux scénarios d'application qui attirent les utilisateurs.

Cependant, la situation actuelle est comme être coincé dans la circulation des vacances - malgré les nombreuses idées innovantes, il est difficile de les faire avancer en raison des contraintes de performance des transactions.

L'essence de la blockchain est le « stockage ». Lorsque le stockage et le calcul sont couplés, il devient moins « atomique ». Dans une telle conception non authentique, il y aura inévitablement un plafond de performance.

Certains points de vue définissent l'essence de la blockchain comme une plate-forme de transaction, un système monétaire ou mettant l'accent sur la transparence et l'anonymat. Cependant, ces perspectives négligent les caractéristiques fondamentales de la blockchain en tant que structure de données et son potentiel d'application plus large. La blockchain n'est pas seulement destinée aux transactions financières ; son architecture lui permet de s'étendre à plusieurs secteurs, tels que la gestion de la chaîne d'approvisionnement, les dossiers médicaux et même la gestion des droits d'auteur.

Par conséquent, l'essence de la blockchain réside dans sa capacité à fonctionner comme un système de stockage. Ce n'est pas seulement parce qu'elle peut stocker des données en toute sécurité, mais aussi parce qu'elle garantit l'intégrité et la transparence des données grâce à un mécanisme de consensus distribué. Une fois qu'un bloc est ajouté à la chaîne, il est presque impossible de le modifier ou de le supprimer.

Infrastructure atomique: AO rend possible une performance infinie

[Data source:L2 TPS]

L'architecture de base de la blockchain fait face à un goulot d'étranglement évident : la limitation de l'espace de bloc. C'est comme un grand livre de taille fixe, où chaque transaction et chaque entrée de données doivent être enregistrées dans un bloc. Tant Ethereum que d'autres blockchains sont limités par les limites de taille de bloc, ce qui entraîne une concurrence pour l'espace entre les transactions. Cela soulève une question clé : pouvons-nous dépasser cette limitation ? L'espace de bloc doit-il toujours être limité ? Existe-t-il un moyen d'atteindre une véritable évolutivité infinie ?

Alors que la solution L2 d'Ethereum a réussi à améliorer les performances, on ne peut la considérer que comme un succès partiel. L2 a augmenté le débit de plusieurs ordres de grandeur, ce qui pourrait être suffisant pour gérer les pics de charge de transactions pour des projets individuels. Cependant, pour la plupart des solutions L2 qui dépendent du stockage et de la sécurité du consensus de la chaîne principale, ce niveau de scalabilité est loin d'être adéquat.

Il est important de noter que le TPS (transactions par seconde) de L2 ne peut pas être augmenté indéfiniment, principalement en raison des facteurs limitants suivants: disponibilité des données, vitesse de règlement, coûts de vérification, largeur de bande du réseau et complexité des contrats. Bien que les Rollups aient optimisé les besoins de stockage et de calcul sur Layer 1 (L1) grâce à la compression et à la validation, ils nécessitent toujours que les données soient soumises et vérifiées sur L1, ce qui les limite à la bande passante et au temps de blocage de L1. De plus, les coûts de calcul, tels que la génération de preuves à connaissance nulle, les goulots d'étranglement des performances des nœuds et les exigences d'exécution des contrats complexes, limitent également la scalabilité de L2.

[Data source: suiscan TPS]

Le véritable défi pour Web3 réside dans le débit limité et les applications insuffisantes, ce qui rend difficile d'attirer de nouveaux utilisateurs et risque de perdre de l'influence.

En termes simples, améliorer le débit est la clé d'un avenir prometteur pour Web3. Atteindre un réseau avec une évolutivité infinie et un débit élevé est sa vision. Par exemple, Sui utilise un traitement parallèle déterministe, arrangeant les transactions à l'avance pour éviter les conflits, améliorant ainsi la prévisibilité et l'évolutivité. Cette conception permet à Sui de gérer plus de 10 000 transactions par seconde (TPS). De plus, l'architecture de Sui permet d'augmenter le débit en ajoutant plus de nœuds de validation, atteignant théoriquement une évolutivité infinie. Son utilisation des protocoles Narwhal et Tusk réduit la latence, permettant un traitement efficace des transactions parallèles et surmontant les goulots d'étranglement d'évolutivité des solutions traditionnelles de couche 2.

Le concept AO que nous discutons suit un chemin similaire, en se concentrant sur différents aspects mais visant à construire un système de stockage évolutif.

Web3 nécessite une nouvelle infrastructure construite sur des principes fondamentaux, avec le stockage comme cœur. Tout comme Elon Musk a repensé les lancements de fusées et les véhicules électriques à partir de principes fondamentaux, en redessinant ces technologies complexes pour perturber les industries, la conception de AO reflète également cette approche. En dissociant le calcul du stockage, AO abandonne les cadres de blockchain traditionnels, créant des fondations de stockage Web3 orientées vers l'avenir et conduisant Web3 vers la vision de services cloud décentralisés.

Paradigme de consensus de stockage (SCP)

Avant de présenter AO, nous devons discuter d'un paradigme de conception relativement nouveau appelé SCP.

Bien que SCP puisse être inconnu pour beaucoup de personnes, la plupart des gens ont entendu parler des inscriptions Bitcoin. En termes généraux, le concept de conception derrière les inscriptions peut être considéré comme une forme de réflexion sur le stockage en tant qu'unité "atomique", bien qu'avec quelques écarts. Intéressant,Vitalik a également exprimé son intérêt à devenir le "ruban de papier" pour Web3, qui est en accord avec la philosophie derrière SCP.

Dans le modèle d'Ethereum, les calculs sont effectués par des nœuds complets, stockés de manière globale et mis à disposition pour des requêtes. Cette approche transforme Ethereum en un "ordinateur mondial" mais qui fonctionne comme un programme monofil, exécutant les étapes séquentiellement. Cette inefficacité inhérente crée également un terrain fertile pour la MEV (Valeur Maximale Extractible). Les signatures de transaction entrent dans le mempool d'Ethereum, sont diffusées publiquement et triées par les mineurs, généralement dans un délai de 12 secondes. Cependant, cette courte fenêtre est suffisante pour que les "chercheurs" interceptent, simulent et même rétro-ingénierie des stratégies potentielles. Plus d'informations sur ce sujet peuvent être explorées dans“Le paysage de la MEV un an après la fusion d'Ethereum.”

SCP, en revanche, sépare le calcul du stockage. Ce concept peut sembler abstrait, alors utilisons une analogie avec Web2.

Dans les scénarios Web2 tels que la messagerie ou les achats en ligne, un pic de trafic peut provoquer des surtensions qu'une seule machine ne peut gérer. Les ingénieurs ont résolu ce problème en répartissant les tâches de calcul sur plusieurs machines, en synchronisant et en stockant leurs résultats pour gérer le trafic de manière élastique. De même, SCP répartit les calculs entre les nœuds. Contrairement aux systèmes traditionnels qui utilisent des bases de données comme MySQL, SCP repose sur les mainnets de la blockchain pour le stockage.

En termes simples, SCP exploite la blockchain pour le stockage des données tandis que les serveurs hors chaîne gèrent le calcul et la génération de l'état. Cette architecture garantit la fiabilité des données tout en permettant un réseau à haute performance et en couches distinct du blockchain sous-jacent.

Dans SCP, la blockchain ne sert que de support de stockage, tandis que les clients ou serveurs hors chaîne effectuent tous les calculs et gèrent les états résultants. Cette conception améliore considérablement la scalabilité et les performances. Cependant, cela soulève une question clé : l'intégrité et la sécurité des données peuvent-elles être garanties lorsque les calculs et le stockage sont dissociés ?

Essentiellement, la blockchain agit comme une solution de stockage, avec le calcul déchargé vers les serveurs. Contrairement aux mécanismes de consensus traditionnels de la blockchain, SCP déplace le consensus hors-chaîne.

Avantages de cette approche

Sans processus de consensus complexes, chaque serveur se concentre exclusivement sur ses tâches de calcul, permettant un traitement des transactions quasi infini et une réduction des coûts opérationnels.

Bien que similaire aux solutions de scalabilité de rollup actuelles, l'ambition du SCP va plus loin. Il vise non seulement à résoudre la scalabilité de la blockchain, mais aussi à offrir un chemin transformateur de Web2 à Web3.

Quels sont les avantages de SCP? SCP découple le calcul du stockage. Cette conception non seulement améliore la flexibilité et la composition du système, mais abaisse également les barrières de développement, surmontant efficacement les limitations de performance des blockchains traditionnelles tout en garantissant la fiabilité des données. Ces innovations font de SCP une infrastructure efficace et évolutive qui renforce l'écosystème décentralisé de l'avenir.

  1. Composabilité :SCP place le calcul hors chaîne, préservant la nature fondamentale de la blockchain et maintenant ses attributs « atomiques ». Avec le calcul hors chaîne et la blockchain uniquement responsable du stockage, tout contrat intelligent peut être exécuté. La migration d'application basée sur SCP devient extrêmement simple, ce qui est un avantage crucial.
  2. Barrières de développement faibles :Le calcul hors chaîne permet aux développeurs d'utiliser n'importe quel langage de programmation, que ce soit C++, Python ou Rust, sans avoir besoin d'utiliser Solidity pour l'EVM. Le seul coût auquel les développeurs peuvent être confrontés est le coût de l'interaction avec l'API de la blockchain.
  3. Aucune restriction de performance: Le calcul hors chaîne aligne les capacités de calcul avec les applications traditionnelles. Le plafond de performance dépend des capacités matérielles des serveurs de calcul. Étant donné que la mise à l'échelle élastique des ressources informatiques traditionnelles est une technologie mature, la capacité de calcul est efficacement illimitée, à l'exception des coûts de la machine.
  4. Données de confiance :Puisque la fonction de base de "stockage" est gérée par la blockchain, toutes les données sont immuables et traçables. Tout nœud peut récupérer et recalculer les données lorsque la validité des résultats de l'état est remise en question, garantissant que la blockchain confère aux données une fiabilité.

Bitcoin a résolu le "Problème des Généraux Byzantins" en introduisant la preuve de travail (PoW), une approche révolutionnaire conçue par Satoshi Nakamoto dans les contraintes de l'époque, ce qui a finalement conduit au succès de Bitcoin.

De même, lorsque l'on aborde le calcul des contrats intelligents, partir des premiers principes peut aboutir à une solution apparemment contre-intuitive. Cependant, en décentralisant audacieusement les fonctions de calcul et en ramenant la blockchain à son essence fondamentale, on constate que le consensus de stockage est atteint tout en répondant simultanément aux exigences d'ouverture des données et de vérifiabilité. Cette approche offre des performances comparables à celles de Web2, incarnant l'essence de SCP.

Intégration SCP et AO : Se libérer des contraintes

Après toutes ces discussions, nous arrivons enfin à AO.

Tout d'abord, AO adopte un modèle de conception connu sous le nom de modèle d'acteur, qui a été initialement implémenté dans le langage de programmation Erlang.

L'architecture et la technologie derrière AO sont construites sur le paradigme SCP, séparant la couche de calcul de la couche de stockage. Cela permet à la couche de stockage de rester de manière permanente décentralisée, tandis que la couche de calcul conserve la structure de l'informatique traditionnelle.

Les ressources informatiques de AO ressemblent à celles des modèles informatiques traditionnels, mais intègrent une couche de stockage permanente, permettant des processus informatiques traçables et décentralisés.

À ce stade, vous pourriez vous demander, quelle chaîne principale AO utilise-t-elle pour sa couche de stockage?

Clairement, l'utilisation de Bitcoin ou Ethereum pour la couche de stockage serait impraticable. Les raisons en ont déjà été discutées précédemment et les lecteurs comprendront probablement facilement cela. Dans AO, le stockage des données et la vérifiabilité finale sont finalement gérés par Arweave.

Pourquoi choisir Arweave parmi les nombreuses solutions de stockage décentralisé ?

Le choix d'Arweave comme couche de stockage est principalement basé sur son accent unique sur le stockage de données permanentes au sein d'un réseau décentralisé. Arweave se positionne comme un "disque dur mondial où les données ne sont jamais perdues", en contraste avec le "grand livre mondial" de Bitcoin et l'"ordinateur mondial" d'Ethereum. Fondamentalement, Arweave fonctionne comme un disque dur mondial conçu pour ne jamais perdre de données.

Pour plus de détails techniques sur Arweave, consultez: “Comprendre Arweave: Une infrastructure clé de Web3

Ensuite, nous nous concentrerons sur la discussion des principes et des technologies de AO pour comprendre comment AO parvient à une computation infinie?

[Data source: Comment fonctionne Messenger | Manuel]

Le cœur de AO est de construire une couche de calcul infiniment évolutive et indépendante de l'environnement. Les nœuds de AO collaborent sur la base de protocoles et de mécanismes de communication, garantissant que chaque nœud fournit un service optimal pour éviter la consommation compétitive.

Tout d'abord, comprenons l'architecture de base d'AO. AO est composé de processus et de messages, ainsi que d'unités de planification (SU), d'unités de calcul (CU) et d'unités de messagerie (MU):

  • Process:L'unité de calcul des nœuds dans le réseau, utilisée pour le calcul des données et le traitement des messages. Par exemple, chaque contrat pourrait être un processus.
  • Message :Les processus interagissent par des messages, chaque message respectant la norme ANS-104. L'ensemble du système AO doit suivre cette norme.
  • Unité de planification (SU):Responsable de la numérotation des messages des processus, permettant de les ordonner et de télécharger les messages sur Arweave.
  • Unité de calcul (CU): Le nœud d'état au sein d'un processus AO, responsable de l'exécution des tâches de calcul et du renvoi des résultats calculés et des signatures au SU, garantissant la correction et la vérifiabilité des résultats.
  • Unité de messagerie (MU) :Le composant de routage dans le nœud, responsable de la livraison des messages de l'utilisateur à l'US et de l'exécution des vérifications d'intégrité sur les données signées.

Il est important de noter que AO n'a pas d'états partagés mais plutôt des états holographiques. Le consensus dans AO découle de la théorie des jeux. Étant donné que chaque calcul génère un état qui est téléchargé sur Arweave, cela garantit la vérifiabilité des données. Lorsque les utilisateurs ont des doutes sur certaines données, ils peuvent demander à un ou plusieurs nœuds de calculer les données sur Arweave. Si les résultats de règlement ne correspondent pas, les nœuds malhonnêtes seront pénalisés.

Innovation de l'Architecture AO : Stockage et État Holographique

L'innovation de l'architecture AO réside dans ses mécanismes de stockage et de vérification des données, qui remplacent les calculs redondants et l'espace limité des blocs caractéristiques des blockchains traditionnelles en utilisant un stockage décentralisé (Arweave) et des états holographiques.

  1. État holographique : Dans l'architecture AO, chaque calcul génère un « état holographique » qui est téléchargé sur le réseau de stockage décentralisé (Arweave). Cet « état holographique » n'est pas simplement un enregistrement de données de transaction ; il contient l'état complet et les données pertinentes de chaque calcul. Cela signifie que chaque calcul et son résultat sont enregistrés de manière permanente et peuvent être vérifiés à tout moment. L'état holographique, en tant que « capture instantanée de données », fournit au réseau une solution de stockage de données distribuée et décentralisée.
  2. Vérification du stockage: Dans ce modèle, la vérification des données ne repose plus sur chaque nœud répétant le calcul pour toutes les transactions. Au lieu de cela, elle est effectuée en stockant et en comparant les données téléchargées sur Arweave pour confirmer la validité des transactions. Lorsqu'un résultat de calcul d'un nœud ne correspond pas aux données stockées sur Arweave, les utilisateurs ou d'autres nœuds peuvent initier une demande de vérification. Le réseau recalculera alors les données et les comparera avec l'enregistrement stocké dans Arweave. Si les résultats ne correspondent pas, le nœud est pénalisé, garantissant ainsi l'intégrité du réseau.
  3. Dépasser la limitation de l'espace de bloc : L'espace de bloc de la blockchain traditionnelle est limité par des contraintes de stockage, chaque bloc ne pouvant contenir qu'un nombre limité de transactions. Cependant, dans l'architecture AO, les données ne sont plus stockées directement dans les blocs ; à la place, elles sont téléchargées sur un réseau de stockage décentralisé (comme Arweave). Cela signifie que le stockage et la vérification des données dans le réseau blockchain ne sont plus limités par la taille de l'espace de bloc, mais sont plutôt déchargés et étendus grâce au stockage décentralisé. En conséquence, la capacité du système blockchain n'est plus directement limitée par la taille du bloc.

Les limitations de l'espace de bloc des blockchains traditionnelles ne sont pas insurmontables. L'architecture AO, en s'appuyant sur le stockage décentralisé et les états holographiques, modifie la manière dont le stockage et la vérification des données sont gérés, rendant possible d'atteindre une évolutivité illimitée.

Le consensus dépend-il d'une computation redondante ?

Pas nécessairement. Les mécanismes de consensus ne doivent pas nécessairement reposer sur un calcul redondant, et ils peuvent être mis en œuvre de différentes manières. Des solutions qui dépendent du stockage plutôt que du calcul redondant sont réalisables dans certains scénarios, notamment lorsque l'intégrité et la cohérence des données peuvent être assurées par la vérification du stockage.

Dans l'architecture AO, le stockage sert d'alternative à la computation redondante. En téléchargeant les résultats de la computation sur un réseau de stockage décentralisé (Arweave dans ce cas), le système garantit l'immuabilité des données. De plus, grâce au téléchargement holographique des états, n'importe quel nœud peut vérifier les résultats de la computation à tout moment, garantissant la cohérence et la correction des données. Cette approche repose sur la fiabilité du stockage des données plutôt que sur la répétition de la computation par chaque nœud.

Maintenant, regardons les différences entre AO et ETH à travers un tableau :


Il est facile de voir que les caractéristiques centrales de AO peuvent être résumées en deux points clés:

  1. Calcul parallèle à grande échelle: prend en charge d'innombrables processus s'exécutant simultanément, améliorant considérablement la puissance de calcul.
  2. Dépendance minimisée à la confiance: Pas besoin de faire confiance à un seul nœud, car tous les résultats computationnels peuvent être reproduits indéfiniment et retracés.

Comment AO casse l'impasse : Ethereum et les dilemmes des chaînes de blocs publiques

Pour les deux principaux dilemmes auxquels Ethereum est confronté - les goulots d'étranglement de performance et le manque d'applications - je pense que c'est exactement là où AO brille. Les raisons sont les suivantes:

  1. Basé sur le paradigme SCP : Étant donné que AO sépare le calcul du stockage, il peut surpasser le modèle de calcul unique d'Ethereum. AO peut facilement s'adapter à davantage de ressources de calcul en fonction de la demande. De plus, le stockage d'état holographique des journaux de messages d'Arweave permet à AO de garantir le consensus en reproduisant les résultats de calcul, offrant une sécurité qui rivalise avec Ethereum et Bitcoin.
  2. Architecture de calcul parallèle basée sur le passage de messages : les interactions de processus d'AO ne nécessitent pas de se battre pour des "verrous". Dans le développement Web2, il est bien connu que les services haute performance évitent les conflits de verrouillage, car c'est très coûteux pour les services efficaces. AO évite les conflits de verrouillage grâce au passage de messages entre les processus, suivant ce principe. Cela permet à sa scalabilité d'atteindre n'importe quelle taille.
  3. Architecture modulaire : La modularité de AO se reflète dans la séparation de CU, SU et MU, permettant l'utilisation de n'importe quelle machine virtuelle ou séquenceur. Cela rend la migration et le développement de DApps à partir de différentes chaînes extrêmement pratiques et rentables. Associées à la capacité de stockage efficace d'Arweave, les DApps développées sur AO peuvent atteindre des fonctionnalités plus diverses. Par exemple, les graphiques de caractères peuvent être facilement réalisés sur AO.
  4. Soutien à l'adaptabilité de Web3 aux diverses exigences politiques : Bien que l'idée principale de Web3 soit la décentralisation et la déréglementation, les différentes politiques dans différents pays ont inévitablement un impact profond sur le développement et la promotion de Web3. L'architecture modulaire flexible de AO peut être adaptée aux politiques régionales différentes, garantissant ainsi dans une certaine mesure la stabilité et le développement durable des applications Web3.

Résumé

La séparation du calcul et du stockage est un concept brillant, et c'est une conception systématique basée sur les premiers principes.

Comme une direction narrative similaire aux "services cloud décentralisés", elle offre non seulement un scénario d'atterrissage solide mais aussi un espace imaginaire plus large pour se combiner avec l'IA.

En fait, ce n'est qu'en comprenant vraiment les besoins fondamentaux de Web3 que nous pouvons nous libérer des dilemmes et des contraintes engendrés par la dépendance au chemin.

L'intégration de SCP et AO offre une toute nouvelle approche : elle hérite de toutes les fonctionnalités de SCP, ne déploie plus de contrats intelligents on-chain mais stocke plutôt des données immuables et traçables off-chain, ce qui permet d'atteindre la fiabilité des données que tout le monde peut vérifier.

Bien sûr, il n'y a pas de chemin absolument parfait pour le moment. AO en est encore à ses débuts. Comment empêcher Web3 d'être trop financiarisé, créer suffisamment de scénarios d'application et apporter plus de possibilités pour l'avenir reste un défi sur la route du succès d'AO. Que AO puisse fournir une réponse satisfaisante reste à voir par le marché et le temps.

La combinaison de SCP et AO, en tant que paradigme de développement plein de potentiel, bien que ses idées n'aient pas encore été largement reconnues sur le marché, on s'attend à ce que AO joue un rôle important dans le domaine de Web3 à l'avenir, voire qu'il entraîne le développement ultérieur de Web3.

Avertissement:

  1. Cet article est reproduit à partir de [PermaDAO]. Tous les droits d'auteur appartiennent à l'auteur original [14]. S'il y a des objections à cette reproduction, veuillez contacter le Portail Apprendreéquipe, et ils s'en occuperont rapidement.
  2. Avertissement de responsabilité : Les points de vue et opinions exprimés dans cet article sont uniquement ceux de l'auteur et ne constituent aucun conseil en investissement.
  3. L'équipe Gate Learn effectue des traductions de l'article dans d'autres langues. Sauf mention contraire, la copie, la distribution ou le plagiat des articles traduits est interdit.
Lancez-vous
Inscrivez-vous et obtenez un bon de
100$
!