Premièrement, clarifier les relations de collaboration entre les protocoles amont et aval.
En analysant l'architecture technique, la fonctionnalité et les cas d'utilisation réels, j'ai divisé tout l'écosystème en : couche d'infrastructure, couche intermédiaire, couche de modèle, couche d'application, et j'ai clarifié leurs relations de dépendance :
1、couche d'infrastructure
La couche d'infrastructure fournit des ressources sous-jacentes décentralisées (puissance de calcul, stockage, L1), dont les protocoles de puissance de calcul sont : Render, Akash, io.net, etc. ; les protocoles de stockage sont : Arweave, Filecoin, Storj, etc. ; L1 comprend : NEAR, Olas, Fetch.ai, etc.
Le protocole de couche de puissance de calcul prend en charge l'entraînement, l'inférence et l'exécution du modèle ; le protocole de stockage conserve les données d'entraînement, les paramètres du modèle et les enregistrements d'interaction en chaîne ; L1 optimise l'efficacité de transmission des données et réduit la latence via des nœuds dédiés.
2、Couche intermédiaire
La couche middleware est un pont entre l'infrastructure de base et les applications de niveau supérieur, fournissant des outils de développement de frameworks, des services de données et une protection de la vie privée, avec des protocoles de marquage des données tels que : Grass, Masa, Vana ; des protocoles de développement de frameworks tels que : Eliza, ARC, Swarms ; des protocoles de calcul de confidentialité tels que : Phala.
La couche de services de données fournit du carburant pour l'entraînement du modèle, le framework de développement dépend de la puissance de calcul et du stockage de la couche d'infrastructure, et la couche de calcul de confidentialité protège la sécurité des données lors de l'entraînement / de l'inférence.
3、Couche de modèle
Le niveau du modèle est utilisé pour le développement, la formation et la distribution de modèles, y compris la plateforme de formation de modèles open source: Bittensor.
Le niveau du modèle dépend de la puissance de calcul de la couche d'infrastructure et des données de la couche intermédiaire ; le modèle est déployé sur la chaîne via le cadre de développement ; le marché des modèles transfère les résultats de la formation vers la couche d'application.
4、Couche d'application
La couche d'application est un produit d'IA destiné aux utilisateurs finaux, comprenant des agents tels que : GOAT, AIXBT ; les protocoles DeFAI incluent : Griffain, Buzz, etc.
Le modèle de pré-entraînement de la couche d'application appelle le modèle de la couche de modèle ; la confidentialité du calcul dépend de la couche intermédiaire ; les applications complexes nécessitent une puissance de calcul en temps réel de la couche d'infrastructure.
Deuxièmement, l'impact négatif sur la décentralisation de la puissance de calcul
Selon une enquête par échantillonnage, environ 70 % des projets Web3 AI utilisent réellement OpenAI ou des plates-formes cloud centralisées, seulement 15 % des projets utilisent des GPU décentralisés (comme le modèle de sous-réseau Bittensor), et les 15 % restants sont une architecture hybride (traitement local des données sensibles, tâches générales sur le cloud).
Le taux d'utilisation réel du protocole de puissance de calcul décentralisé est bien inférieur aux attentes et ne correspond pas à sa valeur de marché réelle. Les trois principales raisons de la faible utilisation sont : les développeurs Web2 qui migrent vers Web3 continuent d'utiliser les outils existants ; la plate-forme GPU décentralisée n'a pas encore réalisé d'avantage de prix ; certains projets utilisent le terme "décentralisé" pour éviter les contrôles de conformité des données, et la puissance de calcul réelle dépend toujours du cloud centralisé.
AWS/GCP occupe plus de 90% du marché de la puissance de calcul de l'IA, tandis qu' Akash ne représente que 0,2% de la puissance de calcul équivalente à AWS. Les avantages des plates-formes cloud centralisées incluent : la gestion de cluster, le réseau à haute vitesse RDMA, la mise à l'échelle élastique ; les plates-formes cloud décentralisées sont des versions améliorées de ces technologies dans le cadre de web3, mais présentent des défauts non résolus tels que des problèmes de latence : le délai de communication entre les nœuds distribués est 6 fois plus élevé que celui des clouds centralisés ; la fragmentation des outils : PyTorch/TensorFlow ne prennent pas en charge nativement la planification décentralisée.
DeepSeek réduit de 50% la consommation de puissance de calcul grâce à l'entraînement clairsemé (Sparse Training), et réalise la formation de modèles de centaines de milliards de paramètres sur des GPU grand public en effectuant une taille dynamique du modèle. Les attentes du marché pour les GPU haut de gamme à court terme ont considérablement diminué, et le potentiel du calcul en périphérie a été réévalué. Avant l'apparition de DeepSeek, la grande majorité des protocoles et applications de l'industrie étaient déployés sur des plateformes telles qu'AWS, seuls quelques cas d'utilisation étaient déployés sur des réseaux GPU décentralisés. Ces cas d'utilisation privilégiaient les avantages de prix offerts par ces derniers en termes de puissance de calcul grand public, sans se soucier de l'impact sur la latence.
Cette situation pourrait s'aggraver avec l'émergence de DeepSeek. DeepSeek libère les développeurs de longue traîne, et les modèles de raisonnement à faible coût et efficaces se répandront à une vitesse sans précédent, en fait, à l'heure actuelle, les plateformes cloud centralisées susmentionnées et de nombreux pays ont déjà commencé à déployer DeepSeek, la forte réduction des coûts de raisonnement entraînera la naissance d'une multitude d'applications frontales, ces applications auront un énorme besoin de GPU grand public. Face au marché énorme à venir, les plateformes cloud centralisées lanceront une nouvelle vague de lutte pour les utilisateurs, non seulement en concurrence avec les plateformes de premier plan, mais aussi avec de nombreuses petites plateformes cloud centralisées. Et la manière la plus directe de concurrencer est de baisser les prix, on peut prévoir une baisse des prix de 4090 sur les plateformes centralisées, ce qui est un véritable désastre pour les plateformes de puissance de calcul de Web3. Lorsque le prix n'est pas la seule forteresse de ces dernières, et que les plateformes de puissance de calcul de l'industrie sont également contraintes de baisser les prix, les résultats seront insupportables pour io.net, Render, Akash, etc. La guerre des prix détruira les dernières limites de valorisation des dernières, la baisse des revenus et la spirale de la mort due à la perte d'utilisateurs pourraient amener les protocoles de puissance de calcul décentralisés à se tourner vers une nouvelle direction.
Troisièmement, la signification des protocoles amont et aval
Comme indiqué dans le schéma, je pense que DeepSeek aura des impacts différents sur les couches d'infrastructure, de modèle et d'application, du point de vue des impacts positifs :
La couche d'application bénéficiera d'une forte réduction des coûts de raisonnement, permettant à davantage d'applications de maintenir les agents en ligne pendant de longues périodes à faible coût et de terminer les tâches en temps réel ;
En même temps, un modèle à faible coût comme DeepSeek peut permettre à DeFAI de composer des SWARM plus complexes, des milliers d'agents étant utilisés pour un cas d'utilisation, chaque agent ayant des tâches très spécifiques, ce qui peut considérablement améliorer l'expérience utilisateur et éviter la désintégration et l'exécution incorrectes des entrées utilisateur par le modèle.
Les développeurs de la couche d'application peuvent affiner les modèles, alimenter les applications d'IA DeFi connexes avec des prix, des données et des analyses on-chain, des données de gouvernance de protocole, sans avoir à payer de frais de licence élevés.
Après la naissance de DeepSeek, la signification de la couche de modèle open source a été prouvée, les modèles haut de gamme sont ouverts aux développeurs longue traîne, ce qui peut stimuler un vaste engouement pour le développement;
Au cours des trois dernières années, le mur de puissance de calcul construit autour des GPU haut de gamme a été complètement brisé, offrant aux développeurs plus de choix et établissant une direction plus ouverte pour les modèles. À l'avenir, la compétition entre les modèles d'IA ne se fera plus sur la puissance de calcul mais sur les algorithmes. Le changement de croyance deviendra la pierre angulaire de la confiance des développeurs de modèles open source.
Les sous-réseaux spécifiques à DeepSeek sont en constante expansion, les paramètres du modèle augmentent avec une puissance de calcul équivalente, et de plus en plus de développeurs rejoignent la communauté open source.
Du point de vue des influences négatives :
Les retards d'utilisation objectifs existants dans les protocoles de puissance de calcul au sein de l'infrastructure de base ne peuvent pas être optimisés ;
Et le réseau mixte composé de A100 et 4090 exige des algorithmes de coordination plus élevés, ce qui n'est pas un avantage pour les plateformes décentralisées.
Percez la bulle de l'Agent et faites naître le nouveau DeFAI
L'agent est le dernier espoir de l'IA dans l'industrie, l'apparition de DeepSeek a libéré les contraintes de puissance de calcul, dessinant les attentes futures d'une explosion d'applications. C'était censé être un énorme avantage pour la piste des agents, mais en raison de liens étroits avec l'industrie, les actions américaines et la politique de la Réserve fédérale américaine, la bulle restante a été percée et la valeur de marché de la piste a chuté au plus bas.
Dans la vague de fusion de l'IA avec l'industrie, les percées technologiques et les compromis du marché sont toujours étroitement liés. Les réactions en chaîne provoquées par les fluctuations de la valorisation de NVIDIA ressemblent à un miroir démoniaque, révélant les profondes difficultés narratives de l'IA dans l'industrie : de l'agent On-chain au moteur DeFAI, sous la cartographie écologique en apparence complète, se cachent une infrastructure technologique fragile, une logique de valeur vidé et une réalité cruelle dominée par le capital. L'écosystème en ligne prospère dissimule des maladies cachées : un grand nombre de jetons à forte capitalisation boursière FDV se disputent une liquidité limitée, les actifs obsolètes survivent grâce à l'émotion FOMO, les développeurs sont piégés dans une concurrence interne PVP qui épuise l'élan innovant. Lorsque les fonds incrémentiels et la croissance des utilisateurs atteignent un plafond, toute l'industrie se retrouve dans une "impasse de l'innovateur" - désireuse de briser le récit révolutionnaire, mais incapable de se libérer des chaînes de la dépendance au chemin. Cet état de division offre une opportunité historique à l'agent AI : il est non seulement une mise à niveau de la boîte à outils technologique, mais aussi une restructuration du paradigme de création de valeur.
Au cours de l'année écoulée, de plus en plus d'équipes de l'industrie ont découvert que le modèle traditionnel de financement est en train de perdre de sa pertinence - il est de plus en plus difficile pour les VC de donner de petites parts, de contrôler étroitement et de manipuler les cotations sur les bourses. Avec des VC de plus en plus restrictifs, les investisseurs individuels refusent d'intervenir et les grandes bourses fixent des seuils d'inscription élevés, sous la triple pression, un nouveau mode de jeu plus adapté à un marché baissier est en train d'émerger : l'association de KOL de premier plan + un petit nombre de VC, le lancement massif de la communauté, un démarrage à faible capitalisation boursière.
Les innovateurs représentés par Soon et Pump Fun ouvrent de nouvelles voies à travers le 'lancement communautaire' - en obtenant l'approbation des principaux influenceurs, en distribuant directement 40% à 60% des jetons à la communauté, en lançant des projets évalués à aussi peu que 10 millions de dollars US de FDV pour lever des millions de dollars. Ce modèle utilise l'influence des influenceurs pour construire un consensus FOMO, permettant à l'équipe de verrouiller les bénéfices à l'avance, tout en échangeant une grande liquidité contre une profondeur de marché. Bien qu'ils abandonnent l'avantage de contrôler le marché à court terme, ils peuvent racheter les jetons à bas prix sur le marché baissier grâce à un mécanisme de trading conforme. Fondamentalement, il s'agit d'une migration de paradigme de la structure du pouvoir : passant d'un jeu de chaises musicales dominé par les VC (institutions reprennent - listage - achats par les particuliers) à une confrontation transparente basée sur le consensus communautaire, où le projet et la communauté forment une nouvelle relation symbiotique dans la prime de liquidité. Alors que l'industrie entre dans une phase de cycle de vie transparente, les projets qui s'accrochent à la logique de contrôle traditionnelle risquent de devenir des vestiges de l'ère de la migration du pouvoir.
Les douleurs à court terme du marché confirment précisément l'irréversibilité de la longue vague technologique. Lorsque l'Agent AI réduit les coûts d'interaction on-chain de deux ordres de grandeur, et que le modèle adaptatif améliore continuellement l'efficacité des fonds des protocoles DeFi, le secteur pourrait enfin accueillir l'adoption massive tant attendue. Cette révolution ne dépend pas de la spéculation conceptuelle ou de la maturation forcée par le capital, mais repose sur la pénétration technologique ancrée dans les besoins réels - tout comme la révolution électrique n'a pas stagné en raison de la faillite des entreprises d'ampoules, l'Agent deviendra finalement la véritable voie de l'or après l'éclatement de la bulle. DeFAI pourrait bien être le terreau propice à la naissance de nouveaux éléments, lorsque le raisonnement à faible coût deviendra monnaie courante, nous pourrions bientôt voir des centaines d'Agents combinés dans un même Swarm pour des cas d'utilisation. Avec une puissance de calcul équivalente, une augmentation importante des paramètres du modèle peut garantir un ajustement plus complet des Agents de l'ère des modèles open source, même face à des instructions utilisateur complexes, pouvant être décomposées en tâches exécutables pleinement par un Agent unique. Chaque Agent optimisant les opérations on-chain peut favoriser une augmentation de l'activité globale des protocoles DeFi et de la liquidité. DeFAI à la tête, de plus en plus de produits DeFi complexes apparaîtront, et c'est précisément là que de nouvelles opportunités se présenteront après l'éclatement de la bulle précédente.
Le contenu est fourni à titre de référence uniquement, il ne s'agit pas d'une sollicitation ou d'une offre. Aucun conseil en investissement, fiscalité ou juridique n'est fourni. Consultez l'Avertissement pour plus de détails sur les risques.
L'impact de DeepSeek sur le protocole amont et aval de l'IA Web3
L'auteur original : Kevin, BlockBooster
Repost: Luke, Mars Finance
Premièrement, clarifier les relations de collaboration entre les protocoles amont et aval.
En analysant l'architecture technique, la fonctionnalité et les cas d'utilisation réels, j'ai divisé tout l'écosystème en : couche d'infrastructure, couche intermédiaire, couche de modèle, couche d'application, et j'ai clarifié leurs relations de dépendance :
1、couche d'infrastructure
La couche d'infrastructure fournit des ressources sous-jacentes décentralisées (puissance de calcul, stockage, L1), dont les protocoles de puissance de calcul sont : Render, Akash, io.net, etc. ; les protocoles de stockage sont : Arweave, Filecoin, Storj, etc. ; L1 comprend : NEAR, Olas, Fetch.ai, etc.
Le protocole de couche de puissance de calcul prend en charge l'entraînement, l'inférence et l'exécution du modèle ; le protocole de stockage conserve les données d'entraînement, les paramètres du modèle et les enregistrements d'interaction en chaîne ; L1 optimise l'efficacité de transmission des données et réduit la latence via des nœuds dédiés.
2、Couche intermédiaire
La couche middleware est un pont entre l'infrastructure de base et les applications de niveau supérieur, fournissant des outils de développement de frameworks, des services de données et une protection de la vie privée, avec des protocoles de marquage des données tels que : Grass, Masa, Vana ; des protocoles de développement de frameworks tels que : Eliza, ARC, Swarms ; des protocoles de calcul de confidentialité tels que : Phala.
La couche de services de données fournit du carburant pour l'entraînement du modèle, le framework de développement dépend de la puissance de calcul et du stockage de la couche d'infrastructure, et la couche de calcul de confidentialité protège la sécurité des données lors de l'entraînement / de l'inférence.
3、Couche de modèle
Le niveau du modèle est utilisé pour le développement, la formation et la distribution de modèles, y compris la plateforme de formation de modèles open source: Bittensor.
Le niveau du modèle dépend de la puissance de calcul de la couche d'infrastructure et des données de la couche intermédiaire ; le modèle est déployé sur la chaîne via le cadre de développement ; le marché des modèles transfère les résultats de la formation vers la couche d'application.
4、Couche d'application
La couche d'application est un produit d'IA destiné aux utilisateurs finaux, comprenant des agents tels que : GOAT, AIXBT ; les protocoles DeFAI incluent : Griffain, Buzz, etc.
Le modèle de pré-entraînement de la couche d'application appelle le modèle de la couche de modèle ; la confidentialité du calcul dépend de la couche intermédiaire ; les applications complexes nécessitent une puissance de calcul en temps réel de la couche d'infrastructure.
Deuxièmement, l'impact négatif sur la décentralisation de la puissance de calcul
Selon une enquête par échantillonnage, environ 70 % des projets Web3 AI utilisent réellement OpenAI ou des plates-formes cloud centralisées, seulement 15 % des projets utilisent des GPU décentralisés (comme le modèle de sous-réseau Bittensor), et les 15 % restants sont une architecture hybride (traitement local des données sensibles, tâches générales sur le cloud).
Le taux d'utilisation réel du protocole de puissance de calcul décentralisé est bien inférieur aux attentes et ne correspond pas à sa valeur de marché réelle. Les trois principales raisons de la faible utilisation sont : les développeurs Web2 qui migrent vers Web3 continuent d'utiliser les outils existants ; la plate-forme GPU décentralisée n'a pas encore réalisé d'avantage de prix ; certains projets utilisent le terme "décentralisé" pour éviter les contrôles de conformité des données, et la puissance de calcul réelle dépend toujours du cloud centralisé.
AWS/GCP occupe plus de 90% du marché de la puissance de calcul de l'IA, tandis qu' Akash ne représente que 0,2% de la puissance de calcul équivalente à AWS. Les avantages des plates-formes cloud centralisées incluent : la gestion de cluster, le réseau à haute vitesse RDMA, la mise à l'échelle élastique ; les plates-formes cloud décentralisées sont des versions améliorées de ces technologies dans le cadre de web3, mais présentent des défauts non résolus tels que des problèmes de latence : le délai de communication entre les nœuds distribués est 6 fois plus élevé que celui des clouds centralisés ; la fragmentation des outils : PyTorch/TensorFlow ne prennent pas en charge nativement la planification décentralisée.
DeepSeek réduit de 50% la consommation de puissance de calcul grâce à l'entraînement clairsemé (Sparse Training), et réalise la formation de modèles de centaines de milliards de paramètres sur des GPU grand public en effectuant une taille dynamique du modèle. Les attentes du marché pour les GPU haut de gamme à court terme ont considérablement diminué, et le potentiel du calcul en périphérie a été réévalué. Avant l'apparition de DeepSeek, la grande majorité des protocoles et applications de l'industrie étaient déployés sur des plateformes telles qu'AWS, seuls quelques cas d'utilisation étaient déployés sur des réseaux GPU décentralisés. Ces cas d'utilisation privilégiaient les avantages de prix offerts par ces derniers en termes de puissance de calcul grand public, sans se soucier de l'impact sur la latence.
Cette situation pourrait s'aggraver avec l'émergence de DeepSeek. DeepSeek libère les développeurs de longue traîne, et les modèles de raisonnement à faible coût et efficaces se répandront à une vitesse sans précédent, en fait, à l'heure actuelle, les plateformes cloud centralisées susmentionnées et de nombreux pays ont déjà commencé à déployer DeepSeek, la forte réduction des coûts de raisonnement entraînera la naissance d'une multitude d'applications frontales, ces applications auront un énorme besoin de GPU grand public. Face au marché énorme à venir, les plateformes cloud centralisées lanceront une nouvelle vague de lutte pour les utilisateurs, non seulement en concurrence avec les plateformes de premier plan, mais aussi avec de nombreuses petites plateformes cloud centralisées. Et la manière la plus directe de concurrencer est de baisser les prix, on peut prévoir une baisse des prix de 4090 sur les plateformes centralisées, ce qui est un véritable désastre pour les plateformes de puissance de calcul de Web3. Lorsque le prix n'est pas la seule forteresse de ces dernières, et que les plateformes de puissance de calcul de l'industrie sont également contraintes de baisser les prix, les résultats seront insupportables pour io.net, Render, Akash, etc. La guerre des prix détruira les dernières limites de valorisation des dernières, la baisse des revenus et la spirale de la mort due à la perte d'utilisateurs pourraient amener les protocoles de puissance de calcul décentralisés à se tourner vers une nouvelle direction.
Troisièmement, la signification des protocoles amont et aval
Comme indiqué dans le schéma, je pense que DeepSeek aura des impacts différents sur les couches d'infrastructure, de modèle et d'application, du point de vue des impacts positifs :
La couche d'application bénéficiera d'une forte réduction des coûts de raisonnement, permettant à davantage d'applications de maintenir les agents en ligne pendant de longues périodes à faible coût et de terminer les tâches en temps réel ;
En même temps, un modèle à faible coût comme DeepSeek peut permettre à DeFAI de composer des SWARM plus complexes, des milliers d'agents étant utilisés pour un cas d'utilisation, chaque agent ayant des tâches très spécifiques, ce qui peut considérablement améliorer l'expérience utilisateur et éviter la désintégration et l'exécution incorrectes des entrées utilisateur par le modèle.
Les développeurs de la couche d'application peuvent affiner les modèles, alimenter les applications d'IA DeFi connexes avec des prix, des données et des analyses on-chain, des données de gouvernance de protocole, sans avoir à payer de frais de licence élevés.
Après la naissance de DeepSeek, la signification de la couche de modèle open source a été prouvée, les modèles haut de gamme sont ouverts aux développeurs longue traîne, ce qui peut stimuler un vaste engouement pour le développement;
Au cours des trois dernières années, le mur de puissance de calcul construit autour des GPU haut de gamme a été complètement brisé, offrant aux développeurs plus de choix et établissant une direction plus ouverte pour les modèles. À l'avenir, la compétition entre les modèles d'IA ne se fera plus sur la puissance de calcul mais sur les algorithmes. Le changement de croyance deviendra la pierre angulaire de la confiance des développeurs de modèles open source.
Les sous-réseaux spécifiques à DeepSeek sont en constante expansion, les paramètres du modèle augmentent avec une puissance de calcul équivalente, et de plus en plus de développeurs rejoignent la communauté open source.
Du point de vue des influences négatives :
Les retards d'utilisation objectifs existants dans les protocoles de puissance de calcul au sein de l'infrastructure de base ne peuvent pas être optimisés ;
Et le réseau mixte composé de A100 et 4090 exige des algorithmes de coordination plus élevés, ce qui n'est pas un avantage pour les plateformes décentralisées.
Percez la bulle de l'Agent et faites naître le nouveau DeFAI
L'agent est le dernier espoir de l'IA dans l'industrie, l'apparition de DeepSeek a libéré les contraintes de puissance de calcul, dessinant les attentes futures d'une explosion d'applications. C'était censé être un énorme avantage pour la piste des agents, mais en raison de liens étroits avec l'industrie, les actions américaines et la politique de la Réserve fédérale américaine, la bulle restante a été percée et la valeur de marché de la piste a chuté au plus bas.
Dans la vague de fusion de l'IA avec l'industrie, les percées technologiques et les compromis du marché sont toujours étroitement liés. Les réactions en chaîne provoquées par les fluctuations de la valorisation de NVIDIA ressemblent à un miroir démoniaque, révélant les profondes difficultés narratives de l'IA dans l'industrie : de l'agent On-chain au moteur DeFAI, sous la cartographie écologique en apparence complète, se cachent une infrastructure technologique fragile, une logique de valeur vidé et une réalité cruelle dominée par le capital. L'écosystème en ligne prospère dissimule des maladies cachées : un grand nombre de jetons à forte capitalisation boursière FDV se disputent une liquidité limitée, les actifs obsolètes survivent grâce à l'émotion FOMO, les développeurs sont piégés dans une concurrence interne PVP qui épuise l'élan innovant. Lorsque les fonds incrémentiels et la croissance des utilisateurs atteignent un plafond, toute l'industrie se retrouve dans une "impasse de l'innovateur" - désireuse de briser le récit révolutionnaire, mais incapable de se libérer des chaînes de la dépendance au chemin. Cet état de division offre une opportunité historique à l'agent AI : il est non seulement une mise à niveau de la boîte à outils technologique, mais aussi une restructuration du paradigme de création de valeur.
Au cours de l'année écoulée, de plus en plus d'équipes de l'industrie ont découvert que le modèle traditionnel de financement est en train de perdre de sa pertinence - il est de plus en plus difficile pour les VC de donner de petites parts, de contrôler étroitement et de manipuler les cotations sur les bourses. Avec des VC de plus en plus restrictifs, les investisseurs individuels refusent d'intervenir et les grandes bourses fixent des seuils d'inscription élevés, sous la triple pression, un nouveau mode de jeu plus adapté à un marché baissier est en train d'émerger : l'association de KOL de premier plan + un petit nombre de VC, le lancement massif de la communauté, un démarrage à faible capitalisation boursière.
Les innovateurs représentés par Soon et Pump Fun ouvrent de nouvelles voies à travers le 'lancement communautaire' - en obtenant l'approbation des principaux influenceurs, en distribuant directement 40% à 60% des jetons à la communauté, en lançant des projets évalués à aussi peu que 10 millions de dollars US de FDV pour lever des millions de dollars. Ce modèle utilise l'influence des influenceurs pour construire un consensus FOMO, permettant à l'équipe de verrouiller les bénéfices à l'avance, tout en échangeant une grande liquidité contre une profondeur de marché. Bien qu'ils abandonnent l'avantage de contrôler le marché à court terme, ils peuvent racheter les jetons à bas prix sur le marché baissier grâce à un mécanisme de trading conforme. Fondamentalement, il s'agit d'une migration de paradigme de la structure du pouvoir : passant d'un jeu de chaises musicales dominé par les VC (institutions reprennent - listage - achats par les particuliers) à une confrontation transparente basée sur le consensus communautaire, où le projet et la communauté forment une nouvelle relation symbiotique dans la prime de liquidité. Alors que l'industrie entre dans une phase de cycle de vie transparente, les projets qui s'accrochent à la logique de contrôle traditionnelle risquent de devenir des vestiges de l'ère de la migration du pouvoir.
Les douleurs à court terme du marché confirment précisément l'irréversibilité de la longue vague technologique. Lorsque l'Agent AI réduit les coûts d'interaction on-chain de deux ordres de grandeur, et que le modèle adaptatif améliore continuellement l'efficacité des fonds des protocoles DeFi, le secteur pourrait enfin accueillir l'adoption massive tant attendue. Cette révolution ne dépend pas de la spéculation conceptuelle ou de la maturation forcée par le capital, mais repose sur la pénétration technologique ancrée dans les besoins réels - tout comme la révolution électrique n'a pas stagné en raison de la faillite des entreprises d'ampoules, l'Agent deviendra finalement la véritable voie de l'or après l'éclatement de la bulle. DeFAI pourrait bien être le terreau propice à la naissance de nouveaux éléments, lorsque le raisonnement à faible coût deviendra monnaie courante, nous pourrions bientôt voir des centaines d'Agents combinés dans un même Swarm pour des cas d'utilisation. Avec une puissance de calcul équivalente, une augmentation importante des paramètres du modèle peut garantir un ajustement plus complet des Agents de l'ère des modèles open source, même face à des instructions utilisateur complexes, pouvant être décomposées en tâches exécutables pleinement par un Agent unique. Chaque Agent optimisant les opérations on-chain peut favoriser une augmentation de l'activité globale des protocoles DeFi et de la liquidité. DeFAI à la tête, de plus en plus de produits DeFi complexes apparaîtront, et c'est précisément là que de nouvelles opportunités se présenteront après l'éclatement de la bulle précédente.