Les personnes qui découvrent la blockchain sont souvent fascinées par la décentralisation et l'exécution automatique. Elles pensent qu'en mettant des choses sur la chaîne, elles pourront dormir sur leurs deux oreilles. Mais après un certain temps, elles comprennent que — en réalité — la chaîne ne sait rien du tout.
Quelle est la valeur ? Qui a gagné la compétition ? Que se passe-t-il dans la réalité ? Pour la chaîne, tout cela reste une boîte noire. Toutes les données doivent être alimentées en permanence par le monde humain.
C’est pourquoi les oracles, dès le premier jour, sont devenus l’élément le plus fragile mais aussi le plus indispensable de tout l’écosystème. Si les données sont incorrectes, le contrat s’effondre sur place ; si elles sont lentes, la fenêtre de transaction s’échappe ; si elles sont fausses, de grosses positions peuvent tout faire exploser. Chaque étape est une opération à haut risque.
Une idée assez claire : plutôt que de tout empiler sur la chaîne, il vaut mieux décharger les tâches ingrates et compliquées hors chaîne. La collecte, le nettoyage, la déduplication, la vérification de ces pré-traitements complexes, utiliser l’IA pour repérer les anomalies dans le texte ou les images, et ne mettre sur la chaîne que le résultat final propre, pour qu’il puisse être certifié et archivé. Cela permet d’économiser du gas, de réduire les erreurs, et d’avoir une architecture plus stable.
Du point de vue de la couverture des données, ce genre de solution a vraiment de l’ambition. Pas seulement pour les prix des tokens et les taux d’intérêt de prêt, mais aussi pour la valorisation d’actifs réels, les données sportives, voire les résultats des modèles d’IA. En intégrant des milliers de sources de données, fonctionnant sur plus de quarante blockchains comme Ethereum, Solana, Bitcoin, etc. Les développeurs trouvent aussi cela pratique — ils peuvent appeler les données à tout moment ou s’abonner pour recevoir des push dans le contrat, en une ligne de code.
Ce qui est le plus intéressant, c’est qu’il utilise réellement l’IA pour faire le boulot, ce n’est pas juste un concept à la mode. Identifier les anomalies, bloquer les données indésirables à la porte, ce sont des applications concrètes. Aujourd’hui, il traite plus de 100 000 requêtes de données par semaine, ce n’est plus de la théorie.
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
16 J'aime
Récompense
16
8
Reposter
Partager
Commentaire
0/400
pumpamentalist
· Il y a 4h
La prétraitement hors chaîne est vraiment fiable, c'est bien plus efficace que de tout empiler sur la chaîne
---
Si l'oracle venait à vraiment échouer, tout l'écosystème serait sacrifié, rien à dire
---
Ils en font beaucoup sur la détection d'anomalies avec l'IA, mais combien de temps cela pourra-t-il tenir réellement ?
---
Plus de 100 000 requêtes par semaine ? Ces chiffres doivent être relativisés
---
Les tâches ingrates et pénibles doivent être effectuées hors chaîne, c'est la meilleure solution, cela économise du gas et reste stable, c'est ça une architecture intelligente
---
Donc, en réalité, le vrai risque ne vient jamais de la chaîne elle-même, mais de ceux qui alimentent les données
---
Plus de quarante chaînes peuvent fonctionner, cette couverture est impressionnante, mais est-ce fiable ?
---
Le plus inquiétant, c'est que les données soient falsifiées, le positionnement peut disparaître en un instant
---
Il y a trop de projets qui spéculent sur l'IA, mais est-ce qu'ils travaillent vraiment ou pas ?
---
Cet aspect de l'oracle est toujours un point de défaillance unique naturel, sans solution
Voir l'originalRépondre0
CryptoDouble-O-Seven
· 01-05 14:45
L'oracle n'est qu'une bombe à retardement, on parie tous qu'il ne va pas exploser
---
Traiter les données hors chaîne puis les remonter sur la chaîne ? Cette idée est vraiment bien meilleure que de tout empiler sur la chaîne
---
Plus de 100 000 requêtes par semaine, ce chiffre paraît impressionnant, mais combien peuvent vraiment supporter un gros liquidations ?
---
En fin de compte, c'est une question de confiance. Peu importe le nombre de sources de données, il faut aussi se méfier des tricheurs
---
Je crois en la détection d'anomalies par IA, c'est beaucoup plus fiable que l'humain, reste à voir si de nouvelles surprises ne vont pas apparaître
---
Plus de quarante blockchains en fonctionnement, c'est vraiment vouloir faire une solution tout-en-un ou c'est un peu trop ambitieux ?
---
J'ai vu trop de cas où des fausses données ont tout fait exploser, pas étonnant que l'oracle soit toujours le point le plus dangereux de l'écosystème
---
Plutôt que de vanter les mérites de l'IA, regardons combien de fois on a évité que le contrat ne saigne...
---
Je m'intéresse à la réduction des coûts en gas, mais à condition que les données soient vraiment propres, sinon tout le gas économisé sera perdu
---
La blockchain ne sait en réalité rien, cette phrase est très lucide. Il y a encore des gens qui pensent qu'en mettant tout sur la chaîne, on peut automatiquement gagner de l'argent
Voir l'originalRépondre0
WhaleInTraining
· 01-04 18:51
Les oracles sont la clé de voûte de cette écosystème, une erreur dans les données et tout échoue
Le traitement hors chaîne + la sélection par AI sont vraiment intelligents, ils économisent du gas tout en étant stables
Plus de 100 000 requêtes par semaine ? Cela passe de concept à pratique, c'est intéressant
Les sources de données couvrent tellement de domaines, mais on craint qu'un maillon ne fasse encore des siennes
Plutôt que de faire confiance à la chaîne, il vaut mieux faire confiance à ceux qui alimentent les données, n'est-ce pas ?
Appeler des données avec une ligne de code, c'est agréable à entendre, mais qui paie pour les bugs ?
Les tâches ingrates doivent être faites hors chaîne, c'est la vraie voie, ne pas tout empiler sur la chaîne
Mettre des actifs réels sur la chaîne reste un peu risqué, comment garantir que la source des données ne falsifie pas elle-même ?
L'idée est bonne, tout dépend de la qualité de l'exécution et de la gestion des risques
Voir l'originalRépondre0
PaperHandSister
· 01-04 18:49
La chaîne d'oracle est vraiment la clé de toute l'écosystème, une erreur dans les données peut entraîner une explosion.
Le traitement hors chaîne + la reconnaissance AI, cette approche est vraiment géniale, enfin quelqu'un a compris.
Plus de 100 000 requêtes par semaine, ce volume de données n'est pas une blague, il semble vraiment qu'ils bossent dur.
Euh mais le problème, c'est qui garantit que ces gens hors chaîne ne vont pas faire des bêtises ? Le risque de centralisation n'est qu'un changement d'apparence.
Si cette chose devient vraiment stable, le paysage concurrentiel des oracles va être bouleversé.
Honnêtement, je suis optimiste quant à cette approche, elle est beaucoup plus lucide que celles purement basées sur la blockchain.
Voir l'originalRépondre0
RealYieldWizard
· 01-04 18:48
L'oracle est simplement un cheval de Troie centralisé, qu'est-ce que ça veut dire ?
Traiter les données hors chaîne reste une question de confiance, après tout, c'est comme parier sur une équipe spécifique.
Cette vague d'IA détectant des données anormales est vraiment impressionnante, mais qui supervise l'IA elle-même ? C'est un vrai casse-tête.
Données falsifiées entraînant des positions massives, comment faire si la source de données elle-même est problématique ? On ne peut pas échapper à la confiance.
Ce n'est pas faux, mais le problème fondamental n'est pas résolu — la décentralisation finit toujours par faire confiance à un centre.
Plus de 100 000 requêtes semblent beaucoup, mais les gros investisseurs vont-ils vraiment utiliser ça ? Ils n'ont pas la certitude.
Voir l'originalRépondre0
gas_fee_therapist
· 01-04 18:47
L'oracle est la clé de toute la DeFi, en fin de compte, il faut faire confiance aux personnes. Je reconnais cette approche consistant à traiter les données hors chaîne puis à les certifier sur la chaîne.
---
Bloquer l'étape de la fourniture de données, même le contrat intelligent le plus sophistiqué serait inutile. Il faut bien réfléchir.
---
Ce chiffre de plus de 100 000 requêtes par semaine semble réaliste, pas aussi gonflé que la plupart des projets le prétendent.
---
Honnêtement, la détection d'anomalies par IA est beaucoup plus fiable que la vérification manuelle, elle économise du gas et évite les soucis.
---
Faire le travail sale hors chaîne puis certifier sur la chaîne, cette logique est beaucoup plus réaliste que tout mettre sur la chaîne. Enfin quelqu'un a compris.
---
Plus il y a de sources de données, plus le risque est grand. Couvrir plus de quarante chaînes devient en fait une nouvelle surface d'attaque.
---
Plus de 100 000 requêtes par semaine, ce n'est rien, le vrai problème c'est si un jour la source de données est compromise, tout est fini.
---
Enfin, quelqu'un ose dire que la chaîne est en fait aveugle. Si le problème de l'oracle n'est pas résolu, la DeFi sera toujours un casino.
Voir l'originalRépondre0
SnapshotLaborer
· 01-04 18:33
Les oracles sont vraiment la colonne vertébrale de cet écosystème, une erreur dans les données d'entrée et un contrat est foutu.
Le traitement hors chaîne est vraiment une idée brillante, il économise du gas et reste stable, c'est bien plus solide que de tout mettre sur la chaîne.
C'est ça qui résout réellement le problème, pas un simple projet PPT.
La couverture des sources de données est si large, le déploiement multi-chaînes est vraiment hardcore.
Je pense que la détection d'anomalies par IA est le vrai point fort, plus de 100 000 requêtes par semaine ce n'est pas un petit chiffre.
D'ailleurs, si cette solution peut vraiment fonctionner de manière stable, la compétition dans le domaine des oracles va devoir changer.
Voir l'originalRépondre0
WhaleWatcher
· 01-04 18:33
Les oracles ne sont qu'une autre façon de dire centralisation, c'est la même soupe avec une nouvelle appellation.
Peu importe combien de traitements hors chaîne, il faut finalement faire confiance à un certain acteur, cette logique ne tient pas.
Plus de 100 000 requêtes, ça fait impression, mais en cas de problème, cela ne sauvera pas la mise.
L'IA détecte des anomalies ? Haha, le prochain cygne noir attend de faire face à la réalité.
On a toujours l'impression de suivre la vieille routine, transférant le risque aux développeurs et aux utilisateurs.
Ce genre de solution monte en flèche rapidement, puis retombe tout aussi vite, de toute façon je reste en observateur.
Les personnes qui découvrent la blockchain sont souvent fascinées par la décentralisation et l'exécution automatique. Elles pensent qu'en mettant des choses sur la chaîne, elles pourront dormir sur leurs deux oreilles. Mais après un certain temps, elles comprennent que — en réalité — la chaîne ne sait rien du tout.
Quelle est la valeur ? Qui a gagné la compétition ? Que se passe-t-il dans la réalité ? Pour la chaîne, tout cela reste une boîte noire. Toutes les données doivent être alimentées en permanence par le monde humain.
C’est pourquoi les oracles, dès le premier jour, sont devenus l’élément le plus fragile mais aussi le plus indispensable de tout l’écosystème. Si les données sont incorrectes, le contrat s’effondre sur place ; si elles sont lentes, la fenêtre de transaction s’échappe ; si elles sont fausses, de grosses positions peuvent tout faire exploser. Chaque étape est une opération à haut risque.
Une idée assez claire : plutôt que de tout empiler sur la chaîne, il vaut mieux décharger les tâches ingrates et compliquées hors chaîne. La collecte, le nettoyage, la déduplication, la vérification de ces pré-traitements complexes, utiliser l’IA pour repérer les anomalies dans le texte ou les images, et ne mettre sur la chaîne que le résultat final propre, pour qu’il puisse être certifié et archivé. Cela permet d’économiser du gas, de réduire les erreurs, et d’avoir une architecture plus stable.
Du point de vue de la couverture des données, ce genre de solution a vraiment de l’ambition. Pas seulement pour les prix des tokens et les taux d’intérêt de prêt, mais aussi pour la valorisation d’actifs réels, les données sportives, voire les résultats des modèles d’IA. En intégrant des milliers de sources de données, fonctionnant sur plus de quarante blockchains comme Ethereum, Solana, Bitcoin, etc. Les développeurs trouvent aussi cela pratique — ils peuvent appeler les données à tout moment ou s’abonner pour recevoir des push dans le contrat, en une ligne de code.
Ce qui est le plus intéressant, c’est qu’il utilise réellement l’IA pour faire le boulot, ce n’est pas juste un concept à la mode. Identifier les anomalies, bloquer les données indésirables à la porte, ce sont des applications concrètes. Aujourd’hui, il traite plus de 100 000 requêtes de données par semaine, ce n’est plus de la théorie.