Ces derniers temps, je me suis penché sur le sujet des oracles, et mes idées ont beaucoup évolué. Avant, je me concentrais principalement sur les détails techniques, mais maintenant je m'intéresse à une question plus fondamentale : comment la blockchain peut-elle réellement se connecter au monde réel ? Comment passer d'une conception idéalisée et auto-illusionnée à un fonctionnement responsable et authentique ?
En clair, dès qu’un contrat intelligent implique des éléments hors chaîne — fluctuations de prix, données de réserves d’actifs, événements d’actualité soudains — sa vulnérabilité est totalement exposée. Les règles internes à la blockchain sont fixes et déterministes, mais le monde réel est chaotique, sans réponse standard absolue.
C’est cette prise de conscience qui m’a fait commencer à suivre un projet en particulier. Contrairement à ceux qui prétendent vouloir dominer le secteur des oracles, il se concentre plutôt sur l’étude approfondie des scénarios extrêmes capables de faire échouer un protocole — krachs de marché, sources de données contradictoires, manipulation malveillante, voire des périodes de vide informationnel avant que la vérité ne soit révélée. Certains organismes de recherche le qualifient d’oracle renforcé par l’IA, sa force réside dans sa capacité à traiter des données complexes non structurées comme les actualités ou les dynamiques sociales, plutôt que de se limiter à des données propres comme le prix des tokens.
Le point clé de différenciation : un mécanisme de double confiance pour assurer la sécurité, plutôt que de s’appuyer uniquement sur une seule source de données.
La majorité des évaluations des oracles sur le marché se basent sur un seul critère : la précision du prix rapporté. Mais ce projet répond à une question plus profonde — lorsque le monde devient flou, contesté, voire chaotique, l’oracle peut-il tenir le coup ?
Son architecture est conçue en couches. En résumé, il utilise l’IA et de grands modèles pour construire une couche de jugement, complétée par une couche de soumission, puis ancre les données vérifiées sur la blockchain. Essentiellement, il sépare la collecte et l’interprétation des données du processus de confirmation finale sur la chaîne — une étape particulièrement cruciale, car la capture rapide des données et la validation vérifiable de la finalité sont intrinsèquement en tension.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
23 J'aime
Récompense
23
5
Reposter
Partager
Commentaire
0/400
BlockchainDecoder
· 01-09 21:42
Selon des études, ce gars a saisi la contradiction la plus douloureuse dans la conception des oracles — la rapidité et la vérifiabilité sont naturellement opposées, il n'existe pas de solution absolue.
Le mécanisme à double couche semble une bonne idée, mais comment garantir que la couche d'IA ne devienne pas un nouveau point de défaillance unique ? Il faut des données pour étayer cela.
Le traitement des données non structurées est effectivement une voie, mais en cas de crash extrême, même le modèle le plus performant ne peut suivre le rythme du marché. Il est important de se demander combien de données de test pour ce genre de scénario existent.
D’un point de vue technique, séparer la collecte et la confirmation sur la blockchain a encore du sens, mais on retombe sur le vieux problème des oracles traditionnels — qui supervise l’intermédiaire ?
Voir l'originalRépondre0
MEVvictim
· 01-07 23:36
La double mécanique de confiance semble intéressante, mais en cas d'extrême situation, pourra-t-elle tenir ?
---
Encore de l'IA et de grands modèles, au final il faut toujours compter sur l'humain pour la décision, cette logique est un peu mystérieuse.
---
Honnêtement, il y a tellement de projets d'oracles maintenant, 99% échouent à cause du problème de confiance, c'est assez intéressant.
---
La conception en couches est vraiment ingénieuse, mais en cas de crash soudain, si toutes les sources de données s'effondrent en même temps, plusieurs couches ne serviront à rien, non ?
---
Si on pouvait vraiment gérer les données non structurées, le paysage des oracles changerait complètement.
---
Je veux juste savoir comment cette mécanique coûte, c'est trop complexe, l'efficacité ne pourra sûrement pas suivre.
---
Attends, séparer la collecte de données et la liquidation, cela n'introduit-il pas de nouvelles surfaces d'attaque ?
---
On dirait que l'auteur a écrit cet article comme un article promotionnel, en faisant la promotion d'un projet.
---
Je préfère cette phrase : "Opérer de manière responsable et authentique", au moins l'attitude est sincère.
---
Quand le marché s'effondre en un clin d'œil, tous les systèmes de double confiance doivent s'incliner, tu as déjà vu ça, hein.
Voir l'originalRépondre0
AirdropHunterXM
· 01-07 00:49
Oh là là, enfin quelqu'un en parle, l'oracle est vraiment le talon d'Achille du web3
Se fier à une seule source de données est vraiment une grosse erreur, le marché vacille et tout s'effondre, il était temps de réfléchir
L'idée de la double confiance est intéressante, mais en pratique, ne deviendra-t-elle pas une nouvelle faille unique ? Il faut voir comment elle se comporte dans un environnement réel
Voir l'originalRépondre0
ContractCollector
· 01-07 00:30
Je pense que c'est ça la vraie affaire, pas ces projets qui se vantent tous les jours de renverser le monde et qui ne peuvent pas être comparés
En réalité, je crains une chose : lorsque la crise extrême arrivera, toutes les sources de données s'effondreront, alors qui viendra sauver la mise ?
L'idée de la couche de jugement AI est effectivement innovante, mais la fiabilité de la double confiance dépendra de ses performances réelles
Les oracles ont pour but fondamental d'amener le désordre hors chaîne vers la chaîne, ce projet s'attaque directement au problème
La précision des prix n'est qu'une façade, la véritable épreuve viendra des moments de cygne noir que vous n'avez pas imaginés
Je comprends cette logique de décomposition en couches, c'est-à-dire séparer la vitesse et la certitude pour éviter qu'elles ne se concurrencent
Une solution simple et brutale avec une seule source de données aurait dû être abandonnée depuis longtemps, et là, il y a encore des gens qui parient là-dessus, je n'aurais jamais pensé
Cette architecture mérite d'être suivie, mais aussi bien la vanter ne suffit pas, il faut qu'elle passe par une épreuve de marché pour être validée
Voir l'originalRépondre0
MysteryBoxAddict
· 01-07 00:28
Ah, c'est exactement ce que j'ai toujours voulu dire, le vrai problème des oracles ne réside pas dans la qualité de la technologie, mais dans le fait que dans le monde réel, il n'existe pas de vérité absolue.
L'idée du mécanisme à double couche est intéressante, mais pour le dire franchement, plus il y a de validations, plus face à un événement imprévu comme un cygne noir, cela reste insuffisant face au marché.
Cette approche est bien plus fiable que ces projets qui se vantent d'être les premiers tous les jours. Enfin, quelqu'un ose affronter directement les situations extrêmes.
Honnêtement, je suis un peu inquiet à l'idée que l'IA prenne en charge la couche de jugement. Est-ce que cette chose est fiable ? Ne risque-t-elle pas aussi d'être manipulée ?
Séparer la collecte de données et la confirmation sur la blockchain, c'est une idée intéressante, mais cela semble introduire un nouveau risque de latence.
Le conflit entre la réalité et ce qui est sur la chaîne ne pourra jamais être complètement résolu. Ce projet au moins reconnaît cela, ce qui le différencie des autres.
Quand le marché s'effondre soudainement, personne ne peut vous sauver, pas même un oracle. Ne vous prenez pas la tête.
Je veux juste savoir si ce mécanisme peut vraiment tenir en situation réelle. Les tests simulés sont très différents de la réalité.
Cette logique est cohérente, mais on a l'impression qu'on essaie de réparer un système qui a déjà des fissures.
Ces derniers temps, je me suis penché sur le sujet des oracles, et mes idées ont beaucoup évolué. Avant, je me concentrais principalement sur les détails techniques, mais maintenant je m'intéresse à une question plus fondamentale : comment la blockchain peut-elle réellement se connecter au monde réel ? Comment passer d'une conception idéalisée et auto-illusionnée à un fonctionnement responsable et authentique ?
En clair, dès qu’un contrat intelligent implique des éléments hors chaîne — fluctuations de prix, données de réserves d’actifs, événements d’actualité soudains — sa vulnérabilité est totalement exposée. Les règles internes à la blockchain sont fixes et déterministes, mais le monde réel est chaotique, sans réponse standard absolue.
C’est cette prise de conscience qui m’a fait commencer à suivre un projet en particulier. Contrairement à ceux qui prétendent vouloir dominer le secteur des oracles, il se concentre plutôt sur l’étude approfondie des scénarios extrêmes capables de faire échouer un protocole — krachs de marché, sources de données contradictoires, manipulation malveillante, voire des périodes de vide informationnel avant que la vérité ne soit révélée. Certains organismes de recherche le qualifient d’oracle renforcé par l’IA, sa force réside dans sa capacité à traiter des données complexes non structurées comme les actualités ou les dynamiques sociales, plutôt que de se limiter à des données propres comme le prix des tokens.
Le point clé de différenciation : un mécanisme de double confiance pour assurer la sécurité, plutôt que de s’appuyer uniquement sur une seule source de données.
La majorité des évaluations des oracles sur le marché se basent sur un seul critère : la précision du prix rapporté. Mais ce projet répond à une question plus profonde — lorsque le monde devient flou, contesté, voire chaotique, l’oracle peut-il tenir le coup ?
Son architecture est conçue en couches. En résumé, il utilise l’IA et de grands modèles pour construire une couche de jugement, complétée par une couche de soumission, puis ancre les données vérifiées sur la blockchain. Essentiellement, il sépare la collecte et l’interprétation des données du processus de confirmation finale sur la chaîne — une étape particulièrement cruciale, car la capture rapide des données et la validation vérifiable de la finalité sont intrinsèquement en tension.