Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Même les maîtres de l'IA copient ce devoir : utiliser LLM Wiki pour construire une base de connaissances personnelle efficace
Rédigé par : contributeur principal de Biteye Shouyi
*Texte intégral d’environ 2300 mots, temps de lecture estimé : 6 minutes
Chaque jour, on nourrit l’IA avec des éléments, et elle s’en détourne aussitôt en les oubliant ; les Tokens se consument à toute vitesse, et la base de connaissances finit par devenir un « immeuble inachevé » ?
L’ancien cofondateur d’OpenAI / directeur de l’IA chez Tesla Andrej Karpathy @karpathy vient de fournir la solution ultime. Le 3 avril, il a publié un tweet totalisant plus de 17 millions de vues et a open-sourcé un guide hardcore : llm-wiki.
Ce guide, qui a déjà récolté plus de 5000 Stars, propose : utiliser de grands modèles pour bâtir sa propre base de connaissances, afin d’en finir avec le « brûlage aveugle de Tokens » et de faire en sorte que les connaissances, comme des actifs numériques, « génèrent automatiquement des intérêts ».
Aujourd’hui, la rédaction te démonte à fond, façon hardcore, ce tutoriel pratique que même les grands pontes utilisent !
01 Pourquoi tes tentatives de base de connaissances échouaient-elles toujours ?
Avant de commencer à construire, comprends d’abord deux schémas d’échec les plus courants, afin d’éviter de retomber dans les mêmes travers.
Le plus gros problème de ce type de schéma, c’est que ça « oublie » tout en plus de brûler des Tokens. Quand tu lui donnes des dizaines de milliers de mots de livres blancs sur la chaîne (coin) ou les derniers articles de recherche en IA, elle lit tout en bourdonnant, puis te fait un résumé version “gain de temps”. Résultat : la semaine suivante, tu lui demandes : « Quelle différence entre le projet de la semaine dernière et ce concurrent d’aujourd’hui ? » Elle ne se souvient que de ce maigre résumé de départ. Parce que chaque appel dépend d’une recherche fragmentée : aucune consolidation structurée ne se forme, et la consommation de Tokens est énorme.
Le propre de ce type de schéma, c’est qu’il est 100 % construit manuellement : poser des tags, construire des double liens, dresser la table des matières… Karpathy l’a résumé en une phrase qui tombe juste : « Le vrai problème quand on veut organiser ses connaissances, ce n’est pas de lire et de réfléchir : c’est le “tenu de comptes” (classification, mise en page). » Les humains s’épuisent, tandis que l’IA est toujours en ligne. Avant, tout ce sale boulot était porté à bout de bras par des humains : forcément, on finit par abandonner.
02 Décomposition logique : la « chaîne de production entièrement automatique » de LLM Wiki
Le cœur de la solution de Karpathy, c’est le changement de rôle : toi, tu t’occupes seulement d’être le « fournisseur de matière », tandis que tout le sale et gros travail est confié à l’IA. Ce système se compose de trois niveaux logiques :
Premier niveau : dépôt de matières premières (uniquement entrée, jamais sortie)
Les rapports approfondis, longs tweets, tutoriels IA, enregistrements de podcasts que tu vois au quotidien : tu les y jettes directement. C’est une « source unique de vérité » absolue ; le grand modèle ne doit que regarder, et absolument ne doit pas modifier.
Deuxième niveau : cœur du Wiki (prise en charge totale par l’IA)
Ici, ce ne sont que des fichiers Markdown purs. Tu n’as absolument pas besoin de gérer la mise en page : l’IA extrait automatiquement tes matières premières en « cartes de concepts » et « tableaux comparatifs de concurrents sur une même voie ». Tu n’as qu’à lire ; c’est l’IA qui écrit et met à jour.
Troisième niveau : règles SOP (tes règles maison)
Écris un fichier de configuration CLAUDE.md ou GPT.md, et dis à l’IA quelles sont les règles. Par exemple : « Pour tous les rapports de recherche sur le secteur des coins, il faut extraire l’économie des tokens et le profil de l’équipe », « Pour tous les tutoriels IA, il faut résumer avec 3 codes de Prompt exécutables ».
03 Tutoriel pratique : de « brûler des Tokens » à « valoriser des actifs », trois actions avec une chaîne de production — comment la faire tourner ? Les trois actions clés suivantes font directement démarrer ta base de connaissances en “générant des intérêts” à la seconde :
Action 1 : ingestion automatique (Ingest)
Scénario “crevette” : tu y déposes un rapport de recherche Web3 de 20k mots, avec juste une phrase « note-moi ça ».
Exécution par l’IA : en arrière-plan, elle lit rapidement, et non seulement elle génère automatiquement le fichier Projet A_note de recherche et d’investissement.md, mais elle met aussi à jour, par la même occasion, le fichier global de table des matières.md. Elle ira même ajouter ce nouveau projet dans le fichier d’analyse des concurrents de voie que tu avais écrit auparavant : 赛道竞品分析.md. Une fois lu, tout le réseau s’active !
Action 2 : questions et « intérêts composés des connaissances » (Query)
Scénario “crevette” : tu demandes à la volée : « Fusionne pour moi mes 5 articles récents sur les techniques de Prompt pour les grands modèles, et écris-moi un texte accrocheur pour RedBook. » L’IA va instantanément chercher les morceaux essentiels à haute densité pour te le rédiger.
Intérêts composés des connaissances : Karpathy insiste : de bonnes questions et de bonnes réponses ne doivent absolument pas rester à moisir dans la fenêtre de chat ! Si tu estimes que le résumé de ce texte est bon, donne directement à l’IA l’instruction : « Enregistre ce résumé dans le Wiki, et crée une nouvelle page appelée Prompt modèle universel.md. » C’est carrément un « restaking » des connaissances : plus tu l’utilises, plus ça s’épaissit !
Action 3 : grand nettoyage de fin de nuit (Lint)
Scénario “crevette” : juste avant de dormir, tu donnes la consigne « fais un bilan de santé de la base de connaissances ».
Exécution par l’IA : comme un robot aspirateur, elle scanne l’ensemble. Le lendemain matin, elle te fait un rapport : « Patron, l’outil AI que tu avais enregistré le mois dernier est maintenant payant ; ça entre en conflit avec la logique de ton “guide gratuit pour tout voler gratuitement” enregistré hier. Veux-tu que je le mette à jour ? »
04 Configuration avancée : Obsidian + grand modèle = outil ultime en hors-série
Quand on s’est lancé dans la mémoire à long terme par le passé, on ne pouvait pas éviter les bases de données vectorielles complexes, mais pour la plupart des gens, la marche est trop haute. Si la recherche locale n’est pas performante, l’expérience devient franchement inutile. La combinaison ultime recommandée par Karpathy, c’est : Obsidian (logiciel de prise de notes local) + grand modèle.
Obsidian, c’est comme un éditeur de code ; le grand modèle, c’est ton développeur freelance externalisé. En abandonnant les bases de données complexes, il te suffit de deux fichiers clés pour faire exploser (dans le bon sens) la consommation de Tokens :
index.md (plan global) : enregistre les résumés et les liens de toutes les pages. À chaque fois que l’IA répond à une question, elle parcourt d’abord le plan, puis va récupérer précisément les notes correspondantes, sans avoir besoin de relire à chaque fois des dizaines de milliers de mots. Consommation de Tokens réduite de 90 % !
log.md (journal des opérations) : enregistre, dans l’ordre chronologique, ce que l’IA fait chaque jour et quels fichiers elle modifie, pour que tu puisses « contrôler sur place » à tout moment.
En complément d’Obsidian, avec la fonction de sauvegarde “une touche” des pages web et la carte étoilée globale des connaissances, la base de connaissances peut aussi devenir visuelle.
05 Résumé : ouvre l’ère de ta « production d’intérêts des connaissances »
En 2026, à l’ère de la surcharge d’informations, celui qui peut faire fructifier ses connaissances avec le coût de frottement le plus faible pourra mobiliser le plus grand levier avec le moins de Tokens.
Comme le souligne Karpathy dans cette open-sourcing : il ne s’agit pas d’un simple code rigide, mais d’un « document idéologique » écrit pour être lu par l’IA. Tu n’as qu’à nourrir le lien de son guide dans ton Agent dédié, et tu passes immédiatement en mode “gagner en restant couché”.
Fais bouger la base de connaissances, fais en sorte que les Tokens ne s’épuisent pas, et que tes crevettes ne soient plus des crevettes à œil blanc qu’on n’arrive pas à élever !