Karpathy LLM Wiki — le "second brain" Markdown qui valide notre approche¶
Resume¶
Andrej Karpathy publie un gist decrivant comment il utilise les LLM pour construire des bases de connaissances personnelles. Le pattern : 3 dossiers (raw/, wiki/, outputs/) + 1 fichier schema (CLAUDE.md ou AGENTS.md). Le LLM organise les sources brutes en wiki Markdown interconnecte, repond aux questions en s'appuyant sur le wiki, et un health check periodique detecte contradictions et claims non sourcees. 53K likes, 97K bookmarks, 18M vues — le post le plus viral de la semaine IA.
Analyse critique¶
Ce qui est juste :
Le pattern est elegant par sa simplicite. Pas de vector DB, pas de RAG pipeline complexe, juste des fichiers plats et un schema. La capitalisation composee (chaque question enrichit le wiki) est le vrai unlock — c'est exactement ce que ProbatioVault fait avec les learnings et les specs-index depuis fevrier 2026.
Le health check periodique est le mecanisme le plus sous-estime du pattern. @HFloyd dans les replies souleve le vrai risque : "quand les outputs sont re-injectes, les erreurs composent aussi". Le health check est la reponse : detecter contradictions, claims non sourcees, et topics mentionnes mais jamais expliques.
L'explosion communautaire est impressionnante :
| Qui | Quoi | Engagement |
|---|---|---|
| @NickSpisak_ | Tuto step-by-step complet (qmd + yt-dlp + Obsidian) | 15K bookmarks, 567K vues |
| @cyrilXBT | Guide Obsidian + Claude second brain | 2.8K bookmarks |
| @heynavtoor | "Karpathy thinks RAG is broken" | 3K likes, 4.5K bookmarks |
| @intheworldofai | Implementation concrete Claude Code + Shadcn dashboard | 1.6K bookmarks |
| @coreyganim | 80/20 breakdown (3 dossiers + 1 schema) | — |
| @shannholmberg | 7 regles pour un wiki qu'on garde | — |
Ce qui est exagere :
- "RAG is broken" (@heynavtoor) : Non. RAG et LLM Wiki resolvent des problemes differents. RAG = retrieval ponctuel sur corpus large. LLM Wiki = capitalisation continue sur corpus personnel. Les deux coexistent.
- "Self-evolving system" (@intheworldofai) : Le wiki n'evolue pas tout seul — il faut un humain qui injecte des sources et pose des questions. Le compounding est reel, l'auto-evolution est du marketing.
- L'obsession Obsidian : Karpathy lui-meme dit "super simple and flat, just a nested directory of .md files". La moitie des replies sont des gens qui pitchent des plugins Obsidian. C'est le Notion trap v2.
Le vrai signal :
Le consensus communautaire converge vers : Markdown plat > database fancy, schema simple > configuration complexe, health check > confiance aveugle. C'est anti-hype et ca marche.
Pertinence ProbatioVault¶
Impact fort — Ce pattern est exactement ce que ProbatioVault fait deja :
| Concept Karpathy | Equivalent ProbatioVault | Statut |
|---|---|---|
raw/ sources brutes | docs/epics/ (specs, plans, rex) | En production |
wiki/ organise par LLM | data/specs-index/, data/learnings.jsonl | En production |
| Schema CLAUDE.md | CLAUDE.md + governance/CONSTITUTIONAL.md | En production |
| Health check periodique | /coherence (Prolog, 86.9%) | En production |
| Compounding | /gov-compounder (metrics + learnings) | En production |
Evolution : GBrain (@garrytan, https://x.com/garrytan/status/2040797478434549792) — le wiki git de Karpathy atteint ses limites a 2.3 GB (limite git = 5 GB). Garry Tan (YC) a concu GBrain : remplacement SQLite avec FTS5 + embeddings vectoriels dans un fichier unique. Architecture "thin CLI + fat skills", distinction "verite compilee" (resume a jour) vs "timeline" (historique immuable), API MCP pour Claude Code. MIT license bientot. C'est l'evolution naturelle du pattern Karpathy pour les knowledge bases volumineuses.
La validation de Karpathy renforce 3 items TODO :
- TODO #25 (Confidence scoring) : Le health check Karpathy = notre besoin de scorer la confiance des learnings. Ajouter le mecanisme de detection de contradictions dans le pipeline confidence.
- TODO #28 (Mesure efficacite compounding) : Karpathy confirme que le compounding fonctionne SI on a un health check. Notre boucle learnings-injection-step0 est le bon pattern.
- TODO #31 (Veille-enrich) : L'enrichissement automatise (agent-browser, scraping) est mainstream. Notre pipeline veille bookmarks X est dans la bonne direction.