ça fait longtemps que je regarde avec intérêt les discussions autour de cette notion de second cerveau. Les vidéos en fraçais d’Eliott Meunier sont très instructives à sujet : centraliser l’ensemble des informations que l’on manipule, aussi bien dans un domaine pro que perso, et les structurer pour les rendre exploitables. Il existe divers outils pour faire ça, certains ne jurent que par Notion, mais le nom qui revient le plus souvent est Obsidian.
Obsidian, c’est l’outil parfait pour le premier de la classe : tout est bien rangé, tout est accessible, on peut visualiser ses données sous forme de graphe, etc…
Ça m’a toujours profondément ennuyé. Pas parce que je rejetais le concept, je le comprends parfaitement, mais parce que passer des heures à structurer ses données, c’est pas mal dans le top 5 des occupations qui m’ennuient le plus, à égalité avec la salle d’attente d’un dentiste ou une discussion sur les prestations compensatoires avec Jean-Claude Bourret en mangeant des moules frites tièdes dans un resto d’autoroute (t’as la réf ?)
Bref, j’ai tenté au moins 10 fois de m’y mettre, et 10 fois j’ai abandonné au bout d’un quart d’heure.
Vous me voyez venir, on en arrive au virage du texte où je vais sortir « oui mais avec l’IA c’est différent ».
Bingo.
Un Obsidian réussi, c’est trois trucs :
– des données exhaustives : tout doit y être, il faut jouer le jeu et ne pas laisser traîner des trucs sur un Google Drive ou une boite mail
– de la structure : un tel arbre organisationnel ne se fait pas tout seul
– de la vie : pour que cette base ait un sens, il faut laisser « vivre » les données, rajouter de nouveaux liens, de nouvelles associations d’idées
Et, effectivement, l’IA aide énormément sur ces trois points :
– via divers automates, elle est capable d’aller chercher l’info là où elle se planque, pour la rapatrier dans votre base de connaissances
– au moment de l’insertion de la donnée, elle va faire en sorte de la mettre en forme de la catégoriser, de créer les cartouches d’entête pour la rendre parfaitement utilisable
– et enfin, un agent est tout à fait capable de faire du « gardening », c’est à dire entretenir tout ce réseau de connaissances, enlever les mauvaises herbes, nettoyer ce qui doit l’être, bref se balader au milieu de cet énorme volume de données pour qu’elles grandissent dans les meilleures conditions.
Mon setup actuel, c’est :
– un orchestrateur vibecodé en Go, qui assure le lien avec Obsidian d’un côté, et Postgres+pgvector de l’autre, pour entretenir une base vectorielle avec l’ensemble des données
– une façade sous le forme d’un MCP pour mon LLM local, des APIs pour qui veut, et qui expose des endpoints pour à la fois importer tout ce que je veux, et lancer une recherche
– et donc un Obsidian installé sur mon poste de travail, pour consulter et éditer les documents stockés
– j’ai également relié tout ça à mon agent de scraping, qui est capable de récupérer tout un site web, une vidéo, un PDF… pour en faire une version texte exploitable.
Au delà de l’amusement technique, le truc important à retenir est l’exploitation « souveraine » et centralisée de ses données : Obsidian n’est pas un SaaS, mais un outil à installer en local sur sa machine, et dont la seule base de données est un répertoire sur disque de fichiers Markdown : ça coche toutes les cases en terme d’indépendance, de versionabilité, d’autonomie.
Je ne sais sincèrement pas quelle forme prendra l’industrie du software dans les années à venir, et son implémentation dans les entreprises ou les foyers. Mais à force de sophistiquer les « contextes » de mes LLM, je suis aujourd’hui fermement convaincu que mettre du temps et de l’énergie dans sa base de connaissance est l’atout essentiel et la seule action long-terme qu’on peut lancer dans cette période ou beaucoup de choses évoluent.
Partager cet article :
Écrit par
Jean David Olekhnovitch
Oldschool developer, Auvergnat & European & Québécois d'adoption. At the crossroad between tech, people and culture. Living on a small Island in Québec