Intégration Obsidian
Ce qui rend la note ingérable par votre vault.
Chaque ligne du fichier répond à un mécanisme qu'Obsidian sait exploiter. Glissez le .md, tout s'aligne.
- 01
Frontmatter YAML typé
Le panneau Properties d'Obsidian 1.4+ reconnaît les champs, les type (texte, date, URL, liste), et les expose dans le sidebar. Dataview et Bases requêtent sur ces clés. Sans frontmatter, la note est illisible par vos outils d'indexation.
--- title: Intro to neural networks source: https://youtu.be/... channel: Andrej Karpathy published: 2024-01-14 language: en output_language: en tags: [youtube, transcript, karpathy] ---
- 02
Callouts natifs
La syntaxe [!abstract] est spécifique à Obsidian. Elle rend une boîte stylée avec icône « résumé », distincte du texte autour. GitHub, Logseq, VSCode affichent juste une blockquote. C'est le marqueur visuel qui signale la densité du document.
> [!abstract] Résumé > Karpathy construit un micrograd > pour expliquer la backprop.
- 03
Timestamps qui reprennent la vidéo
Le lien youtu.be/ID?t=N ouvre le player pile à la seconde. Combiné au plugin Iframes, vous incrustez directement la vidéo dans la note et naviguez chapitre par chapitre sans quitter Obsidian.
### 2. Joint embedding · [14:21](https://youtu.be/abc?t=861)
- 04
Ancres partagées pour la transclusion
Les sections « Chapitres » et « Transcript » utilisent exactement les mêmes titres. Depuis une autre note, vous faites ![[video#2. Joint embedding]] et le bloc s'embed en live. Vous citez un chapitre dans votre MOC sans tout dupliquer.
Depuis une autre note : ![[video#2. Joint embedding]]
- 05
Nom de fichier anti-collision
Le suffixe <video_id> garantit qu'aucune note n'écrase une autre, même sur deux conférences homonymes. Vous traitez « Intro to AI » dix fois dans l'année, chaque note reste distincte.
intro-to-neural-networks-xm4K1l9O4qY.md