You signed in with another tab or window. Reload to refresh your session.You signed out in another tab or window. Reload to refresh your session.You switched accounts on another tab or window. Reload to refresh your session.Dismiss alert
docs(nl): fix Dutch language issues across oefeningen and verantwoording
Address awkward phrasings, anglicisms, and word-order issues flagged
during NL language review. Examples:
- "Wanneer schakelt plan mode iets toe wat je anders mist?" → "voegt ... toe dat ..."
- "herwerk" → "extra werk"
- "AI-assistant" → "AI-assistent" throughout verantwoording.md
- "tight feedback-loop" → "strakke feedback-loop"
- "gewhiteliste lijst" → "vooraf goedgekeurde lijst"
- "het sweet spot" → "de sweet spot"
- "in main" → "in de hoofdsessie"
- restored a few sentence fragments to full sentences where the trim
made them read crooked
No structural or technical content changes.
Co-Authored-By: Claude Opus 4.7 (1M context) <noreply@anthropic.com>
Copy file name to clipboardExpand all lines: docs/oefeningen.md
+1-1Lines changed: 1 addition & 1 deletion
Display the source diff
Display the rich diff
Original file line number
Diff line number
Diff line change
@@ -4,7 +4,7 @@ Leren gaat het best door experimenteren in een afgeschermde sandbox. Deze oefeni
4
4
5
5
## Vier categorieën
6
6
7
-
Kies waar je mee aan de slag wil — je voorkennis met Claude Code bepaalt mede je instap.
7
+
Kies waar je mee aan de slag wil — je ervaring met Claude Code bepaalt mede je instap.
8
8
9
9
1.**[Werken met Claude Code](oefeningen/claude-code.md)** — slash-commands, plan mode, `--dangerously-skip-permissions`, subagents, zelf-review, etc.
10
10
2.**[Plugins, skills en tools](oefeningen/plugins-skills-tools.md)** — wat de meegeleverde overheid-marketplace, `superpowers`, `rtk`, `ralph-loop` en andere features toevoegen aan een kale Claude Code-installatie.
Copy file name to clipboardExpand all lines: docs/oefeningen/claude-code.md
+9-9Lines changed: 9 additions & 9 deletions
Display the source diff
Display the rich diff
Original file line number
Diff line number
Diff line change
@@ -6,11 +6,11 @@ Deze categorie gaat over Claude Code zelf — niet over wat je bouwt, maar over
6
6
7
7
### Wanneer gebruik je `/clear` of `/compact`?
8
8
9
-
**Achtergrond:** Bij lange sessies loopt context vol — Claude haalt details door elkaar of mengt eerdere conclusies door latere antwoorden. `/clear` gooit de context weg; `/compact` laat Claude eerst samenvatten en gaat verder met die samenvatting. Kies `/clear` voor onderwerpwisseling, `/compact` voor doorlopend werk dat te lang werd.
9
+
**Achtergrond:** Bij lange sessies loopt de context vol — Claude haalt details door elkaar of vermengt eerdere conclusies met latere antwoorden. `/clear` gooit de context weg; `/compact` laat Claude eerst samenvatten en gaat verder met die samenvatting. Kies `/clear` voor onderwerpwisseling, `/compact` voor doorlopend werk dat te lang werd.
10
10
11
11
**Vergelijk:**
12
-
-*Bad practice:* één sessie open houden voor de wc-challenge, daarna een JSON-parser, daarna een bug fixen in de wc-code — Claude trekt conclusies door alle drie de contexten heen.
13
-
-*Good practice:*`/clear` tussen ongerelateerde taken (en als Claude afdwaalt); `/compact` als je context-bar bijna vol is maar je nog in dezelfde taak zit en de rode draad wil behouden.
12
+
-*Bad practice:* één sessie open houden voor de wc-challenge, daarna een JSON-parser, daarna een bug fixen in de wc-code — Claude trekt conclusies over alle drie de contexten heen.
13
+
-*Good practice:*`/clear` tussen ongerelateerde taken (en als Claude afdwaalt); `/compact` als de context bijna vol is maar je nog in dezelfde taak zit en de rode draad wil behouden.
14
14
15
15
**Probeer zelf:** Kies een eenvoudige challenge van [codingchallenges.fyi](https://codingchallenges.fyi/). Houd één sessie open, wissel midden in de implementatie van onderwerp en ga daarna verder met de challenge — observeer waar Claude afdwaalt. Herhaal met `/clear` op het wisselmoment en vergelijk de kwaliteit. Werk daarna door tot je context merkbaar gevuld is en probeer `/compact`: herken je je eigen aanpak nog in de samenvatting?
16
16
@@ -20,7 +20,7 @@ Deze categorie gaat over Claude Code zelf — niet over wat je bouwt, maar over
20
20
21
21
### Hoe bouw je een goede `CLAUDE.md` op?
22
22
23
-
**Achtergrond:**`CLAUDE.md` is het per-project instructiebestand dat Claude in elke sessie meeneemt. Een goed bestand vangt projectconventies, pijnpunten, hoe je tests draait en wat Claude juist *niet* moet doen — kort, concreet, niet doublerend met code die hij toch al ziet. `/init` levert een eerste schets; daarna verfijn je hem zelf. Naast project-`CLAUDE.md` bestaat ook een globale `~/.claude/CLAUDE.md` voor instructies die voor al je werk gelden (taalvoorkeur, default review-stijl). De project-versie heeft voorrang bij conflict.
23
+
**Achtergrond:**`CLAUDE.md` is het per-project instructiebestand dat Claude in elke sessie meeneemt. Een goed bestand vangt projectconventies, pijnpunten, hoe je tests draait en wat Claude juist *niet* moet doen — kort, concreet, geen herhaling van code die hij toch al ziet. `/init` levert een eerste schets; daarna verfijn je het zelf. Naast project-`CLAUDE.md` bestaat ook een globale `~/.claude/CLAUDE.md` voor instructies die voor al je werk gelden (taalvoorkeur, default review-stijl). De project-versie heeft voorrang bij conflict.
24
24
25
25
**Vergelijk:**
26
26
-*Bad practice (leeg):* geen `CLAUDE.md` — Claude moet bij elke sessie raden hoe je tests draait, welke conventies tellen en wat een goede commit-message is. Iedere keer opnieuw uitleggen.
@@ -44,7 +44,7 @@ Voor onderhoud van een groeiend bestand — opschonen, tegenstrijdigheden signal
44
44
45
45
### Wat onthoudt Claude tussen sessies via memory?
46
46
47
-
**Achtergrond:** Naast `CLAUDE.md` heeft Claude Code automatisch geheugen: tijdens je werk noteert hij wat hij in een volgende sessie nuttig acht — een correctie, een conventie die uit een bug bleek, een herhaalde voorkeur. Verschil met `CLAUDE.md`: dat schrijf jij bewust; memory bouwt Claude zelf op. Opslag in `~/.claude/projects/<project>/memory/` — alle worktrees binnen dezelfde repo delen één memory-directory ([Anthropic docs: Storage location](https://code.claude.com/docs/en/memory#storage-location)). Met `/memory` bekijk en bewerk je wat er staat.
47
+
**Achtergrond:** Naast `CLAUDE.md` heeft Claude Code automatisch geheugen: tijdens je werk noteert hij wat hij in een volgende sessie nuttig acht — een correctie, een conventie die uit een bug bleek, een herhaalde voorkeur. Verschil met `CLAUDE.md`: dat schrijf jij bewust; memory bouwt Claude zelf op. Memory wordt opgeslagen in `~/.claude/projects/<project>/memory/` — alle worktrees binnen dezelfde repo delen één memory-directory ([Anthropic docs: Storage location](https://code.claude.com/docs/en/memory#storage-location)). Met `/memory` bekijk en bewerk je wat er staat.
48
48
49
49
**Vergelijk:**
50
50
-*Bad practice:* dezelfde correctie meerdere sessies geven ("gebruik `pnpm` niet `npm`") — zonder memory blijft Claude de fout maken.
@@ -70,13 +70,13 @@ Deze drie samen geven je een knop om verbruik en kwaliteit per taak af te stemme
70
70
-*Bad practice:* default-instellingen voor alles — Opus + xhigh op een rename verbrandt budget; Haiku op complexe refactor mist diepte.
71
71
-*Good practice:* per taak bewust kiezen — zwaarder model/hogere effort voor planning, ontwerp, complex debuggen; lichter voor mechanische edits, kleine fixes, eenvoudige scripts. `/cost` af en toe checken.
72
72
73
-
**Probeer zelf:** Pak een challenge en voer dezelfde substantiële taak (feature met meerdere stappen) twee keer uit: één keer op default model+effort, één keer op een lichter model of lager effort-level (effort werkt niet op Haiku). Noteer doorlooptijd en `/cost` van beide. Doe dan ook een lichte taak (typo-fix, rename) op default én omlaag-gezet — zie je verschil?
73
+
**Probeer zelf:** Pak een challenge en voer dezelfde substantiële taak (feature met meerdere stappen) twee keer uit: één keer met de standaardinstellingen voor model en effort, één keer met een lichter model of een lager effort-level (effort werkt niet op Haiku). Noteer doorlooptijd en `/cost` van beide. Doe daarna ook een lichte taak (typo-fix, rename) op de standaardinstellingen én op een lager niveau — zie je verschil?
74
74
75
75
**Wat je leert:** Je krijgt gevoel voor welke combinatie bij welk soort werk past, en voor de prijs/kwaliteit-curve van het model+effort-paar.
76
76
77
77
---
78
78
79
-
### Wanneer schakelt plan mode iets toe wat je anders mist?
79
+
### Wanneer voegt plan mode iets toe dat je anders mist?
80
80
81
81
**Achtergrond:** Plan mode dwingt Claude een expliciet plan voor te leggen vóórdat hij code aanpast, zodat jij kunt bijsturen voordat er werk verzet is dat je toch niet wilt.
82
82
@@ -88,7 +88,7 @@ Deze drie samen geven je een knop om verbruik en kwaliteit per taak af te stemme
88
88
89
89
**Wat je leert:** Je ervaart wanneer een expliciet plan totale doorlooptijd verlaagt doordat je minder werk hoeft terug te draaien.
90
90
91
-
> Plan mode en subagents werken vaak goed samen: laat Claude in main het plan opstellen en delen van de uitvoering — typisch breed-zoeken, samenvatten — delegeren aan een subagent. Zie de [subagent-oefening](#wanneer-delegeer-je-aan-een-subagent) hieronder.
91
+
> Plan mode en subagents werken vaak goed samen: laat Claude in de hoofdsessie het plan opstellen en delen van de uitvoering — denk aan brede zoekacties of samenvatten — aan een subagent delegeren. Zie de [subagent-oefening](#wanneer-delegeer-je-aan-een-subagent) hieronder.
92
92
93
93
---
94
94
@@ -139,7 +139,7 @@ Vergelijk wat elke vorm oplevert.
139
139
**Achtergrond:** De Task/Agent-tool start een subagent in een eigen contextvenster. Die doet zijn werk — bestanden zoeken, logs uitpluizen, diff analyseren — en stuurt alleen een samenvatting terug. Verbose tussenstappen (search-output, logregels, file-dumps) belanden niet in jouw hoofdcontext. Bij brede zoektaken op grote codebases scheelt dat vaak ruimte voor de implementatie zelf. Review-plugins zoals `pr-review-toolkit` werken intern via subagents — maar je kunt de Agent-tool ook expliciet zelf inroepen.
140
140
141
141
**Vergelijk:**
142
-
-*Bad practice:* Claude in je hoofdsessie laten zoeken naar "alle plekken waar functie X aangeroepen wordt" in een grote codebase — `grep`-resultaten en file-fragmenten vullen je context, en de daadwerkelijke fix moet daarna plaatsvinden in een al volgelopen sessie.
142
+
-*Bad practice:* Claude in je hoofdsessie laten zoeken naar "alle plekken waar functie X aangeroepen wordt" in een grote codebase — `grep`-resultaten en file-fragmenten vullen je context, en de daadwerkelijke fix moet daarna plaatsvinden in een sessie waarvan de context al vol is.
143
143
-*Good practice:* "Gebruik een subagent om alle aanroepen van X in kaart te brengen en alleen een lijst van bestand:regel-paren terug te geven" — de zoektocht blijft in de geïsoleerde context, jij krijgt een nette tabel terug en houdt ruimte voor de fix.
144
144
145
145
**Probeer zelf:** Pak een [codingchallenges.fyi](https://codingchallenges.fyi/)-challenge waar al wat code in zit. Doe dezelfde verkenning twee keer:
Copy file name to clipboardExpand all lines: docs/oefeningen/plugins-skills-tools.md
+11-11Lines changed: 11 additions & 11 deletions
Display the source diff
Display the rich diff
Original file line number
Diff line number
Diff line change
@@ -1,6 +1,6 @@
1
1
# Oefeningen: plugins, skills en tools
2
2
3
-
Deze categorie gaat over de skills, plugins en CLI-tools die in de container zitten. Ze bouwen voort op een kale Claude Code-installatie met domeinkennis, gespecialiseerde review-agents en context-optimalisatie. Wie ze bewust inzet haalt meer uit de container dan wie ze links laat liggen.
3
+
Deze categorie gaat over de skills, plugins en CLI-tools die in de container zitten. Ze bouwen voort op een kale Claude Code-installatie met domeinkennis, gespecialiseerde review-agents en context-optimalisatie. Wie ze bewust inzet, haalt meer uit de container dan wie ze links laat liggen.
4
4
5
5
## Snelle vs diepe vergelijking
6
6
@@ -17,7 +17,7 @@ De oefeningen hieronder gebruiken standaard de snelle variant en noemen de diepe
17
17
18
18
### Wat doet de overheid-marketplace voor je werk?
19
19
20
-
**Achtergrond:** De container bevat skills uit `developer-overheid-nl/skills-marketplace`: `standaarden`, `nerds`, `internet`, `geo`, `developer-overheid` en `zad-actions`. Relevant als je werk dicht bij NL-overheidsstandaarden ligt — API-design, authenticatie, berichtenuitwisseling, geodiensten. Zonder deze skills leunt Claude op generieke kennis en mist NL-specifieke regels (problem+json, ADR, OIN, Digikoppeling).
20
+
**Achtergrond:** De container bevat skills uit `developer-overheid-nl/skills-marketplace`: `standaarden`, `nerds`, `internet`, `geo`, `developer-overheid` en `zad-actions`. Deze zijn relevant als je werk dicht bij NL-overheidsstandaarden ligt — API-design, authenticatie, berichtenuitwisseling, geodiensten. Zonder deze skills leunt Claude op generieke kennis en mist hij NL-specifieke regels (problem+json, ADR, OIN, Digikoppeling).
21
21
22
22
**Vergelijk:**
23
23
-*Bad practice:* REST-API bouwen zonder skills aan te roepen — generieke API zonder ADR, ADR-linting of problem+json.
@@ -38,11 +38,11 @@ Welke skills bij welk werk passen: REST API → `standaarden:ls-api` (ADR/lintin
**Achtergrond:**`rtk` verkort verbose CLI-output (witruimte, comments, herhalingen) voordat die in Claude's context belandt. Werkt via een hook die commando's automatisch herschrijft (`git status` → `rtk git status`). Helpt bij grote codebases of lange bestanden; bij kleine gerichte vragen weinig extra.
41
+
**Achtergrond:**`rtk` verkort verbose CLI-output (witruimte, comments, herhalingen) voordat die in Claude's context belandt. Het werkt via een hook die commando's automatisch herschrijft (`git status` → `rtk git status`). Dit helpt bij grote codebases of lange bestanden; bij kleine, gerichte vragen voegt het weinig toe.
42
42
43
43
**Vergelijk:**
44
-
-*Bad practice:* groot project automatisch laden terwijl je 5% nodig hebt — context vol, Claude verliest overzicht.
45
-
-*Good practice:* rtk inzetten op grote bestanden/mappen waar je het exacte relevante deel nog niet weet.
44
+
-*Bad practice:*een groot project automatisch laden terwijl je maar 5% nodig hebt — de context loopt vol en Claude verliest het overzicht.
45
+
-*Good practice:* rtk inzetten op grote bestanden of mappen waar je het exacte relevante deel nog niet weet.
46
46
47
47
**Probeer zelf:** Pak een lange context (bv. een groot README plus meerdere source-bestanden), stuur dezelfde vraag eenmaal met en eenmaal zonder rtk. Vergelijk de antwoordkwaliteit en het tokenverbruik — gebruik `/cost` om het verschil meetbaar te maken (zie de [oefening over runtime-instellingen](claude-code.md#hoe-stuur-je-per-sessie-het-model-de-denkdiepte-en-de-kosten)). Probeer dit bij [codingchallenges.fyi](https://codingchallenges.fyi/) met een challenge waarvan de codebase al flink gegroeid is.
48
48
@@ -61,7 +61,7 @@ Welke skills bij welk werk passen: REST API → `standaarden:ls-api` (ADR/lintin
61
61
**Achtergrond:** De `superpowers`-plugin levert process-skills: `brainstorming`, `test-driven-development`, `systematic-debugging`, `writing-plans`, `executing-plans`. Elke skill stuurt Claude's aanpak en redeneer-volgorde, niet alleen de output — dat onderscheidt ze van een gewone prompt-instructie.
62
62
63
63
**Vergelijk:**
64
-
-*Bad practice:* meteen code schrijven voor een feature die nog niet is uitgedacht — Claude bouwt op aannames die jij later corrigeert, veel herwerk.
64
+
-*Bad practice:* meteen code schrijven voor een feature die nog niet is uitgedacht — Claude bouwt op aannames die jij later corrigeert, met veel extra werk tot gevolg.
65
65
-*Good practice:*`superpowers:brainstorming` vóór de eerste regel code; `systematic-debugging` bij een hardnekkige bug; `test-driven-development` voor algoritmes met duidelijke acceptatiecriteria.
66
66
67
67
**Probeer zelf:** Pak één van je oefen-challenges van [codingchallenges.fyi](https://codingchallenges.fyi/) en doe hem twee keer:
@@ -79,7 +79,7 @@ Wat verandert aan tempo en kwaliteit?
79
79
80
80
### Wat doet de Ralph-loop voor je en wanneer gebruik je hem?
81
81
82
-
**Achtergrond:** De Ralph-loop, oorspronkelijk beschreven door [Geoffrey Huntley](https://ghuntley.com/ralph/), zet Claude in een loop met dezelfde prompt zodat hij vanzelf blijft itereren tot een taak af is. Perfect voor challenges waar je gewoon wilt dat het eindresultaat er komt zonder dat je zelf elke iteratie hoeft te starten. In deze container zit Anthropic's officiële [`ralph-loop`](https://claude.com/plugins/ralph-loop)-plugin standaard mee (de broncode op GitHub staat onder de naam [`ralph-wiggum`](https://github.com/anthropics/claude-code/tree/main/plugins/ralph-wiggum)). Hij levert de slash-commands `/ralph-loop` en `/cancel-ralph`, een Stop-hook die sessie-exits onderschept, en `--max-iterations` als veiligheidsnet. De [zelf-review-oefening](claude-code.md#wat-verandert-er-als-je-claude-zijn-eigen-werk-laat-reviewen) is een natuurlijke bouwsteen: een sterke review-prompt geeft de loop iets concreets om elke iteratie aan af te meten.
82
+
**Achtergrond:** De Ralph-loop, oorspronkelijk beschreven door [Geoffrey Huntley](https://ghuntley.com/ralph/), zet Claude in een loop met dezelfde prompt zodat hij vanzelf blijft itereren tot een taak af is. Perfect voor challenges waar je gewoon wilt dat het eindresultaat er komt zonder dat je zelf elke iteratie hoeft te starten. In deze container zit Anthropic's officiële [`ralph-loop`](https://claude.com/plugins/ralph-loop)-plugin standaard mee (de broncode op GitHub staat onder de naam [`ralph-wiggum`](https://github.com/anthropics/claude-code/tree/main/plugins/ralph-wiggum)). Deze plugin levert de slash-commands `/ralph-loop` en `/cancel-ralph`, een Stop-hook die sessie-exits onderschept, en `--max-iterations` als veiligheidsnet. De [zelf-review-oefening](claude-code.md#wat-verandert-er-als-je-claude-zijn-eigen-werk-laat-reviewen) is een natuurlijke bouwsteen: een sterke review-prompt geeft de loop iets concreets om elke iteratie aan af te meten.
83
83
84
84
**Vergelijk:**
85
85
-*Bad practice:* een vage prompt loslaten zonder iteratielimiet — Claude itereert eindeloos zonder richting, verbrandt tokens en convergeert niet.
@@ -135,15 +135,15 @@ Gebruik voor de codebase een [codingchallenges.fyi](https://codingchallenges.fyi
135
135
136
136
### Wanneer helpt `caveman` en wanneer hindert het?
137
137
138
-
**Achtergrond:**`caveman` (third-party) drukt Claude's antwoordstijl in ultra-compacte vorm: lidwoorden weg, fragmenten oké, geen beleefdheidsfrasen. Doel ~75% token-reductie in output. Helpt bij iteratieve debug-loops met korte beurten; werkt tegen bij uitleg, code review of onboarding waar volledige zinnen de leesbaarheid bepalen. Heeft niveaus (licht tot chinese tekens) en is mid-sessie te schakelen.
138
+
**Achtergrond:**`caveman` (third-party) drukt Claude's antwoordstijl in een ultra-compacte vorm: lidwoorden weglaten, fragmenten zijn toegestaan, geen beleefdheidsfrasen. Het doel is ~75% token-reductie in de output. Helpt bij iteratieve debug-loops met korte beurten; werkt tegen je bij uitleg, code review of onboarding waar volledige zinnen de leesbaarheid bepalen. De plugin heeft niveaus (van licht tot chinese tekens) en is tijdens een sessie te schakelen.
139
139
140
140
**Vergelijk:**
141
-
-*Bad practice:* caveman aan tijdens lange architectuur-uitleg of code review — moeilijk leesbaar voor collega's; *waarom*-details verdwijnen tussen de fragmenten.
142
-
-*Good practice:* caveman aan tijdens snelle debug-cyclus (10+ korte beurten); uit zodra je een schrijftaak doet (commit, PR-beschrijving, ticket-uitleg).
141
+
-*Bad practice:* caveman aan tijdens lange architectuur-uitleg of code review — moeilijk leesbaar voor collega's; *waarom*-details gaan tussen de fragmenten verloren.
142
+
-*Good practice:* caveman aan tijdens een snelle debug-cyclus (10+ korte beurten); uit zodra je een schrijftaak doet (commit, PR-beschrijving, ticket-uitleg).
143
143
144
144
**Probeer zelf:** Doe één sessie in twee helften:
145
145
146
-
1. Caveman aan: start met `/caveman full`. Werk 10–15 minuten aan een iteratieve taak (bv. een bug stap voor stap pinpointen, of een functie tot tests groen krijgen). Let op tempo en token-verbruik.
146
+
1. Caveman aan: start met `/caveman full`. Werk 10–15 minuten aan een iteratieve taak (bv. een bug stap voor stap pinpointen, of een functie zo aanpassen dat de tests slagen). Let op tempo en token-verbruik.
147
147
2. Caveman uit: vraag Claude in chat "stop caveman" (chat-instructie, geen shell-commando). Doe daarna een uitleg- of review-taak (bv. "leg uit waarom deze test faalde" of "review deze diff"). Vergelijk leesbaarheid en informatiedichtheid.
148
148
149
149
Voor een zuiverder vergelijking (zonder de skill-discovery hook): `claude plugin disable caveman` en herstart Claude — dan is de plugin volledig stil.
0 commit comments