Skip to content

Commit 52d5676

Browse files
docs(nl): fix Dutch language issues across oefeningen and verantwoording
Address awkward phrasings, anglicisms, and word-order issues flagged during NL language review. Examples: - "Wanneer schakelt plan mode iets toe wat je anders mist?" → "voegt ... toe dat ..." - "herwerk" → "extra werk" - "AI-assistant" → "AI-assistent" throughout verantwoording.md - "tight feedback-loop" → "strakke feedback-loop" - "gewhiteliste lijst" → "vooraf goedgekeurde lijst" - "het sweet spot" → "de sweet spot" - "in main" → "in de hoofdsessie" - restored a few sentence fragments to full sentences where the trim made them read crooked No structural or technical content changes. Co-Authored-By: Claude Opus 4.7 (1M context) <noreply@anthropic.com>
1 parent 2e8c555 commit 52d5676

6 files changed

Lines changed: 43 additions & 43 deletions

File tree

docs/oefeningen.md

Lines changed: 1 addition & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -4,7 +4,7 @@ Leren gaat het best door experimenteren in een afgeschermde sandbox. Deze oefeni
44

55
## Vier categorieën
66

7-
Kies waar je mee aan de slag wil — je voorkennis met Claude Code bepaalt mede je instap.
7+
Kies waar je mee aan de slag wil — je ervaring met Claude Code bepaalt mede je instap.
88

99
1. **[Werken met Claude Code](oefeningen/claude-code.md)** — slash-commands, plan mode, `--dangerously-skip-permissions`, subagents, zelf-review, etc.
1010
2. **[Plugins, skills en tools](oefeningen/plugins-skills-tools.md)** — wat de meegeleverde overheid-marketplace, `superpowers`, `rtk`, `ralph-loop` en andere features toevoegen aan een kale Claude Code-installatie.

docs/oefeningen/claude-code.md

Lines changed: 9 additions & 9 deletions
Original file line numberDiff line numberDiff line change
@@ -6,11 +6,11 @@ Deze categorie gaat over Claude Code zelf — niet over wat je bouwt, maar over
66

77
### Wanneer gebruik je `/clear` of `/compact`?
88

9-
**Achtergrond:** Bij lange sessies loopt context vol — Claude haalt details door elkaar of mengt eerdere conclusies door latere antwoorden. `/clear` gooit de context weg; `/compact` laat Claude eerst samenvatten en gaat verder met die samenvatting. Kies `/clear` voor onderwerpwisseling, `/compact` voor doorlopend werk dat te lang werd.
9+
**Achtergrond:** Bij lange sessies loopt de context vol — Claude haalt details door elkaar of vermengt eerdere conclusies met latere antwoorden. `/clear` gooit de context weg; `/compact` laat Claude eerst samenvatten en gaat verder met die samenvatting. Kies `/clear` voor onderwerpwisseling, `/compact` voor doorlopend werk dat te lang werd.
1010

1111
**Vergelijk:**
12-
- *Bad practice:* één sessie open houden voor de wc-challenge, daarna een JSON-parser, daarna een bug fixen in de wc-code — Claude trekt conclusies door alle drie de contexten heen.
13-
- *Good practice:* `/clear` tussen ongerelateerde taken (en als Claude afdwaalt); `/compact` als je context-bar bijna vol is maar je nog in dezelfde taak zit en de rode draad wil behouden.
12+
- *Bad practice:* één sessie open houden voor de wc-challenge, daarna een JSON-parser, daarna een bug fixen in de wc-code — Claude trekt conclusies over alle drie de contexten heen.
13+
- *Good practice:* `/clear` tussen ongerelateerde taken (en als Claude afdwaalt); `/compact` als de context bijna vol is maar je nog in dezelfde taak zit en de rode draad wil behouden.
1414

1515
**Probeer zelf:** Kies een eenvoudige challenge van [codingchallenges.fyi](https://codingchallenges.fyi/). Houd één sessie open, wissel midden in de implementatie van onderwerp en ga daarna verder met de challenge — observeer waar Claude afdwaalt. Herhaal met `/clear` op het wisselmoment en vergelijk de kwaliteit. Werk daarna door tot je context merkbaar gevuld is en probeer `/compact`: herken je je eigen aanpak nog in de samenvatting?
1616

@@ -20,7 +20,7 @@ Deze categorie gaat over Claude Code zelf — niet over wat je bouwt, maar over
2020

2121
### Hoe bouw je een goede `CLAUDE.md` op?
2222

23-
**Achtergrond:** `CLAUDE.md` is het per-project instructiebestand dat Claude in elke sessie meeneemt. Een goed bestand vangt projectconventies, pijnpunten, hoe je tests draait en wat Claude juist *niet* moet doen — kort, concreet, niet doublerend met code die hij toch al ziet. `/init` levert een eerste schets; daarna verfijn je hem zelf. Naast project-`CLAUDE.md` bestaat ook een globale `~/.claude/CLAUDE.md` voor instructies die voor al je werk gelden (taalvoorkeur, default review-stijl). De project-versie heeft voorrang bij conflict.
23+
**Achtergrond:** `CLAUDE.md` is het per-project instructiebestand dat Claude in elke sessie meeneemt. Een goed bestand vangt projectconventies, pijnpunten, hoe je tests draait en wat Claude juist *niet* moet doen — kort, concreet, geen herhaling van code die hij toch al ziet. `/init` levert een eerste schets; daarna verfijn je het zelf. Naast project-`CLAUDE.md` bestaat ook een globale `~/.claude/CLAUDE.md` voor instructies die voor al je werk gelden (taalvoorkeur, default review-stijl). De project-versie heeft voorrang bij conflict.
2424

2525
**Vergelijk:**
2626
- *Bad practice (leeg):* geen `CLAUDE.md` — Claude moet bij elke sessie raden hoe je tests draait, welke conventies tellen en wat een goede commit-message is. Iedere keer opnieuw uitleggen.
@@ -44,7 +44,7 @@ Voor onderhoud van een groeiend bestand — opschonen, tegenstrijdigheden signal
4444

4545
### Wat onthoudt Claude tussen sessies via memory?
4646

47-
**Achtergrond:** Naast `CLAUDE.md` heeft Claude Code automatisch geheugen: tijdens je werk noteert hij wat hij in een volgende sessie nuttig acht — een correctie, een conventie die uit een bug bleek, een herhaalde voorkeur. Verschil met `CLAUDE.md`: dat schrijf jij bewust; memory bouwt Claude zelf op. Opslag in `~/.claude/projects/<project>/memory/` — alle worktrees binnen dezelfde repo delen één memory-directory ([Anthropic docs: Storage location](https://code.claude.com/docs/en/memory#storage-location)). Met `/memory` bekijk en bewerk je wat er staat.
47+
**Achtergrond:** Naast `CLAUDE.md` heeft Claude Code automatisch geheugen: tijdens je werk noteert hij wat hij in een volgende sessie nuttig acht — een correctie, een conventie die uit een bug bleek, een herhaalde voorkeur. Verschil met `CLAUDE.md`: dat schrijf jij bewust; memory bouwt Claude zelf op. Memory wordt opgeslagen in `~/.claude/projects/<project>/memory/` — alle worktrees binnen dezelfde repo delen één memory-directory ([Anthropic docs: Storage location](https://code.claude.com/docs/en/memory#storage-location)). Met `/memory` bekijk en bewerk je wat er staat.
4848

4949
**Vergelijk:**
5050
- *Bad practice:* dezelfde correctie meerdere sessies geven ("gebruik `pnpm` niet `npm`") — zonder memory blijft Claude de fout maken.
@@ -70,13 +70,13 @@ Deze drie samen geven je een knop om verbruik en kwaliteit per taak af te stemme
7070
- *Bad practice:* default-instellingen voor alles — Opus + xhigh op een rename verbrandt budget; Haiku op complexe refactor mist diepte.
7171
- *Good practice:* per taak bewust kiezen — zwaarder model/hogere effort voor planning, ontwerp, complex debuggen; lichter voor mechanische edits, kleine fixes, eenvoudige scripts. `/cost` af en toe checken.
7272

73-
**Probeer zelf:** Pak een challenge en voer dezelfde substantiële taak (feature met meerdere stappen) twee keer uit: één keer op default model+effort, één keer op een lichter model of lager effort-level (effort werkt niet op Haiku). Noteer doorlooptijd en `/cost` van beide. Doe dan ook een lichte taak (typo-fix, rename) op default én omlaag-gezet — zie je verschil?
73+
**Probeer zelf:** Pak een challenge en voer dezelfde substantiële taak (feature met meerdere stappen) twee keer uit: één keer met de standaardinstellingen voor model en effort, één keer met een lichter model of een lager effort-level (effort werkt niet op Haiku). Noteer doorlooptijd en `/cost` van beide. Doe daarna ook een lichte taak (typo-fix, rename) op de standaardinstellingen én op een lager niveau — zie je verschil?
7474

7575
**Wat je leert:** Je krijgt gevoel voor welke combinatie bij welk soort werk past, en voor de prijs/kwaliteit-curve van het model+effort-paar.
7676

7777
---
7878

79-
### Wanneer schakelt plan mode iets toe wat je anders mist?
79+
### Wanneer voegt plan mode iets toe dat je anders mist?
8080

8181
**Achtergrond:** Plan mode dwingt Claude een expliciet plan voor te leggen vóórdat hij code aanpast, zodat jij kunt bijsturen voordat er werk verzet is dat je toch niet wilt.
8282

@@ -88,7 +88,7 @@ Deze drie samen geven je een knop om verbruik en kwaliteit per taak af te stemme
8888

8989
**Wat je leert:** Je ervaart wanneer een expliciet plan totale doorlooptijd verlaagt doordat je minder werk hoeft terug te draaien.
9090

91-
> Plan mode en subagents werken vaak goed samen: laat Claude in main het plan opstellen en delen van de uitvoering — typisch breed-zoeken, samenvatten — delegeren aan een subagent. Zie de [subagent-oefening](#wanneer-delegeer-je-aan-een-subagent) hieronder.
91+
> Plan mode en subagents werken vaak goed samen: laat Claude in de hoofdsessie het plan opstellen en delen van de uitvoering — denk aan brede zoekacties of samenvatten — aan een subagent delegeren. Zie de [subagent-oefening](#wanneer-delegeer-je-aan-een-subagent) hieronder.
9292
9393
---
9494

@@ -139,7 +139,7 @@ Vergelijk wat elke vorm oplevert.
139139
**Achtergrond:** De Task/Agent-tool start een subagent in een eigen contextvenster. Die doet zijn werk — bestanden zoeken, logs uitpluizen, diff analyseren — en stuurt alleen een samenvatting terug. Verbose tussenstappen (search-output, logregels, file-dumps) belanden niet in jouw hoofdcontext. Bij brede zoektaken op grote codebases scheelt dat vaak ruimte voor de implementatie zelf. Review-plugins zoals `pr-review-toolkit` werken intern via subagents — maar je kunt de Agent-tool ook expliciet zelf inroepen.
140140

141141
**Vergelijk:**
142-
- *Bad practice:* Claude in je hoofdsessie laten zoeken naar "alle plekken waar functie X aangeroepen wordt" in een grote codebase — `grep`-resultaten en file-fragmenten vullen je context, en de daadwerkelijke fix moet daarna plaatsvinden in een al volgelopen sessie.
142+
- *Bad practice:* Claude in je hoofdsessie laten zoeken naar "alle plekken waar functie X aangeroepen wordt" in een grote codebase — `grep`-resultaten en file-fragmenten vullen je context, en de daadwerkelijke fix moet daarna plaatsvinden in een sessie waarvan de context al vol is.
143143
- *Good practice:* "Gebruik een subagent om alle aanroepen van X in kaart te brengen en alleen een lijst van bestand:regel-paren terug te geven" — de zoektocht blijft in de geïsoleerde context, jij krijgt een nette tabel terug en houdt ruimte voor de fix.
144144

145145
**Probeer zelf:** Pak een [codingchallenges.fyi](https://codingchallenges.fyi/)-challenge waar al wat code in zit. Doe dezelfde verkenning twee keer:

docs/oefeningen/plugins-skills-tools.md

Lines changed: 11 additions & 11 deletions
Original file line numberDiff line numberDiff line change
@@ -1,6 +1,6 @@
11
# Oefeningen: plugins, skills en tools
22

3-
Deze categorie gaat over de skills, plugins en CLI-tools die in de container zitten. Ze bouwen voort op een kale Claude Code-installatie met domeinkennis, gespecialiseerde review-agents en context-optimalisatie. Wie ze bewust inzet haalt meer uit de container dan wie ze links laat liggen.
3+
Deze categorie gaat over de skills, plugins en CLI-tools die in de container zitten. Ze bouwen voort op een kale Claude Code-installatie met domeinkennis, gespecialiseerde review-agents en context-optimalisatie. Wie ze bewust inzet, haalt meer uit de container dan wie ze links laat liggen.
44

55
## Snelle vs diepe vergelijking
66

@@ -17,7 +17,7 @@ De oefeningen hieronder gebruiken standaard de snelle variant en noemen de diepe
1717

1818
### Wat doet de overheid-marketplace voor je werk?
1919

20-
**Achtergrond:** De container bevat skills uit `developer-overheid-nl/skills-marketplace`: `standaarden`, `nerds`, `internet`, `geo`, `developer-overheid` en `zad-actions`. Relevant als je werk dicht bij NL-overheidsstandaarden ligt — API-design, authenticatie, berichtenuitwisseling, geodiensten. Zonder deze skills leunt Claude op generieke kennis en mist NL-specifieke regels (problem+json, ADR, OIN, Digikoppeling).
20+
**Achtergrond:** De container bevat skills uit `developer-overheid-nl/skills-marketplace`: `standaarden`, `nerds`, `internet`, `geo`, `developer-overheid` en `zad-actions`. Deze zijn relevant als je werk dicht bij NL-overheidsstandaarden ligt — API-design, authenticatie, berichtenuitwisseling, geodiensten. Zonder deze skills leunt Claude op generieke kennis en mist hij NL-specifieke regels (problem+json, ADR, OIN, Digikoppeling).
2121

2222
**Vergelijk:**
2323
- *Bad practice:* REST-API bouwen zonder skills aan te roepen — generieke API zonder ADR, ADR-linting of problem+json.
@@ -38,11 +38,11 @@ Welke skills bij welk werk passen: REST API → `standaarden:ls-api` (ADR/lintin
3838

3939
### Wanneer voegt rtk (token reduction) merkbaar waarde toe?
4040

41-
**Achtergrond:** `rtk` verkort verbose CLI-output (witruimte, comments, herhalingen) voordat die in Claude's context belandt. Werkt via een hook die commando's automatisch herschrijft (`git status``rtk git status`). Helpt bij grote codebases of lange bestanden; bij kleine gerichte vragen weinig extra.
41+
**Achtergrond:** `rtk` verkort verbose CLI-output (witruimte, comments, herhalingen) voordat die in Claude's context belandt. Het werkt via een hook die commando's automatisch herschrijft (`git status``rtk git status`). Dit helpt bij grote codebases of lange bestanden; bij kleine, gerichte vragen voegt het weinig toe.
4242

4343
**Vergelijk:**
44-
- *Bad practice:* groot project automatisch laden terwijl je 5% nodig hebt — context vol, Claude verliest overzicht.
45-
- *Good practice:* rtk inzetten op grote bestanden/mappen waar je het exacte relevante deel nog niet weet.
44+
- *Bad practice:* een groot project automatisch laden terwijl je maar 5% nodig hebt — de context loopt vol en Claude verliest het overzicht.
45+
- *Good practice:* rtk inzetten op grote bestanden of mappen waar je het exacte relevante deel nog niet weet.
4646

4747
**Probeer zelf:** Pak een lange context (bv. een groot README plus meerdere source-bestanden), stuur dezelfde vraag eenmaal met en eenmaal zonder rtk. Vergelijk de antwoordkwaliteit en het tokenverbruik — gebruik `/cost` om het verschil meetbaar te maken (zie de [oefening over runtime-instellingen](claude-code.md#hoe-stuur-je-per-sessie-het-model-de-denkdiepte-en-de-kosten)). Probeer dit bij [codingchallenges.fyi](https://codingchallenges.fyi/) met een challenge waarvan de codebase al flink gegroeid is.
4848

@@ -61,7 +61,7 @@ Welke skills bij welk werk passen: REST API → `standaarden:ls-api` (ADR/lintin
6161
**Achtergrond:** De `superpowers`-plugin levert process-skills: `brainstorming`, `test-driven-development`, `systematic-debugging`, `writing-plans`, `executing-plans`. Elke skill stuurt Claude's aanpak en redeneer-volgorde, niet alleen de output — dat onderscheidt ze van een gewone prompt-instructie.
6262

6363
**Vergelijk:**
64-
- *Bad practice:* meteen code schrijven voor een feature die nog niet is uitgedacht — Claude bouwt op aannames die jij later corrigeert, veel herwerk.
64+
- *Bad practice:* meteen code schrijven voor een feature die nog niet is uitgedacht — Claude bouwt op aannames die jij later corrigeert, met veel extra werk tot gevolg.
6565
- *Good practice:* `superpowers:brainstorming` vóór de eerste regel code; `systematic-debugging` bij een hardnekkige bug; `test-driven-development` voor algoritmes met duidelijke acceptatiecriteria.
6666

6767
**Probeer zelf:** Pak één van je oefen-challenges van [codingchallenges.fyi](https://codingchallenges.fyi/) en doe hem twee keer:
@@ -79,7 +79,7 @@ Wat verandert aan tempo en kwaliteit?
7979

8080
### Wat doet de Ralph-loop voor je en wanneer gebruik je hem?
8181

82-
**Achtergrond:** De Ralph-loop, oorspronkelijk beschreven door [Geoffrey Huntley](https://ghuntley.com/ralph/), zet Claude in een loop met dezelfde prompt zodat hij vanzelf blijft itereren tot een taak af is. Perfect voor challenges waar je gewoon wilt dat het eindresultaat er komt zonder dat je zelf elke iteratie hoeft te starten. In deze container zit Anthropic's officiële [`ralph-loop`](https://claude.com/plugins/ralph-loop)-plugin standaard mee (de broncode op GitHub staat onder de naam [`ralph-wiggum`](https://github.com/anthropics/claude-code/tree/main/plugins/ralph-wiggum)). Hij levert de slash-commands `/ralph-loop` en `/cancel-ralph`, een Stop-hook die sessie-exits onderschept, en `--max-iterations` als veiligheidsnet. De [zelf-review-oefening](claude-code.md#wat-verandert-er-als-je-claude-zijn-eigen-werk-laat-reviewen) is een natuurlijke bouwsteen: een sterke review-prompt geeft de loop iets concreets om elke iteratie aan af te meten.
82+
**Achtergrond:** De Ralph-loop, oorspronkelijk beschreven door [Geoffrey Huntley](https://ghuntley.com/ralph/), zet Claude in een loop met dezelfde prompt zodat hij vanzelf blijft itereren tot een taak af is. Perfect voor challenges waar je gewoon wilt dat het eindresultaat er komt zonder dat je zelf elke iteratie hoeft te starten. In deze container zit Anthropic's officiële [`ralph-loop`](https://claude.com/plugins/ralph-loop)-plugin standaard mee (de broncode op GitHub staat onder de naam [`ralph-wiggum`](https://github.com/anthropics/claude-code/tree/main/plugins/ralph-wiggum)). Deze plugin levert de slash-commands `/ralph-loop` en `/cancel-ralph`, een Stop-hook die sessie-exits onderschept, en `--max-iterations` als veiligheidsnet. De [zelf-review-oefening](claude-code.md#wat-verandert-er-als-je-claude-zijn-eigen-werk-laat-reviewen) is een natuurlijke bouwsteen: een sterke review-prompt geeft de loop iets concreets om elke iteratie aan af te meten.
8383

8484
**Vergelijk:**
8585
- *Bad practice:* een vage prompt loslaten zonder iteratielimiet — Claude itereert eindeloos zonder richting, verbrandt tokens en convergeert niet.
@@ -135,15 +135,15 @@ Gebruik voor de codebase een [codingchallenges.fyi](https://codingchallenges.fyi
135135

136136
### Wanneer helpt `caveman` en wanneer hindert het?
137137

138-
**Achtergrond:** `caveman` (third-party) drukt Claude's antwoordstijl in ultra-compacte vorm: lidwoorden weg, fragmenten oké, geen beleefdheidsfrasen. Doel ~75% token-reductie in output. Helpt bij iteratieve debug-loops met korte beurten; werkt tegen bij uitleg, code review of onboarding waar volledige zinnen de leesbaarheid bepalen. Heeft niveaus (licht tot chinese tekens) en is mid-sessie te schakelen.
138+
**Achtergrond:** `caveman` (third-party) drukt Claude's antwoordstijl in een ultra-compacte vorm: lidwoorden weglaten, fragmenten zijn toegestaan, geen beleefdheidsfrasen. Het doel is ~75% token-reductie in de output. Helpt bij iteratieve debug-loops met korte beurten; werkt tegen je bij uitleg, code review of onboarding waar volledige zinnen de leesbaarheid bepalen. De plugin heeft niveaus (van licht tot chinese tekens) en is tijdens een sessie te schakelen.
139139

140140
**Vergelijk:**
141-
- *Bad practice:* caveman aan tijdens lange architectuur-uitleg of code review — moeilijk leesbaar voor collega's; *waarom*-details verdwijnen tussen de fragmenten.
142-
- *Good practice:* caveman aan tijdens snelle debug-cyclus (10+ korte beurten); uit zodra je een schrijftaak doet (commit, PR-beschrijving, ticket-uitleg).
141+
- *Bad practice:* caveman aan tijdens lange architectuur-uitleg of code review — moeilijk leesbaar voor collega's; *waarom*-details gaan tussen de fragmenten verloren.
142+
- *Good practice:* caveman aan tijdens een snelle debug-cyclus (10+ korte beurten); uit zodra je een schrijftaak doet (commit, PR-beschrijving, ticket-uitleg).
143143

144144
**Probeer zelf:** Doe één sessie in twee helften:
145145

146-
1. Caveman aan: start met `/caveman full`. Werk 10–15 minuten aan een iteratieve taak (bv. een bug stap voor stap pinpointen, of een functie tot tests groen krijgen). Let op tempo en token-verbruik.
146+
1. Caveman aan: start met `/caveman full`. Werk 10–15 minuten aan een iteratieve taak (bv. een bug stap voor stap pinpointen, of een functie zo aanpassen dat de tests slagen). Let op tempo en token-verbruik.
147147
2. Caveman uit: vraag Claude in chat "stop caveman" (chat-instructie, geen shell-commando). Doe daarna een uitleg- of review-taak (bv. "leg uit waarom deze test faalde" of "review deze diff"). Vergelijk leesbaarheid en informatiedichtheid.
148148

149149
Voor een zuiverder vergelijking (zonder de skill-discovery hook): `claude plugin disable caveman` en herstart Claude — dan is de plugin volledig stil.

0 commit comments

Comments
 (0)