Je team heeft GitHub Copilot. Misschien Claude of Cursor. Iedereen heeft het geprobeerd. En toch, als je eerlijk kijkt, is de output niet wezenlijk anders dan een half jaar geleden.
Herkenbaar?
Na 20+ jaar .NET development had ik mijn manier van werken. Die werkte. Waarom zou ik die veranderen?
Tot ik het verschil zag tussen experimenteren en adopteren.
Experimenteren vs adopteren
Experimenteren
Tool aanzetten. Even proberen. Terug naar je oude flow.
Adopteren
Je werkwijze aanpassen. Niet een tool toevoegen, maar opnieuw nadenken over hoe je werkt.
De cijfers laten die kloof zien: 84% gebruikt AI-tools. 29% vertrouwt de output.
Dat is geen toolprobleem. Dat is een werkwijzeprobleem.
Wat mist er bij de meeste teams?
Context
Zonder projectcontext (CLAUDE.md, instructies) blijft AI gokken. Je krijgt code die klopt, maar niet past.
Teamafspraken
Wanneer gebruik je AI? Wanneer niet? Zonder afspraken ontstaat ruis en wantrouwen.
Hoe het wél werkt
Het DORA Report 2025 zegt het scherp: “AI doesn’t fix a team; it amplifies what’s already there.”
Dat werkt twee kanten op. Een team met goede afspraken en heldere architectuur wordt sneller. Maar een team zonder reviewcultuur of met onduidelijke guardrails krijgt met AI alleen maar meer rommelige code, sneller.
Wat ik zie bij teams waar het wél werkt:
- Iemand die het voordoet, in de echte codebase
- Duidelijke grenzen: wat wel, wat niet met AI
- Review-normen die passen bij AI-output
- Klein beginnen: één sprint, één use case
Pair programming werkt hier opvallend goed. Samen doen werkt beter dan uitleggen.
Wat kun je morgen al doen?
- Leg projectcontext vast (bijv.
CLAUDE.md) - Spreek af wanneer je AI inzet
- Kies één use case (bijv. tests of refactoring)
- Evalueer na één sprint
Soms is dat genoeg.
En soms merk je dat het niet blijft hangen. Dat vertrouwen uitblijft. Of dat niemand de tijd heeft om het echt goed neer te zetten.
Dan helpt het als iemand meewerkt in je team. Niet als trainer, maar in de codebase zelf.
Ik werk twee dagen per week mee in teams om dit neer te zetten, tot het team het zelf draagt.
Benieuwd hoe dat er concreet uitziet?
In Hoe Claude Code mijn .NET development-workflow versnelt laat ik zien wat er echt sneller gaat (en wat niet), en hoe die werkwijze eruitziet in de praktijk.
Bronnen: Stack Overflow Developer Survey 2025, DORA Report 2025, CodeRabbit AI vs Human Code Report