
Maakt AI je team slechter?
We zien steeds vaker dat developers minder leren als ze met AI werken. Een developer levert een feature op in de helft van de tijd. De code werkt, de PR wordt gemerged, iedereen blij. Alleen kan diezelfde developer de code niet meer debuggen zonder AI. De feature is opgeleverd, maar er is niks geleerd. De developer vertrouwt volledig op AI.
Deze week kwamen we een studie tegen die bevestigt wat we al zagen. Anthropic publiceerde een studie genaamd “How AI Impacts Skill Formation”. Die bevestigt iets waar engineering leaders zich zorgen over maken: AI coding tools kunnen de ontwikkeling van programmeervaardigheden belemmeren.
Het onderzoek van Anthropic
Onderzoekers deden een experiment met developers die Python Trio leerden, een library voor asynchrone programmering. Ze kozen Trio omdat het een aantal nieuwe concepten bevat zoals structured concurrency. De helft van de deelnemers had AI-hulp, de andere helft niet.
De resultaten waren interessant: de AI-groep scoorde 17% lager op kennistests. Dat is een verschil van 4,15 punten op een quiz van 27 punten, met een effect size van Cohen’s d = 0,738. Het grootste verschil zat bij debuggen, precies de vaardigheid die je nodig hebt als er iets kapot gaat in productie.
De AI-groep liep tegen veel minder fouten aan tijdens het leren. De mediaan was 1 fout met AI tegen 3 zonder. Klinkt als een voordeel, maar developers leren juist van fouten. RuntimeWarnings, TypeErrors, de frustratie van debuggen: die momenten dwingen je om te begrijpen hoe je code werkt. AI haalde de worsteling weg, en daarmee ook het leren.
Hoe developers AI gebruiken
Het onderzoek vond zes patronen in hoe developers AI gebruiken, met heel verschillende resultaten.
Drie patronen werden geassocieerd met slecht leren (quizscores tussen 24-39%):
- AI Delegation: Alles aan AI overlaten voor codegeneratie
- Progressive AI Reliance: Beginnen met vragen stellen maar geleidelijk alle codering delegeren
- Iterative AI Debugging: AI gebruiken om bugs te fixen zonder te begrijpen waarom ze gebeurden
Met deze drie patronen leerden developers (quizscores tussen 65-86%):
- Generation-Then-Comprehension: Code laten genereren maar daarna vragen stellen om het te begrijpen
- Hybrid Code-Explanation: Zowel code als uitleg tegelijk vragen
- Conceptual Inquiry: Alleen conceptuele vragen stellen, dan zelf de code schrijven
Developers leren wanneer ze mentaal bezig zijn met het probleem.
Wat dit betekent
Ten eerste: wat gebeurt er met je toekomstige senior engineers? Juniors worden senior door problemen op te lossen: debuggen, fouten maken, intuïtie ontwikkelen voor waarom dingen falen. Als AI dit proces overslaat voor een hele generatie engineers, kunnen organisaties straks te weinig mensen hebben die kunnen doorgroeien naar senior technische rollen.
Een ander effect is het gebrek aan diepgaande kennis van frameworks en programmeertalen. Als AI de standaard wordt om nieuwe tech te leren, krijg je teams die afhankelijk zijn van dingen die ze niet begrijpen. We zien dit al: snel opstarten met AI, maar daarna vastlopen bij debugging of grotere wijzigingen.
Dit is extra belangrijk in kritieke domeinen. Security, infrastructuur, financiële systemen: allemaal hebben ze mensen nodig die code kunnen reviewen, niet alleen accepteren wat AI genereert. Je kunt code niet effectief reviewen voor een library die je niet begrijpt. Je kunt geen code reviewen als je niet begrijpt wat je ziet.
We schreven eerder over onderzoek dat laat zien dat ervaren developers 19% langzamer waren bij het gebruik van AI voor echte taken. Als je daar ook nog minder goed kunnen debuggen bij optelt, beginnen de langetermijnkosten groter te worden dan de kortetermijnwinst.
Wat organisaties kunnen doen
Het onderzoek is geen argument tegen AI coding tools. We gebruiken ze zelf dagelijks. Het is een argument om bewust na te denken over hoe ze worden gebruikt, vooral wanneer leren onderdeel is van het doel.
Maak begrip onderdeel van code review. Vraag developers om uit te leggen hoe hun code werkt. In het onderzoek zochten de developers die wél leerden actief naar uitleg. Code review kan die gewoonte versterken.
Herken wanneer leermodus anders is dan productiemodus. Er is een echt verschil tussen AI gebruiken om een feature te bouwen in technologie die je goed kent, en AI gebruiken om iets nieuws te leren. Organisaties die dit onderscheid erkennen, kunnen hun verwachtingen aanpassen. Bij leren is langzamer vaak beter.
Houd wat productieve worsteling in het proces. Wanneer developers nieuwe technologieën leren, overweeg om AI-hulp te beperken of te focussen op uitleg in plaats van codegeneratie. Zelf door problemen heen werken is langzamer, maar je behoudt wat je leert.
Let op tekenen van afhankelijkheid. Developers die code niet kunnen uitleggen die ze zelf schreven, die moeite hebben met debuggen zonder AI, of die vastlopen op technologieën die ze zogenaamd al maanden gebruiken. Dat zijn signalen: ze leren niet echt.
Investeer in echt begrip, ook als het langzamer is. Code die niemand echt begrijpt is technical debt, ook als de code zelf werkt. Geef developers de tijd om kritieke systemen echt te leren kennen. Die investering betaalt zich terug wanneer ze aan die systemen moeten bouwen of als ze problemen moeten oplossen.
Sneller is niet hetzelfde als beter
Met AI coding tools lever je sneller, maar je bouwt mogelijk minder kennis op. Dat werkt voor ervaren developers in technologie die ze kennen. Niet voor developers die iets nieuws leren, of teams die complexe systemen moeten onderhouden.
Zoals de onderzoekers schrijven: “AI-enhanced productivity is not a shortcut to competence.” Wie dat negeert, krijgt teams die wel code produceren maar niet snappen wat ze doen.
AI gaat niet meer weg. Laten we zorgen dat het teams beter maakt.
We helpen organisaties bij het opzetten van engineering practices die werken op de lange termijn. Wil je praten over hoe je AI inzet? Neem contact op.







