Type something to search...
Engineering
blog-thumb
Door Lumia Labs/ Op 08 Jan, 2025

De verborgen kosten van vibe coding

De demo was indrukwekkend. Een developer typte een prompt, en binnen seconden verscheen werkende code. Eindelijk een manier om sneller te leveren. Zes maanden later zit datzelfde team tot over de oren in technical debt. Ze debuggen code die niemand volledig begrijpt. En ze vragen zich af waarom hun "versnelde" project inmiddels drie maanden achterloopt. We hebben dit vaker zien gebeuren. Volgens MIT's GenAI Divide rapport levert 95% van de enterprise AI-pilots geen meetbare omzetgroei of kostenbesparing. Opvallend: 42% van de bedrijven stopte in 2025 met het merendeel van hun AI-initiatieven, meer dan het dubbele van het jaar ervoor. Wat gaat er mis? En belangrijker: hoe beoordeel je AI coding tools voordat je ze inzet? De flow-debt trade-off AI coding tools zijn heel goed in het snel genereren van logisch uitziende code. Die snelheid voelt als productiviteit, maar dat is het niet altijd. Het patroon dat we vaak zien: de snelheid schiet omhoog, developers voelen zich productiever, en de eerste features worden snel opgeleverd. Dan beginnen de problemen. De gegenereerde code werkt, maar zit vol verborgen aannames. Database queries die hele tabellen scannen. Authenticatieflows die edge cases overslaan. API-contracten die uitgaan van ideale omstandigheden. Elk stukje code lijkt logisch op zichzelf, maar samen creëren ze een systeem dat met elke toevoeging moeilijker te wijzigen wordt. Onderzoekers noemen dit de flow-debt trade-off: de soepele ervaring van code genereren leidt tot een ophoping van technical debt door architecturele inconsistenties, beveiligingslekken en onderhoudslast die zich pas later openbaart. Geen architectuur, geen context Dezelfde patronen duiken keer op keer op in AI-gegenereerde code, allemaal terug te voeren op dezelfde beperking: AI tools optimaliseren voor de directe taak, niet voor het systeem als geheel. Architectuur verdwijnt naar de achtergrond. De AI kent je infrastructuur niet, weet niet wat je team aankan, en heeft geen idee van je roadmap. Het resultaat: monolithische structuren die in het begin prima werken, maar lastig op te splitsen zijn als je wilt schalen. Database queries blijven ongeoptimaliseerd. Gegenereerde code gebruikt vaak ORM-patronen die inefficiënte queries verbergen. Het werkt prima met 1.000 records. Bij 100.000 records schieten de responstijden omhoog. Bij een miljoen wordt het systeem onbruikbaar tijdens piekmomenten. Error handling blijft oppervlakkig. AI genereert het happy path goed. Minder consistent is het met foutscenario's, retry-logica, circuit breakers en graceful degradation. Systemen die zo gebouwd worden, werken tot er iets misgaat, en falen dan op onvoorspelbare manieren. Security blijft bij de basis. Inputvalidatie is er wel, maar kwetsbaarheden in de businesslogica worden gemist. Er zijn autorisatiechecks, maar gebruikers kunnen meer rechten krijgen dan de bedoeling is. De code lijkt veilig, maar is het niet. Monitoring schiet tekort. Er wordt wel gelogd, maar niet op een manier die helpt bij het debuggen in productie. Metrics, traces en alerts ontbreken bijna altijd. Best practices Als je AI coding tools gebruikt (en de meeste teams doen dat), kun je zo de voordelen pakken zonder de technical debt: Meet de totale kosten, niet de initiële snelheid. Houd bij hoeveel tijd je besteedt aan het debuggen van AI-gegenereerde code, het refactoren van architectuurbeslissingen en het oplossen van beveiligingsbevindingen. Vergelijk dat met de bespaarde tijd tijdens het genereren. Voer je security reviews uit. Verminder de aandacht niet omdat de code "van AI komt." Verhoog die eerder. Gegenereerde code passeert vaak een vluchtige review terwijl subtiele problemen verborgen blijven. Toets architecturele samenhang. Onderzoek regelmatig of de codebase nog klopt met de architectuur. Afwijken is eenvoudig met gegenereerde code, omdat LLMs niet genoeg context hebben om over de hele codebase te optimaliseren. Blijf code reviewen. Bij AI-gegenereerde code is review juist belangrijker. Maak jij de PR? Lees je eigen code eerst kritisch door. De AI schreef het, maar jij zet je naam eronder. Plan refactoring in. AI-ondersteunde codebases hebben doorgaans agressievere refactoring nodig dan traditioneel ontwikkelde. Begroot dit van tevoren. Zet mensen op de kritieke onderdelen. Authenticatie, autorisatie, betalingen en data: daar wil je altijd een mens naar laten kijken. Succesvol met AI Organisaties die succesvol zijn met AI doen het volgende: ze behandelen gegenereerde code als startpunt in plaats van eindproduct, houden strak toezicht op de architectuur, en investeren in code review practices die de systematische problemen van AI opvangen. Ze erkennen ook dat developer productiviteit en systeemkwaliteit verschillende metrics zijn. Optimaliseren voor de een ten koste van de ander creëert problemen die jaren kosten om op te lossen. Wij bouwen al 25 jaar enterprise systemen. De fundamenten zijn niet veranderd: goede architectuur stelt teams in staat om snel te ontwikkelen. AI tools veranderen dit niet. Ze maken het alleen verleidelijker om de fundamentele basis van software engineering over te slaan. Als je AI coding tools evalueert, begin dan met afgebakende experimenten. Meet uitkomsten over maanden, niet dagen. En denk na over architectuur voordat je duizenden regels gegenereerde code hebt die niemand volledig begrijpt. De technologie is waardevol. De balans vinden vraagt om een menselijke aanpak.Lumia Labs helpt organisaties schaalbare systemen te bouwen en bestaande codebases te verbeteren. Neem contact op.