
Van DevSecOps naar Agentic DevSecOps
DevSecOps begon met een simpel idee: security hoort in het ontwikkelproces, vanaf dag één. Maar "iedereen" in je team omvat nu ook AI-agents. Ze schrijven code en mergen pull requests. Je securitymodel gaat nog uit van mensen. Security opnieuw inrichten voor agents: dat is wat wij Agentic DevSecOps noemen. Het verandert hoe je nadenkt over identiteit, toegangscontrole, verificatie en verantwoordelijkheid. DevSecOps was gebouwd voor mensen DevSecOps draait erom dat het hele team verantwoordelijk was voor security. Shift left, bouw security in het ontwikkelproces en voorkom dat vulnerabilities productie bereiken. Dat ging uit van een menselijke developer die de code schrijft, de intentie begrijpt, scanresultaten beoordeelt en afwegingen maakt over risico. Developers gebruiken tooling zoals statische analyse om problemen te signaleren, maar uiteindelijk beoordeelt een mens of een melding een false positive is of een echte dreiging. Een reviewer leest de diff en bedenkt wat de gevolgen zijn. Uit Sonar's 2025-onderzoek blijkt dat 42% van de productiecode al AI bevat, en dat percentage stijgt. Zodra agents PRs openen en hun eigen code mergen, houdt geen van die aannames stand. Wat Agentic DevSecOps anders maakt Bij Agentic DevSecOps ontwerp je security voor een wereld waarin AI-agents je code schrijven en uitrollen. Wie is de agent, en wat mag die? In traditionele DevSecOps koppel je toegangscontroles aan menselijke identiteiten. Als een AI-agent een PR opent: wiens rechten gebruikt die? Wat zou die mogen doen? In onze ervaring draaien de meeste organisaties agents onder de persoonlijke credentials van een developer. De agent krijgt rechten die bedoeld waren voor een mens. AI-agents kiezen ook hun eigen dependencies. Onderzoek van Veracode toonde aan dat 45% van AI-gegenereerde code kwetsbaarheden bevat. Een agent kan een dependency toevoegen die technisch niets mankeert maar niet in je architectuur past. Of code schrijven die een kwetsbaar patroon nabootst zonder dat je scanners het oppikken. Snelheid versus verificatie AI-agents schrijven en deployen code tien tot honderd keer sneller dan mensen. Een security scan van 15 minuten werkt prima als developers een paar keer per dag pushen. Bij tientallen agent-wijzigingen per uur wordt die scan een bottleneck, of hij wordt "tijdelijk" overgeslagen en komt nooit meer terug. Agents laten genoeg sporen achter in commits en PR-beschrijvingen. Maar tegen de tijd dat een fout in productie opduikt, zitten er al tientallen commits bovenop. De code stapelt zich sneller op dan iemand kan reviewen. Andere fouten, andere risico's AI-agents maken andere fouten dan mensen. Menselijke fouten zijn voorspelbaar: input niet valideren, onveilige patronen kopiëren, credentials hardcoden, slordig worden onder tijdsdruk. Dat zie je in een review. AI-gegenereerde code is lastiger. Het lijkt correct, het doorstaat eenvoudige checks, maar er zit een fout in die je niet meteen ziet. De code ziet er goed uit, maar het doet alleen niet wat je denkt. Nieuwe aanvallen duiken al op in agentic workflows: Prompt injection via codecontext Een aanvaller verbergt kwaadaardige instructies in een codebase-comment of issue-omschrijving. De AI-agent leest die context, volgt de instructies en introduceert een backdoor die eruitziet als een legitieme codewijziging. Onderzoekers hebben aangetoond dat LLM's via hun inputcontext te manipuleren zijn. Een AI-agent die je vraagt een feature te bouwen kan een dependency binnenhalen die nog niet bestaat. Registreert een aanvaller die pakketnaam eerst, dan installeert de agent het foute pakket. Agents die zelf lockfiles aanpassen als onderdeel van hun workflow omzeilen die bescherming. Niemand kijkt mee Een AI-agent schrijft de code, een andere reviewt het, een geautomatiseerde pipeline deployt het. Niemand heeft dat zo bedacht, maar de stappen bij elkaar zijn een volledig geautomatiseerde route naar productie. AI-agents hebben API-keys en credentials nodig. Een agent die zijn context logt of secrets in een commit message zet, lekt credentials op plekken waar je secret scanning niet kijkt. Wat je pipeline nodig heeft Geef agents hun eigen identiteit Geef AI-agents eigen service-accounts met beperkte rechten. Schrijft een agent code? Dan mag die niet mergen. Draait een agent tests? Dan mag die de testconfig niet aanpassen. In de praktijk draaien de meeste agents nog op het token van een senior developer met volledige repo-toegang. Behandel ze als serviceaccounts: zo min mogelijk rechten, gecontroleerde toegang. Meer dan één scan Eén scan is niet genoeg, combineer statische analyse, semantische analyse, gedragstests en afwijkingsdetectie. AI-gegenereerde code heeft herkenbare patronen. Daar kun je op scannen. Rem agents bewust af Beperk hoe snel agents wijzigingen kunnen pushen, en bouw circuit breakers die activiteit pauzeren bij afwijkingen: ongebruikelijke dependency-toevoegingen of wijzigingen aan security-gevoelige bestanden. Weet waar elke wijziging vandaan komt De transparantieverplichtingen in de EU AI Act gelden al voor AI-gegenereerde code in gereguleerde sectoren, en handhaving komt eraan. Elke wijziging moet terug te voeren zijn op wie (of wat) het schreef, wat de aanleiding was, welke context de agent had en welke review het doorliep. Begin daar nu mee. Menselijke review Niet elke wijziging heeft een menselijke reviewer nodig. Maar wijzigingen aan authenticatie, autorisatie, betalingsverwerking, dataverwerking en infrastructuur wel. Bepaal je risicogebieden en wijk daar niet van af, ook als het de ontwikkeling iets vertraagt. Dit is geen toolingvraag Agentic DevSecOps gaat minstens zoveel over organisatie als over techniek. Securityteams moeten snappen hoe agents werken. Ontwikkelteams doen er goed aan agents te behandelen als een nieuwe collega: stel kaders, controleer het werk. En je platform moet er rekening mee houden dat niet alleen mensen code schrijven. Wie dit goed regelt kan agents met vertrouwen inzetten.Lumia Labs helpt teams die met AI-agents werken om security goed te regelen. Zet je agents in binnen je pipeline en wil je dat veilig doen? Neem contact op.





