Generatieve AI, in de vorm van large language models (LLM’s), wordt vaak gepresenteerd als een versneller van software delivery. Het is vooral nuttig voor het snel genereren van boilerplatecode en eenvoudige, geïsoleerde functies. Ook bij code reviews presteert het verrassend goed: het controleert of nieuwe code voldoet aan de afgesproken coding style en doet voorstellen om geconstateerde issues op te lossen. Tot op zekere hoogte kunnen LLM’s zelfs code debuggen, foutmeldingen interpreteren en bruikbare oplossingen aandragen. Daarnaast helpen ze ontwikkelaars bij het doorgronden van legacy codebases door waardevolle inzichten en documentatie te genereren, wat een vliegende start mogelijk maakt. Door LLM’s voor dit soort taken in te zetten, kunnen softwareontwikkelaars hun efficiëntie aanzienlijk verhogen.
Tegelijkertijd worden de mogelijkheden van AI bij andere taken vaak overschat. AI kan kleine, geïsoleerde features goed genereren, maar het inzetten ervan voor enterprise-software zonder sterke governance en architecturale sturing kan snel structurele risico’s introduceren. Zonder de menselijke ervaring die nodig is voor het bouwen van omvangrijke, complexe applicaties, ontstaat al snel een ongestructureerde en moeilijk onderhoudbare codebase. Bovendien hebben LLM’s veel context nodig om kwalitatieve code te leveren. Dat betekent dat je mogelijk minder tijd kwijt bent aan puur coderen, maar meer tijd moet investeren in het scherp formuleren van functionele en niet-functionele requirements. Een menselijke ontwikkelaar heeft die context ook nodig, maar een LLM kan zonder die context veel sneller de verkeerde kant op gaan.
“Zonder sterke governance en duidelijke guardrails kan de snelheid van AI snel leiden tot inconsistentie, technische schuld, onnodige functionaliteit en redundante codepaden.”
Als je een LLM niet voorziet van de juiste projectcontext en heldere richtlijnen, loop je het risico extra verspilling te creëren. Dat resulteert in inconsistente implementaties, technische schuld, overbodige functionaliteit en dubbele codepaden. Met duidelijke instructies kunnen LLM’s goede resultaten leveren. Het verschil tussen voldoende context en net te weinig is echter klein, terwijl het effect op de uitkomst groot kan zijn. Dit vraagt om vakmanschap, ervaring en een strategisch veranderprogramma om mensen hierin op te leiden.
Een veelgemaakte fout is dat organisaties te snel AI inzetten in software delivery zonder de benodigde training, begeleiding en opvolging te organiseren. Effectief change management is essentieel om door de hype heen te kijken, te bepalen wat werkt, ontwikkelprocessen te herijken en het maximale uit deze tools te halen.
“Te snel starten met AI zonder de juiste training en opvolging is een van de grootste fouten die organisaties maken. Change management is essentieel om door de hype heen te prikken.”
Daarnaast moeten we erkennen dat dit domein continu in ontwikkeling is en nog lang niet volledig is verkend. Best practices, tooling en technieken veranderen in hoog tempo. Juist daarom zijn guardrails — in de vorm van harde technische beperkingen en gestructureerde processen — onmisbaar.
Dit inzicht beïnvloedt in toenemende mate hoe wij onze bestaande Software Factory verder ontwikkelen. We bewegen naar een model waarin teams met minimale frictie een development pipeline kunnen opzetten, verrijkt met AI-ondersteunde guardrails. Uiteindelijk profiteren onze klanten van deze geïndustrialiseerde, gestandaardiseerde en AI-ondersteunde manier van software delivery.
We ontwikkelen verschillende AI-agents als standaardcomponenten van deze ‘factory’, terwijl teams ook specifieke agents kunnen bouwen voor hun eigen projecten. Zo is het mogelijk een agent te creëren die architectuurdiagrammen synchroon houdt met de code, een agent die controleert of ontwikkelaars de juiste branchingstrategie gebruiken in hun repositories, een agent die naleving van semantic versioning verifieert, een agent die extra tests voorstelt om de code coverage te verbeteren en een agent die automatisch security-kwetsbaarheden patcht.
Sommige guardrails worden zelfs als AI-agents geïmplementeerd, waardoor een situatie ontstaat waarin AI AI controleert. Onze Cegeka-teams krijgen deze agents als het ware als extra teamleden met een specifieke specialisatie. Sommige agents doen voorstellen, sommige maken pull requests die door mensen worden beoordeeld, en sommige kunnen binnen duidelijk gedefinieerde grenzen autonoom ingrijpen, bijvoorbeeld om security-kwetsbaarheden te verhelpen.
Een belangrijke les die we hebben geleerd, is dat ontwikkelaars ondanks deze guardrails de ruimte moeten houden om te experimenteren. Dit domein is nog te nieuw en vraagt om continu trial-and-error om te ontdekken wat wel en niet (meer) werkt. Met duidelijke instructies en sterke governance kan AI software delivery echter veel sterker verbeteren dan vaak wordt verwacht. Ontwikkelaars die zeggen dat AI hen niet helpt, hebben waarschijnlijk de juiste manier van werken nog niet gevonden.
“AI-agents ontwikkelen zich tot gespecialiseerde digitale assistenten. Sommige doen al verbetervoorstellen of maken pull requests, terwijl andere binnen duidelijke kaders autonoom kunnen handelen.”
Naarmate AI-systemen de productiviteit verhogen, zullen de verwachtingen mee stijgen. Wat gisteren nog ‘goed genoeg’ was, voldoet morgen mogelijk niet meer. Klanten zullen completere, beter afgewerkte software verwachten, met kortere implementatietijden. De komst van AI kan organisaties ertoe aanzetten om legacy-applicaties te moderniseren, omdat het omslagpunt naar een positieve ROI sneller wordt bereikt. Dat kan leiden tot een grotere vraag naar maatwerkontwikkeling.
We verwachten dat de hoeveelheid automatisch gegenereerde code verder zal toenemen naarmate AI-tooling volwassen wordt. AI zal ontwikkelaars niet vervangen, maar hun rol wel fundamenteel veranderen. Het schrijven van code wordt minder centraal, terwijl het orkestreren van AI-agents belangrijker wordt. Ontwikkelaars zullen meer tijd besteden aan het effectief aansturen van AI-tools, het debuggen van door AI gegenereerde output en het beoordelen van het gedrag van AI-agents. Omdat AI nieuwe soorten fouten en inconsistenties introduceert, blijft menselijke expertise essentieel om architectuur, security en onderhoudbaarheid te waarborgen. Ontwikkelaars blijven de uiteindelijke technische autoriteit en zorgen ervoor dat snelheidswinst niet ten koste gaat van softwarekwaliteit.
“Naarmate AI de productiviteit verhoogt, stijgen de verwachtingen vanzelf mee. Wat gisteren ‘goed genoeg’ was, voldoet morgen niet meer.”