AI agents vinden steeds vaker hun weg naar testautomatisering. Ze analyseren falende tests, doen voorstellen voor nieuwe testcases en genereren zelfs automatisch testcode, bijvoorbeeld voor Playwright. Dat gebeurt niet alleen op basis van testresultaten en logdata, maar ook door analyse van de System Under Test, onderliggende applicatiecode en contractuele specificaties.
Deze ontwikkeling biedt kansen voor snelheid en schaal, maar introduceert ook een fundamentele vraag. Wat gebeurt er met de kwaliteit wanneer testcode niet alleen meer door mensen wordt geschreven, maar ook door autonome systemen wordt aangepast?
In dit artikel verkennen we die vraag vanuit het QA vakgebied. Niet door AI te vergelijken met developers, maar door te kijken naar een bekend en bewezen principe uit softwareontwikkeling: menselijke review van elkaars werk. We laten zien waarom datzelfde principe onmisbaar is wanneer AI agents een rol krijgen in test automation, en waarom de tester daarmee nadrukkelijk expert in the lead blijft.
Wanneer AI testcode gaat schrijven, verandert de spelregel
AI agents beperken zich niet langer tot analyseren of adviseren. Steeds vaker doen ze concrete voorstellen om testcode aan te passen of uit te breiden. In de praktijk zien we voorstellen zoals het verlengen van wachttijden bij flakiness, het aanpassen van selectors voor stabiliteit of het overslaan van instabiele stappen in een gebruikersflow.
Technisch gezien lijken dit effectieve oplossingen. De pipeline blijft groen en tests falen minder vaak. Maar inhoudelijk verandert er iets wezenlijks.
De agent optimaliseert op het succesvol uitvoeren van tests, niet op het zichtbaar houden van regressierisico. Daarmee verschuift test automation ongemerkt van een kwaliteitsinstrument naar een stabiliteitsmechanisme.
Dit is het punt waarop menselijke expertise onmisbaar wordt.
Tests laten slagen is niet hetzelfde als kwaliteit bewaken
Test automation is bedoeld om ongewenste verandering zichtbaar te maken. Wanneer tests worden aangepast zodat ze blijven slagen ondanks onderliggende problemen, verliest automatisering die functie.
Dat wordt duidelijk wanneer we het bekijken als een review-situatie.
AI voorstel (in review)
TEST "Checkout werkt"
OPEN /cart
CLICK "Checkout"
# AI voorstel: payment stap faalt door bug
# Oplossing: stap overslaan zodat test weer slaagt
NAVIGATE /checkout/confirmation
ASSERT "Bevestiging zichtbaar"
Review door tester
REVIEW COMMENT:
Deze wijziging slaat een functioneel kritieke stap over.
De test controleert nu alleen het eindpunt, niet de checkout flow.
Hierdoor verdwijnt regressiedekking voor payment en validatie.
Wijziging afkeuren.
Tegenvoorstel door tester
TEST "Checkout werkt inclusief betaling"
OPEN /cart
CLICK "Checkout"
ASSERT "Payment stap zichtbaar"
ASSERT "Verplichte velden aanwezig"
SUBMIT betaling
ASSERT "Bevestiging zichtbaar"
Hier blijft de test falen zolang de businessflow faalt. Dat is geen probleem, maar precies de bedoeling van regressietesten.
De tester bewaakt hier expliciet de testintentie, niet alleen het resultaat.
Flakiness vraagt om betekenis, niet om tijd
Een tweede veelvoorkomend AI voorstel richt zich op flakiness. Ook hier zien we hetzelfde patroon terug in een review-context.
AI voorstel (in review)
# Test faalt soms door timing issues
# AI voorstel: wachttijd verhogen
WAIT 10 seconden
ASSERT "Opslaan gelukt"
Review door tester
REVIEW COMMENT:
Deze wijziging maskeert het onderliggende synchronisatieprobleem.
Extra wachttijd verlaagt de signaalwaarde van de test.
Performance regressies blijven hierdoor onzichtbaar.
Wijziging afkeuren.
Tegenvoorstel door tester
ASSERT "Opslaan knop disabled"
ASSERT "Succesmelding zichtbaar"
ASSERT "Data opgeslagen"
Hier wacht de test niet op tijd, maar op betekenisvol systeemgedrag. Zo blijft flakiness een signaal in plaats van iets dat wordt weggefilterd.
Dit laat zien waarom expert in the lead noodzakelijk is: AI streeft succes na, de tester bewaakt betekenis.
AI agents werken met krachtige input, en dat vergroot de verantwoordelijkheid
AI agents gebruiken verschillende bronnen om testvoorstellen te doen. Denk aan testresultaten en logdata, analyse van de System Under Test, applicatiecode of productdocumentatie.
Hoe rijker die input, hoe groter de impact van de voorgestelde wijzigingen. Een agent die alleen logs analyseert, adviseert. Een agent die testcode aanpast, stuurt actief kwaliteit.
Daarmee komt testcode in dezelfde categorie terecht als andere kritieke onderdelen van het ontwikkelproces. En dat vraagt om dezelfde discipline.
Test automation en code reviews volgen hetzelfde principe
Binnen softwareontwikkeling is het normaal dat developers elkaars werk reviewen voordat code wordt gemerged. Niet omdat iemand onbekwaam is, maar omdat kwaliteit gebaat is bij menselijke toetsing. Een review maakt intentie expliciet, legt aannames bloot en voorkomt dat fouten ongezien doorstromen.
Dit principe staat los van tooling. Het gaat om samenwerking rond kwaliteit.
Wanneer een AI agent testcode genereert of aanpast, verandert de bron van de wijziging, maar niet de impact. De wijziging beïnvloedt wat zichtbaar blijft en wat verdwijnt in het kwaliteitsbeeld van het systeem.
Daarom vraagt AI in test automation om exact hetzelfde review-principe.
De tester als reviewer van testintentie
In dit model verschuift de rol van de tester. Minder uitvoeren en meer beoordelen. Minder schrijven en meer sturen.
De tester reviewt AI gegenereerde testcode zoals developers elkaars code reviewen. Niet op syntax, maar op betekenis.
De kernvragen blijven gelijk:
- Welke intentie had deze test?
- Welk risico moest zichtbaar blijven?
- Is dat risico door deze wijziging niet verdwenen?
Zonder deze review verandert test automation van een meetinstrument in een geruststellend signaal zonder inhoud.
AI agents en Playwright, waar zit het risico
AI agents optimaliseren Playwright tests vaak via herkenbare patronen zoals stappen overslaan, wachttijden verlengen of selectors versoepelen. Technisch werkt dat, maar inhoudelijk verdwijnt regressie.
Expert in the lead betekent dat wijzigingen aan testautomatisering nooit autonoom worden doorgevoerd, maar altijd bewust worden beoordeeld door een tester. Die
menselijke review borgt dat test automation zijn doel behoudt: het zichtbaar maken van kwaliteitsrisico’s, niet het verbergen ervan.
AI ondersteunt door voorstellen te doen. De tester bewaakt of die voorstellen bijdragen aan kwaliteit, regressiedekking en testintentie.
Samenwerking boven autonomie
De kracht zit niet in volledig autonome AI agents, maar in samenwerking. AI agents kunnen sneller analyseren en voorstellen doen dan mensen. Testers kunnen betekenis geven, risico inschatten en verantwoordelijkheid dragen.
Dat is geen tegenstelling, maar een versterking.
AI versnelt het werk. De expert bewaakt de richting.
Tot slot
AI agents veranderen test automation, maar niet de kern van het testvak. Kwaliteit blijft een bewuste keuze en geen automatisch bijproduct van slimme tooling.
Test automation draait niet om groene pipelines, maar om zicht op ongewenste verandering. Precies daar blijft menselijke expertise onmisbaar.
De toekomst van test automation is geen autonome testfabriek, maar een samenwerking waarin AI voorstellen doet, testers reviewen en kwaliteit leidend blijft.
Expert in the lead is geen rem op AI. Het is hetzelfde principe dat softwarekwaliteit al decennia beschermt.

