Vlad Ionescu e Ariel Herbert-Voss, mede-oprichters van IT-beveiliging begin RunSybilwaren even in de war toen ze NAAR DE De Sybil-tool waarschuwde hen afgelopen november voor een zwakte in de systemen van een klant.
Sybil gebruikt een mix van verschillende AI’s modellen– plus enkele gepatenteerde technische trucs – om computersystemen te scannen op problemen waar hackers misbruik van kunnen maken, zoals een niet-gepatchte server of een verkeerd geconfigureerde database.
In dit geval meldde Sybil een probleem met de implementatie door de klant van federatieve GraphQL, een taal die wordt gebruikt om te specificeren hoe gegevens op internet worden benaderd via application programming interfaces (API’s). Het probleem hield in dat de klant per ongeluk vertrouwelijke informatie openbaarde.
Wat Ionescu en Herbert-Voss in verwarring bracht, was dat het identificeren van het probleem buitengewoon diepgaande kennis vereiste van verschillende systemen en hoe deze systemen op elkaar inwerken. RunSybil beweert hetzelfde probleem te zijn tegengekomen bij andere GraphQL-implementaties, voordat iemand anders het openbaar maakte. “We hebben het internet afgespeurd, maar het bestond niet”, zegt Herbert-Voss. “De ontdekking hiervan was een doorbraak in het denken in termen van de mogelijkheden van de modellen – een radicale verandering.”
De situatie duidt op een groeiend risico. Naarmate AI-modellen steeds slimmer worden, blijft ook hun vermogen om zero-day bugs en andere kwetsbaarheden op te sporen toenemen. Dezelfde intelligentie die kan worden gebruikt om kwetsbaarheden te detecteren, kan ook worden gebruikt om deze te exploiteren.
Lied van de dageraadEen computerwetenschapper van UC Berkeley die gespecialiseerd is in zowel kunstmatige intelligentie als beveiliging, zegt dat recente ontwikkelingen op het gebied van kunstmatige intelligentie modellen hebben opgeleverd die beter zijn in het opsporen van fouten. Gesimuleerd redeneren, waarbij problemen in samenstellende delen worden opgedeeld, en kunstmatige intelligentie van agenten, zoals zoeken op internet of het installeren en uitvoeren van softwaretools, hebben de rekenmogelijkheden van modellen vergroot.
“De cyberbeveiligingsmogelijkheden van Frontier-modellen zijn de afgelopen maanden dramatisch toegenomen”, zegt hij. “Dit is een gamechanger.”
Vorig jaar creëerde Song een benchmark genaamd CyberGym om te bepalen hoe goed grote taalmodellen kwetsbaarheden vinden in grote open source softwareprojecten. CyberGym bevat 1.507 bekende kwetsbaarheden gevonden in 188 projecten.
In juli 2025 slaagde Claude Sonnet 4 van Anthropic erin om ongeveer 20% van de kwetsbaarheden in de benchmark te vinden. In oktober 2025 kon een nieuw model, Claude Sonnet 4.5, 30% identificeren. “AI-agenten kunnen zero-days vinden tegen zeer lage kosten”, zegt Song.
Song zegt dat deze trend de noodzaak aantoont van nieuwe tegenmaatregelen, waaronder AI-hulp voor cybersecurity-experts. “We moeten nadenken over hoe we AI daadwerkelijk meer kunnen helpen aan de defensiekant, en er kunnen verschillende benaderingen worden onderzocht”, zegt hij.
Eén idee is dat grensverleggende AI-bedrijven vóór de lancering modellen delen met beveiligingsonderzoekers, zodat zij de modellen kunnen gebruiken om bugs te vinden en systemen te beveiligen vóór een algemene release.
Een andere tegenmaatregel, zegt Song, is om opnieuw na te denken over de manier waarop software überhaupt wordt gebouwd. Zijn laboratorium heeft aangetoond dat het mogelijk is om kunstmatige intelligentie te gebruiken om veiliger code te genereren dan de meeste programmeurs tegenwoordig gebruiken. “Op de lange termijn denken we dat deze ‘secure-by-design’-aanpak verdedigers echt zal helpen”, zegt Song.
Het RunSybil-team zegt dat de codeermogelijkheden van AI-modellen er op de korte termijn voor kunnen zorgen dat hackers de overhand krijgen. “AI kan acties op een computer genereren en code genereren, en dat zijn twee dingen die hackers doen”, zegt Herbert-Voss. “Als deze capaciteiten versnellen, betekent dit dat offensieve veiligheidsacties ook zullen versnellen.”
Dit is een editie van Wil Ridder AI Laboratoriumnieuwsbrief. Lees eerdere nieuwsbrieven Hier.



