Generatief NAAR DE het is snel een kerninfrastructuur geworden, geïntegreerd in bedrijfssoftware, cloudplatforms en interne workflows. Maar deze verandering dwingt ook tot een structurele heroverweging van cyberbeveiliging. Dezelfde geleidingssystemen productiviteit en groei komen naar voren als punten van kwetsbaarheid.
Het laatste nieuws van Google Cloud AI Threat Tracker-rapport suggereert dat de technologie-industrie een nieuwe fase van cyberrisico’s is ingegaan, waarin AI-systemen zelf hoogwaardige doelen vertegenwoordigen. Onderzoekers van Google DeepMind en Google Threat Intelligence Group hebben een gestage toename van patroonextractie- of ‘destillatie’-aanvallen vastgesteld waarbij actoren herhaaldelijk generatieve AI-systemen activeren in een poging hun eigen mogelijkheden te kopiëren.
In sommige gevallen overspoelen aanvallers modellen met zorgvuldig ontworpen hints om hen te dwingen te onthullen hoe ze denken en beslissingen nemen. In tegenstelling tot traditionele cyberaanvallen waarbij netwerken worden doorbroken, zijn veel van deze inspanningen afhankelijk van legitieme toegang, waardoor ze moeilijker te detecteren zijn en de cyberbeveiliging verschuift naar het beschermen van intellectueel eigendom in plaats van perimeterverdediging.
Onderzoekers zeggen dat modelmining concurrenten, statelijke actoren of academische groepen in staat zou kunnen stellen waardevolle AI-mogelijkheden te repliceren zonder waarschuwingen voor inbreuken te veroorzaken. Voor bedrijven die grote taalmodellen bouwen, strekt de concurrentiestrijd zich nu uit tot de propriëtaire logica binnen de modellen zelf.
Uit het rapport blijkt ook dat door de staat gesteunde en financieel gemotiveerde actoren uit China, Iran, Noord-Korea en Rusland gedurende de hele aanvalscyclus AI gebruiken. Bedreigingsgroepen zetten generatieve modellen in om malware te verbeteren, doelwitten te zoeken, interne communicatie te imiteren en overtuigender phishing-berichten te creëren. Sommigen experimenteren met AI-agenten om het ontdekken van kwetsbaarheden, het beoordelen van codes en aanvallen in meerdere fasen te vergemakkelijken.
John Hultquist, hoofdanalist bij Google Threat Intelligence Group, zegt dat de implicaties verder reiken dan traditionele inbreukscenario’s. De onderliggende modellen vertegenwoordigen miljarden aan verwachte bedrijfswaarde, en distillatieaanvallen kunnen tegenstanders in staat stellen belangrijke functionaliteit te kopiëren zonder systemen binnen te dringen. Het resultaat, zo stelt hij, is een opkomende cyberwapenwedloop, waarbij aanvallers kunstmatige intelligentie gebruiken om op machinesnelheid te opereren, terwijl verdedigers zich haasten om AI in te zetten die bedreigingen in realtime kan identificeren en erop kan reageren.
Hultquist, een voormalige inlichtingenspecialist van het Amerikaanse leger die hielp bij het ontmaskeren van de Russische acteur die bekend staat als Sandworm en die nu lesgeeft aan de Johns Hopkins University, zegt Snel bedrijf hoe AI zowel een wapen als een doelwit werd, en hoe cyberbeveiliging eruit ziet in een machine-versus-machine-toekomst.
AI transformeert van een eenvoudig hulpmiddel dat door aanvallers wordt gebruikt naar een strategische asset die de moeite waard is om te repliceren. Wat is er het afgelopen jaar veranderd waardoor deze escalatie structureel en kwalitatief verschilt van eerdere golven van op AI gebaseerde bedreigingen?
AI is niet alleen een enabler voor bedreigingsactoren. Het is een nieuw en uniek aanvalsoppervlak en een doelwit op zichzelf. De grootste bewegingen die we in de nabije toekomst zullen zien, zullen ervoor zorgen dat actoren AI in hun bestaande routines gaan opnemen, maar naarmate wij AI in de stapel opnemen, zullen ze geheel nieuwe routines ontwikkelen die zich op de nieuwe kansen richten. Kunstmatige intelligentie is ook een uiterst waardevol vermogen, en we kunnen verwachten dat de technologie zelf het doelwit zal zijn van staten en commerciële belangen die deze willen kopiëren.
Het rapport benadrukt een toename van het aantal aanvallen gericht op patroonextractie, of ‘distillatie’. eigen systemen. Hoe werken deze aanvallen?
Distillatieaanvallen vinden plaats wanneer iemand een model bombardeert met verzoeken om de mogelijkheden van een model systematisch te repliceren. In het geval van Google stuurde iemand Gemini meer dan 100.000 suggesties om zijn redeneervermogen te onderzoeken, in een schijnbare poging om zijn besluitvormingsstructuur te reverse-engineeren. Zie het als wanneer je een analist traint en probeert te begrijpen hoe hij of zij tot een conclusie is gekomen. Je zou ze een hele reeks vragen kunnen stellen in een poging hun denkproces te onthullen.
Waar zien de door de staat gesponsorde, financieel gemotiveerde dreigingsgroepen de meest directe operationele voordelen van AI, en hoe verandert dit de snelheid en verfijning van hun dagelijkse aanvalsworkflows?
Wij geloven dat tegenstanders de waarde van AI in de dagelijkse productiviteit over het volledige spectrum van hun aanvalsoperaties erkennen. Aanvallers maken steeds vaker gebruik van AI-platforms om te zoeken, te verkennen en social engineering uit te voeren. Een aanvaller die zich op een bepaalde branche richt, kan bijvoorbeeld onderzoek doen naar een komende conferentie en kunstmatige intelligentie gebruiken om thema’s en interessegebieden te interpreteren en onder de aandacht te brengen, die vervolgens kunnen worden geïntegreerd in phishing-e-mails voor een specifieke gerichte organisatie. Dit soort vijandig onderzoek vergt doorgaans veel tijd om gegevens te verzamelen, inhoud te vertalen en de lokale context voor een bepaalde regio of bedrijfstak te begrijpen. Maar met behulp van kunstmatige intelligentie kan een tegenstander in slechts enkele minuten uren werk verzetten.
Door de overheid gesteunde actoren in Iran, Noord-Korea, China en Rusland integreren AI gedurende de gehele levenscyclus van inbraak. Waar biedt AI vandaag de dag het grootste operationele voordeel, en hoe versnelt het de overgang van een aanvankelijk compromis naar impact in de echte wereld?
Generatieve AI wordt al acht jaar gebruikt in social engineering en is geëvolueerd van het maken van nepprofielfoto’s naar het orkestreren van complexe interacties en het deepfaken van collega’s. Maar er zijn nog veel meer voordelen voor de tegenstander: snelheid, schaal en verfijning. Zelfs een minder ervaren hacker wordt effectiever met tools die helpen bij het oplossen van problemen, terwijl meer geavanceerde actoren sneller toegang kunnen krijgen tot zero-day-kwetsbaarheden. Met deze verbeteringen in snelheid en bereik kunnen aanvallers binnen traditionele patchcycli opereren en door mensen aangestuurde verdedigingen overweldigen. Het is ook belangrijk om de criminele impact van deze technologie niet te onderschatten. In veel toepassingen is snelheid eigenlijk een nadeel voor spionageactoren die heel hard werken om laag en langzaam te blijven, maar het is een belangrijke troef voor criminelen, vooral omdat ze verwachten hun slachtoffers te waarschuwen wanneer ze ransomware lanceren of dreigen met datalekken.
We beginnen vroege tests te zien met op agenten gebaseerde AI-systemen die campagnes in meerdere fasen kunnen plannen en uitvoeren met beperkte menselijke tussenkomst. Hoe dicht zijn we bij werkelijk autonome tegenstanders die op grote schaal opereren, en welke eerste tekenen wijzen erop dat de snelheid van bedreigingen toeneemt?
Bedreigingsactoren maken al gebruik van AI om schaalvoordelen te behalen. We zien dat ze AI gebruiken om verkenningsoperaties en social engineering te automatiseren. Ze gebruiken op agenten gebaseerde oplossingen om doelen te scannen met meerdere tools, en we hebben gezien dat sommige actoren het moeizame proces van het ontwikkelen van op maat gemaakte social engineering hebben verminderd. Uit ons werk met tools als BigSleep weten we dat AI-agents uiterst effectief kunnen zijn in het identificeren van softwarekwetsbaarheden en kunnen verwachten dat tegenstanders soortgelijke mogelijkheden onderzoeken.
Gaan we op strategisch niveau richting een tijdperk van machine- versus machine-default in cybersecurity? Kan defensieve AI snel genoeg evolueren om gelijke tred te houden met offensieve capaciteiten, of is cyberveerkracht nu onlosmakelijk verbonden met de algehele AI-strategie?
We zullen zeker meer op machines vertrouwen dan ooit tevoren, anders lopen we het risico achterop te raken bij anderen die dat wel doen. Uiteindelijk gaat veiligheid echter over risicobeheer, wat betekent dat er op een bepaald niveau menselijk oordeel bij betrokken zal moeten zijn. Ik vrees dat aanvallers enkele voordelen hebben als het gaat om snel aanpassen. Ze zullen niet dezelfde bureaucratieën moeten beheren, noch zullen ze dezelfde risico’s lopen. Als ze besluiten een nieuwe techniek te proberen en deze mislukt, kost dat hen niet veel. Dit geeft hen meer vrijheid om te experimenteren. We zullen hard moeten werken om ze bij te houden. Maar als we niet proberen zelf geen op AI gebaseerde oplossingen te adopteren, zullen we zeker verliezen. Ik denk niet dat er een toekomst is voor verdedigers zonder AI; het is gewoon te impactvol om te vermijden.



