Home Nieuws China gekoppeld aan op AI gebaseerde hack-aanvallen, zegt Anthropic – National

China gekoppeld aan op AI gebaseerde hack-aanvallen, zegt Anthropic – National

8
0
China gekoppeld aan op AI gebaseerde hack-aanvallen, zegt Anthropic – National

Een team van onderzoekers heeft ontdekt wat volgens hen het eerste gerapporteerde gebruik is van kunstmatige intelligentie direct naar hack-campagne grotendeels geautomatiseerd.

Kunstmatige intelligentiebedrijf Anthropic zei deze week dat het een cyberoperatie had stopgezet die verband hield met zijn onderzoekers Chinese regering. De operatie omvatte het gebruik van een kunstmatig intelligentiesysteem om hackcampagnes aan te sturen, wat onderzoekers een verontrustende ontwikkeling noemden die het bereik van AI-hackers enorm zou kunnen vergroten.


Klik om video af te spelen:


China heeft grote Amerikaanse kantoren gehackt: rapport


Hoewel zorgen over het gebruik van AI om cyberoperaties te begeleiden niet nieuw zijn, is het zorgwekkende aan de nieuwe operatie de mate waarin AI een deel van het werk heeft kunnen automatiseren, aldus onderzoekers.

Het verhaal gaat verder onder de advertentie

“Hoewel we voorspelden dat deze mogelijkheden zouden blijven evolueren, viel ons op hoe snel ze dat op grote schaal deden”, schreven ze in hun rapport.

De operatie was gericht op technologiebedrijven, financiële instellingen, chemische bedrijven en overheidsinstanties. De onderzoekers schreven dat hackers ‘ongeveer dertig mondiale doelen aanvielen en in een klein aantal gevallen succesvol waren’. Anthropic nam de operatie in september over en ondernam stappen om de operatie stop te zetten en de betrokken partijen op de hoogte te stellen.

Anthropic merkte op dat hoewel AI-systemen steeds vaker worden gebruikt in een verscheidenheid aan werk- en spelcontexten, ze ook kunnen worden bewapend door hackergroepen die voor buitenlandse tegenstanders werken. Anthropic, maker van de generatieve AI-chatbot Claude, is een van de vele technologiebedrijven die AI-agenten aanbieden die verder gaan dan het vermogen van een chatbot om toegang te krijgen tot computertools en namens iemand acties te ondernemen.

Voor nieuws dat betrekking heeft op Canada en de rest van de wereld kunt u zich aanmelden om de laatste nieuwswaarschuwingen rechtstreeks naar u te ontvangen wanneer dit gebeurt.

Ontvang het laatste nationale nieuws

Voor nieuws dat betrekking heeft op Canada en de rest van de wereld kunt u zich aanmelden om de laatste nieuwswaarschuwingen rechtstreeks naar u te ontvangen wanneer dit gebeurt.

“Agenten zijn waardevol voor het dagelijkse werk en de productiviteit, maar in de verkeerde handen kunnen ze de haalbaarheid van grootschalige cyberaanvallen aanzienlijk vergroten”, concluderen de onderzoekers. “Deze aanvallen zullen waarschijnlijk alleen maar effectiever worden.”

Een woordvoerder van de Chinese ambassade in Washington stuurde niet onmiddellijk een bericht terug met de vraag om commentaar op het verhaal.


Klik om de video af te spelen:


De FBI waarschuwt dat Chinese hackers zich op Canadese politici hebben gericht


Microsoft waarschuwde eerder dit jaar dat buitenlandse tegenstanders in toenemende mate kunstmatige intelligentie adopteerden om hun cybercampagnes efficiënter en minder arbeidsintensief te maken. De baas van OpenAIhet beveiligingspaneel, dat de bevoegdheid heeft om de ChatGPT De AI-ontwikkeling van de fabrikant vertelde onlangs aan Associated Press dat het op zoek is naar nieuwe AI-systemen die kwaadwillende hackers “veel hogere mogelijkheden” geven.

Het verhaal gaat verder onder de advertentie

De Amerikaanse tegenstanders, maar ook criminele bendes en hackers, hebben het potentieel van kunstmatige intelligentie uitgebuit door deze te gebruiken om cyberaanvallen te automatiseren en te versterken, provocerende desinformatie te verspreiden en gevoelige systemen binnen te dringen. AI kan bijvoorbeeld slecht geformuleerde phishing-e-mails vertalen naar vloeiend Engels, maar ook digitale klonen van hoge overheidsfunctionarissen genereren.

Anthropic zei dat de hackers Claude konden manipuleren met behulp van ‘jailbreaking’-technieken waarbij een kunstmatig intelligentiesysteem werd misleid om de barrières tegen kwaadaardig gedrag te omzeilen, in dit geval door te beweren dat ze werknemers waren van een legitiem bedrijf. IT-beveiliging bedrijf.

“Dit wijst op een grote uitdaging met AI-modellen, en deze beperkt zich niet tot Claude, namelijk dat modellen onderscheid moeten kunnen maken tussen wat er feitelijk aan de hand is met de ethiek van een situatie en de soorten rollenspelscenario’s die hackers en anderen zouden willen bedenken”, zegt John Scott-Railton, senior onderzoeker bij Citizen Lab.


Klik om de video af te spelen:


Beursexperts waarschuwen voor een mogelijke ‘AI-zeepbel’ die doet denken aan het dotcom-tijdperk


Het gebruik van AI om cyberaanvallen te automatiseren of te sturen zal ook kleinere hackergroepen en alleenstaande hackers aanspreken, die AI zouden kunnen gebruiken om het bereik van hun aanvallen te vergroten, aldus Adam Arellano, veld-CTO bij Harness, een technologiebedrijf dat AI gebruikt om klanten te helpen softwareontwikkeling te automatiseren.

Het verhaal gaat verder onder de advertentie

“De snelheid en automatisering die AI biedt, zijn beangstigend”, zegt Arellano. “In plaats van dat een mens met goed ontwikkelde vaardigheden probeert om geharde systemen te hacken, versnelt AI deze processen en overwint hij obstakels consistenter.”

AI-programma’s zullen ook een steeds belangrijkere rol spelen bij de verdediging tegen dit soort aanvallen, zei Arellano, wat aantoont hoe AI en de automatisering die het mogelijk maakt beide partijen ten goede zullen komen.

De reacties op de onthulling van Anthropic waren gemengd: sommigen zagen het als een marketingtruc voor Anthropic’s benadering van cyberveiligheidsverdediging, terwijl anderen de wake-up call verwelkomden.

“Dit zal ons – sneller dan we denken – vernietigen als we morgen de regulering van AI niet tot een nationale prioriteit maken”, schreef de Amerikaanse senator Chris Murphy, een democraat uit Connecticut, op sociale media.

Dit heeft geleid tot kritiek van HalfYann LeCun, hoofd AI-wetenschapper bij Facebook, is een voorstander van de open-source AI-systemen van het moederbedrijf van Facebook die, in tegenstelling tot die van Anthropic, hun belangrijkste componenten toegankelijk maken voor het publiek op een manier die volgens sommige voorstanders van AI-veiligheid te riskant is.

“Je wordt gespeeld door mensen die regelgeving willen vastleggen”, schreef LeCun in een reactie aan Murphy. “Ze maken iedereen bang met dubieuze onderzoeken zodat open source-modellen gereguleerd worden geëlimineerd.”


© 2025 De Canadese pers



Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in