När AI driver cyberangrepp
Jag får inte kalla kårar så ofta av en säkerhetsrapport längre – men Anthropics senaste genomlysning av en AI-orkestrerad cyberattack fick mig att stanna upp.
Jag får inte kalla kårar så ofta av en säkerhetsrapport längre – men Anthropics senaste genomlysning av en AI-orkestrerad cyberattack fick mig att stanna upp. Jag har flera gånger funderat var gränsen egentligen går när jag själv fått meddelandet att det jag vill göra bryter mot plattformens regler.
Det som oroar mig är inte bara att en statsstödd aktör lyckas använda en kommersiell AI-plattform till avancerat cyberspionage. Det jag verkligen fastnar för är skiftet i arbetsdelningen: AI gör 80–90 % av jobbet, människan blir mer dirigent än operatör och kan luta sig mot infrastrukturen hos en AI-plattform.
I min värld är det här en vattendelare. Vi går från ”angripare som använder AI som verktyg” till ”AI-system som driver stora delar av angreppet”. Ändå hör jag ofta att ”plattformarna har ju sina safeguards” – samma argument som sociala medier använde när de lovade att självreglera bort hat och desinformation. Vi vet hur det gick.
Utifrån mitt perspektiv ser jag tre saker vi behöver prata mer om:
- Incitamenten – kan vi verkligen förlita oss på att kommersiella aktörer sätter säkerhet före tillväxt?
- Ansvarsfördelningen – plattform, utvecklare, slutanvändare, stat. Just nu hamnar för mycket på ”någon annans bord”.
- Styrningen – hur väver vi in AI-risker i befintlig governance, istället för att skapa ännu ett sidospår?
För mig handlar det inte om att bromsa AI, utan om att erkänna att vi kör fort på en bergsväg – och att någon måste bygga räckena innan första stora olyckan.
Hur ser du på det här? Vem håller egentligen i ratten i bilen som kör med full fart på bergsvägen utan räcke?
Anthropics rapport hittar du här: https://www.anthropic.com/news/disrupting-AI-espionage
Vill du bolla detta i er kontext?
Hör av dig så tar vi ett kort, förutsättningslöst samtal.