För första gången har hackare använt AI för att skapa okända cybervapen. Nu larmar Google om att tekniken sänker tröskeln för dataintrång.
Nolldagsattacker (zero-day exploits) är små, extremt kraftfulla program som utnyttjar tidigare okända säkerhetshål i mjukvara. Eftersom de är okända finns det inga uppdateringar som skyddar mot dem, vilket gör dem till hårdvaluta i den digitala undre världen.
Nu har Googles säkerhetsteam för första gången hittat bevis på att hackare har använt AI för att utveckla just ett sådant cybervapen. Attacken var riktad mot ett välkänt IT-verktyg och hade kunnat leda till en massiv våg av dataintrång om Google inte hunnit varna tillverkaren i tid.
Enligt säkerhetsforskarna fanns det flera tydliga tecken på att koden var skriven av en maskin. Den innehöll bland annat detaljerade hjälpmenyer som sällan syns i mänsklig kodning, och AI:n hade till och med drömt ihop ett säkerhetshål som i verkligheten inte existerade – en så kallad hallucination.
Rapporten visar också att statsstödda hackergrupper från länder som Kina, Nordkorea och Iran aktivt använder stora språkmodeller som Googles egna Gemini. I ett fall lurade en kinesisk grupp AI-assistenten att agera säkerhetsexpert för att hitta sårbarheter i specifika routrar.
Tidigare i år avslöjades det även att hackare försökt använda Anthropics AI-modell Claude för att kartlägga och attackera vatten- och avloppssystem i Mexiko.
Experter varnar nu för att AI fungerar som en slags digital assistent för cyberkriminella. Det som tidigare krävde månader eller år av teknisk erfarenhet kan nu göras nästan omedelbart. Det innebär att även personer med låg teknisk kompetens plötsligt kan utföra avancerade attacker som de egentligen inte förstår sig på.
Läs också:
