99 procent av utvecklare använder AI för att koda. Nu tvingas säkerhetsbranschen bygga arméer av AI-agenter för att städa upp röran.
Mjukvarubranschen befinner sig i en kapprustning. Nya AI-verktyg låter utvecklare spotta ur sig kod i rekordfart, vilket har lett till att mänskliga säkerhetsteam hamnat hopplöst efter. För att täppa till luckorna har cybersäkerhetsbolag börjat bygga svärmar av autonoma AI-agenter som ständigt letar efter och fixar sårbarheter.
Problemet är massivt. Enligt en studie från säkerhetsföretaget Checkmarx använder hela 99 procent av dagens utvecklarteam AI för att generera kod. Samtidigt uppger 80 procent av dem att de oroar sig för säkerhetsriskerna som den maskingenererade koden för med sig. Koden skrivs snabbare, men säkerhetshålen sprids bredare.
Flera techbolag lanserar nu AI-drivna motmedel. Företaget Opsera släppte nyligen en svit av säkerhetsagenter för att automatisera hela processen. Tanken är att gå från manuella, tillfälliga säkerhetstester till system där AI-agenter dygnet runt attackerar och försvarar företagens nätverk på egen hand.
Den här utvecklingen flyttar hela flaskhalsen inom IT-säkerhet. Istället för att människor letar fel i koden, måste vi nu lita på att en AI kan övervaka en annan AI. För europeiska företag som kämpar med nya strikta lagkrav som NIS2-direktivet kan automatiserad säkerhet bli en ren överlevnadsfråga, då manuella kontroller tar för lång tid.
Men lösningen introducerar nya faror. Enligt cybersäkerhetsfirman CovertSwarm planerar nio av tio organisationer att rulla ut AI-agenter under 2026, men bara 17 procent övervakar vad de faktiskt gör. Om en hackare lyckas ta kontroll över en enda agent i svärmen riskerar hela systemet att kollapsa inifrån.
Läs också:
