AI-kapningar ökar explosionsartat, men nya verktyget Arc Gate lovar att stoppa alla attacker – och utklassar techjättarnas egna skydd.
Allt fler företag bygger in AI i sina tjänster. Men säkerheten släpar efter, och så kallade "prompt injections" – där användare lurar AI:n att bryta mot sina egna regler – har blivit ett massivt problem på internet.
Dessutom jagar hackare aktivt efter felkonfigurerade AI-system. Säkerhetsforskare har nyligen hittat skadlig kod i vanliga utvecklarpaket som i smyg förvandlar oskyldiga servrar till knutpunkter för utländska AI-nätverk. Andra kapar åtkomsten till dyra betalmodeller för att kunna använda dem gratis.
Som ett svar på den växande hotbilden lanseras nu Arc Gate. Det är en proxy – ett filter som sitter mellan användaren och AI-modellen – som granskar varje inmatning i realtid.
Enligt utvecklarna fångar verktyget upp 100 procent av de mest avancerade attackerna, helt utan falska larm. Det inkluderar kluriga scenarion där AI:n ombeds "rollspela" eller svara indirekt på skadliga frågor.
Resultatet utklassar techjättarnas egna skyddsmekanismer. I samma tester missar OpenAI:s moderering var fjärde skadlig prompt, medan Metas motsvarighet LlamaGuard släpper igenom nästan hälften.
Arc Gate lägger till en fördröjning på knappa 330 millisekunder när du skickar en fråga, men garanterar i gengäld att skadlig kod aldrig når huvudmodellen. För privatpersoner och hobbyprojekt styrs det enkelt via en inställning, men för storskalig kommersiell användning krävs en betald licens.
Läs också:
