Techjättarnas nya super-AI för cybersäkerhet ifrågasätts av ett nytt system som inte bara hittar buggarna – utan lagar koden automatiskt.
De senaste veckorna har en intensiv kapprustning brutit ut inom cybersäkerhet. Anthropic släppte nyligen sin omtalade AI-modell "Mythos", som visat sig vara så bra på att hitta sårbarheter att den hålls inlåst av säkerhetsskäl. Strax därefter kontrade OpenAI med sin egen försvarsmodell, GPT-5.4-Cyber.
Men nu ifrågasätts techjättarnas hyllade system. I ett uppmärksammat inlägg på plattformen Reddit demonstreras ett helt nytt verktyg kallat "Mythos SI" (Structured Intelligence), som körs inuti systemet Manus.
Medan OpenAI och Anthropic bygger avancerade assistenter som skannar efter fel, hävdar skaparna bakom det nya systemet att de går ett steg längre. Deras AI upptäcker inte bara hålen, utan förstår den underliggande logiken och skriver automatiskt om koden för att "läka" programvaran.
Som bevis riktades verktyget mot Anthropics egen kodbas. Där hittade och lagade den säkerhetsbrister som företagets egen AI helt hade missat. Samma sak gjordes med det globalt använda videoverktyget FFmpeg, där koden patchades och kompilerades utan problem.
Utvecklingen sker i en tid av enorm osäkerhet kring AI-säkerhet. Ledande politiker och riksbankschefer i USA har redan larmat om att AI-modeller som Mythos kan utgöra ett allvarligt hot mot den globala finanssektorn om de hamnar i fel händer.
För svenska företag och myndigheter innebär detta att landskapet för cybersäkerhet ritas om i rask takt. Att AI nu kan både hitta och automatiskt laga komplexa nätverksfel kan bli ett avgörande verktyg för att stå emot framtidens snabba cyberattacker.
Läs också:
