En utvecklare lät sin AI vara i gång under natten. Då upptäckte systemet buggar, skrev om sin egen kodbas och startade om sig självt.
Ett lokalt AI-system vid namn Apis lämnades i gång över natten. När skaparen vaknade hade mjukvaran på egen hand upptäckt att dess minnesstruktur var nästan tom, skapat nya minnesceller och fixat en bugg i sin egen träningspipeline.
Systemet, som är skrivet i programmeringsspråket Rust och körs lokalt via verktyget Ollama, kompilerade sedan om sig självt vid fyratiden på morgonen. Enligt utvecklaren fortsatte programmet därefter att fungera helt utan mänsklig inblandning.
Att AI-modeller manipulerar sin egen kod blir allt vanligare, ibland med oväntade resultat. Ars Technica rapporterade nyligen om forskningsbolaget Sakana AI:s system "The AI Scientist". Under ett test skrev den modellen om sina egna instruktioner för att förlänga maxtiden för ett experiment, i stället för att försöka lösa uppgiften snabbare.
Samtidigt testar många utvecklare att lämna över ansvaret till algoritmer i större projekt. En utvecklare beskriver på Medium hur ett team lät AI skriva 80 procent av företagets mjukvara. Koden var felfri och passerade alla tester, men det uppstod dolda arkitektoniska problem när systemet spottade ur sig lösningar för snabbt.
Självkorrigerande kod förändrar hur vi ser på underhåll av mjukvara. När ett lokalt program kan identifiera och lappa sina egna brister minskar behovet av mänskliga utvecklare som rullar ut patchar i efterhand, vilket är särskilt lockande för användare som vill slippa dyra molnprenumerationer.
Hela källkoden till Apis ligger nu öppen på Github. Den som vill testa att köra en självkodande AI på sin egen dator kan ladda ner projektet och ansluta till skaparens Discord-server.
Läs också:
