Utvecklare bygger egna AI-agenter för att sortera kod och forskning. Men en ny studie visar att för mycket information gör AI:n dummare.
En utvecklare på Reddit tröttnade nyligen på att missa intressanta uppdateringar på plattformar som HuggingFace och Github. Lösningen blev att bygga en egen AI-agent som automatiskt letar upp och sammanfattar relevant innehåll. Trenden att skapa personliga AI-verktyg växer snabbt bland programmerare som vill slippa lägga timmar på att leta efter rätt funktioner i stora projekt.
Problemet för många är att vanliga chattbottar saknar rätt kontext. Utvecklaren Fernando Abolafio skriver på Medium att det ofta slutar med att man frustrerat kopierar och klistrar in hundratals rader kod i chattfönstret. För att lösa detta bygger nu många egna system. Tushar Kanjariya visar i ett experiment hur han med hjälp av Node.js skapade en agent som lärde sig hela hans kodbas och numera fungerar som en sökbar assistent.
Men att ge AI-agenter fri tillgång till all tänkbar information är inte alltid en bra idé. En ny studie från forskare publicerad inför maskininlärningskonferensen ICML visar att särskilda instruktionsfiler för AI ofta får motsatt effekt. Enligt studien minskar chansen att AI:n löser uppgiften om den får för mycket bakgrundskontext, samtidigt som datorernas driftkostnad ökar med över 20 procent.
För den svenska techsektorn innebär detta en svår balansgång. Företag som snabbt vill integrera AI riskerar att kasta pengar i sjön om de matar in hela sina interna system i en agent utan noggrann filtrering. Att städa upp i gamla kodbaser och ge AI:n exakt rätt, avgränsad information ser ut att bli en kritisk kunskap framöver.
Fokus skiftar nu från att bygga agenter som sväljer allt till smartare sorteringstekniker. Flera open source-projekt tittar redan på nya standarder för hur kod ska markeras upp för att AI:n ska läsa rätt filer i rätt ordning utan att fastna i onödiga sidospår.
Läs också:
