AI-klonade journalister och fejkade vd:ar på videomöten. När röstkloning och deepfakes blir vardag suddas gränsen för bedrägerier ut.
Techbolaget Superhuman, som ligger bakom det populära skrivverktyget Grammarly, hamnade nyligen i blåsväder efter att ha lanserat funktionen "Expert Review". Verktyget lät användare få textkritik från AI-klonade experter, däribland välkända teknikjournalister – helt utan deras tillåtelse.
Tilltaget väckte enorm ilska och ledde till en grupptalan från den profilerade reportern Julia Angwin. Företagets vd, Shishir Mehrotra, tvingades skrota funktionen och be offentligt om ursäkt för övertrampet.
Men den olovliga kloningen i mjukvaror är bara toppen av ett snabbt växande isberg. Riktade vd-bedrägerier med hjälp av röstkloning ökade med ofattbara 680 procent under förra året. Tekniken har blivit så tillgänglig att det numera räcker med tre sekunders ljud för att återskapa en persons röst.
Ett uppmärksammat fall drabbade Mark Read, vd för världens största pr-byrå WPP. Bedragare använde röstkloning och stulet YouTube-material i ett försök att lura till sig pengar via ett falskt Teams-möte.
För WPP misslyckades försöket, men andra har haft mindre tur. Det globala ingenjörsföretaget Arup förlorade nyligen närmare 250 miljoner kronor i en fejkad videokonferens, vilket visar hur svårt det har blivit att lita på sina egna ögon och öron på nätet.
