I flera år har utpressare försökt skrämma folk på pengar med hotfulla mejl om hackade webbkameror, som påståtts ha filmat användare när de porrsurfar. Vanligen avkrävs offret en större summa pengar i bitcoin för att “filmen” inte ska skickas till vänner och bekanta. De flesta har nog nåtts av minst ett sådant mejl vid det här laget, och dessa ska enligt gängse praxis kastas direkt i papperskorgen.
Nu rapporterar amerikanska FBI om ett bedrägeri, där så kallade deepfake-videoklipp används för att ta sexutpressning till en ny nivå. Bedragarna dammsuger webben på bilder på offret, och sedan används artificiell intelligens för att skapa pornografiska videoklipp som kan se påfallande äkta ut. Det skriver Bleeping Computer.
Att AI i någon mån skulle användas för detta ändamål är kanske ingen skräll, men enligt FBI har man sett en ökning av tillvägagångssättet under 2023. FBI manar nu till försiktighet när det ska publiceras bilder i sociala medier, och att bilder och videoklipp helst bara ska göras tillgängliga för de närmaste i bekantskapen.
FBI:s varning gäller inte specifikt den typ av utpressningsmejl som beskrivs i den här artikelns inledning, utan verkar snarare handla om mer allmänna, fejkade videor som även återfunnits på porrsajter. Men med tanke på hur frekventa webbkamera-utpressningsmejlen varit så är det inte svårt att förutse vad som komma skall på den här fronten.