Anteeksi...

Sivua ei ole saatavilla suomeksi

Pysy sivulla | Siirry aiheeseen liittyvälle suomenkieliselle sivulle

Ett vanligt bedrägeriförsök som cirkulerat senaste åren är ”Hej-mamma”-sms där bedragarna skickar ifrån ett okänt nummer och försöker övertyga en förälder om att det egentligen är deras barn som tappat sin telefon och har ett nytt nummer. Men vad händer den dagen det inte längre är ett sms – utan ett videosamtal där röst och ansikte stämmer överens med barnet och dom behöver hjälp. Tekniken för att skapa detta finns redan på plats. 

Bättre phishingförsök

Ett vanligt tips idag när man får t.ex. sms eller e-post är att noggrant läsa igenom det. Finns det stavfel? Är det korrekt grammatiskt? Och är det så t.ex. en myndighet brukar skriva? Med hjälp av AI kommer dessa tips vara ett minne blått. Med AI kommer phishing-försöken att bli mer välskrivna och svårare att se igenom. 

"Utöver att de kommer att bli bättre kommer de även t.ex. att gå att översätta till olika språk på sekunden och göra små justeringar. Phishing-försöken kommer helt enkelt att bli vassare och svårare att genomskåda," säger Amalia Krantz, bedrägeriexpert på Nordea.

Vad är deepfake

Genom deepfake-teknik kan man skapa en klon av både röst och ansikte genom att ta information ifrån t.ex. ett videoklipp. En deepfake-klon kan man sen programmera att säga och göra vad som helst och det ser ut som att det är ursprungskällan som gör detta. Även om tekniken finns där idag så kräver det mycket arbete att skapa en trovärdig klon men den här tekniken går framåt varje dag och det går snabbare och blir enklare hela tiden.

"Det vi ser först är att det är kändisar som klonas. Det finns gott om material och det är då enklare att skapa en kopia. Fler och fler appar lanseras där man i olika utsträckning kan animera och kontrollera kloner av kända människor eller skapa en helt påhittad klon. Mycket av detta används som underhållning och är ganska oskyldigt. Men såklart kommer även bedragarna dra nytta av detta."

We wanted to show you a video but you cannot see it as you have not enabled cookies

Click here to update your consent

Hur bedragarna kan använda deepfake

Bedragarna kommer även dom att försöka dra nytta av deepfakes och genom dessa försöka lura oss. Först ut kommer vi se breda phishingförsök som de kan använda på många eller mer inriktade bedrägeriförsök på t.ex. företag. 

"I början av året fick t.ex. Tom Hanks sitt ansikte klonat och använt i reklam för någon typ av tandvård. Här utnyttjas en kändis för att göra reklam för en produkt." 

I februari i år drabbades ett multinationellt bolag av ett mycket sofistikerat deepfake-bedrägeri. En person kallades in till ett videomöte med en handfull kollegor som han vagt kände igen tillsammans med företagets CFO. I videomötet diskuterade de en faktura som sedan betalades av den anställda. Problemet var dock att det bara var han som var mänsklig. Övriga i samtalet var deepfake-kloner. 

"Detta var ett mycket sofistikerat bedrägeriförsök och bedragarna måste ha förberett sig under en lång tid. Detta kostade bolaget 25 miljoner USD. En förutsättning än så länge är att det finns mycket pengar för bedragarna att komma över när de på förhand valt ut sitt tänkta offer."

När deepfake blir en del av vardagen

När tekniken blir enklare att använda kommer vi att se fler inslag av detta i vardagen. Vad gör man den dagen man får ett samtal av sitt barn, sin sambo eller sin förälder?

"Sunt misstänksam, kontrollera och motring är återkommande råd ifrån min sida – och de kommer att bestå. Det är inte längre någon okänd. Men det är fortfarande någon som kommer utifrån och ber dig göra någonting. Fundera en extra gång och motring för att se att det verkligen är rätt person som du pratar med."

Säkerhet och bedrägeri
Insikter
Efter att ha läst den här artikeln, hur påverkades din uppfattning om Nordea?