Zaterdag 21/09/2019
Cyberfraude neemt steeds griezeliger vormen aan

Technologie

Frauderen met kunstmatige intelligentie gaat steeds gemakkelijker: ‘Het wordt echt griezelig’

Cyberfraude neemt steeds griezeliger vormen aan Beeld ANP

Criminelen hebben 220.000 euro gestolen met behulp van software met kunstmatige intelligentie (AI) die de stem van de topman van een bedrijf kon nadoen. ‘Het wordt echt griezelig’, zegt security-expert Marc Vael.

We moesten al alert zijn voor zogenaamde ‘normale’ CEO-fraude: de praktijk waarbij hackers zich voordoen als de CEO van het bedrijf. Via mail wordt dan bijvoorbeeld gevraagd dringend geld te storten op een rekeningnummer.  Maar criminelen zitten – net als de technologische vooruitgang – niet stil. Nu is voor het eerst kunstmatige intelligentie ingezet om CEO-fraude te plegen. The Wall Street Journal meldt dat criminelen met AI-software de stem konden imiteren. Bij het voorval in maart werd 220.000 euro buitgemaakt.

Marc Vael, chief information security officer bij Esko, specialist in grafische soft- en hardware en onderdeel van het Amerikaanse concern Danaher:  “De kunst om mensen te imiteren wordt technologisch almaar gemakkelijker en sneller. Had je vroeger uren stemmateriaal nodig om er iets of wat bruikbaars uit te knippen, dan volstaan nu tien minuten aan stemmateriaal.” Met een pakket van een twintigtal standaardzinnen kan een beetje technische hacker de stem alles laten zeggen wat nodig is.

Stemnabootsingssoftware 

In dit geval belden de criminelen het hoofd van een Brits nutsbedrijf op. De kunstmatige intelligentie zorgde ervoor dat de stem aan de telefoon klonk als die van een topman van het dochterbedrijf. De topman van het moederbedrijf herkende de stem van de CEO van het dochterbedrijf aan de intonatie en het licht Duitse accent. Toen eiste de nep­topman dat het geld binnen een uur naar een Hongaarse leverancier werd gestuurd. 

De hackers zouden wellicht commercieel te verkrijgen stemnabootsingssoftware hebben gebruikt om de topman na te doen. “Ze gaan dan tewerk zoals de bots bij een callcenter”, weet Vael. “Ze schrijven een heel script uit, zodat ze kunnen reageren op elke mogelijke vraag die aan de andere kant van de lijn wordt gesteld.” Dit zal vermoedelijk niet de laatste keer zijn dat criminelen deepfake-achtige technologie inzetten. “De enige manier om het hoofd te bieden aan dergelijke praktijken is een procedure opmaken en er zich aan houden. Van zodra iets afwijkt van de reguliere procedure moeten alle alarmbellen afgaan.” 

Meer over

Wilt u belangrijke informatie delen met De Morgen?

Tip hier onze journalisten


Op alle verhalen van De Morgen rust uiteraard copyright. Linken kan altijd, eventueel met de intro van het stuk erboven.
Wil je tekst overnemen of een video(fragment), foto of illustratie gebruiken, mail dan naar info@demorgen.be.
DPG Media nv – Mediaplein 1, 2018 Antwerpen – RPR Antwerpen nr. 0432.306.234