Zaterdag 24/10/2020
Cyberfraude neemt steeds griezeliger vormen aan

Technologie

Frauderen met kunstmatige intelligentie gaat steeds gemakkelijker: ‘Het wordt echt griezelig’

Cyberfraude neemt steeds griezeliger vormen aanBeeld ANP

Criminelen hebben 220.000 euro gestolen met behulp van software met kunstmatige intelligentie (AI) die de stem van de topman van een bedrijf kon nadoen. ‘Het wordt echt griezelig’, zegt security-expert Marc Vael.

We moesten al alert zijn voor zogenaamde ‘normale’ CEO-fraude: de praktijk waarbij hackers zich voordoen als de CEO van het bedrijf. Via mail wordt dan bijvoorbeeld gevraagd dringend geld te storten op een rekeningnummer.  Maar criminelen zitten – net als de technologische vooruitgang – niet stil. Nu is voor het eerst kunstmatige intelligentie ingezet om CEO-fraude te plegen. The Wall Street Journal meldt dat criminelen met AI-software de stem konden imiteren. Bij het voorval in maart werd 220.000 euro buitgemaakt.

Marc Vael, chief information security officer bij Esko, specialist in grafische soft- en hardware en onderdeel van het Amerikaanse concern Danaher:  “De kunst om mensen te imiteren wordt technologisch almaar gemakkelijker en sneller. Had je vroeger uren stemmateriaal nodig om er iets of wat bruikbaars uit te knippen, dan volstaan nu tien minuten aan stemmateriaal.” Met een pakket van een twintigtal standaardzinnen kan een beetje technische hacker de stem alles laten zeggen wat nodig is.

Stemnabootsingssoftware 

In dit geval belden de criminelen het hoofd van een Brits nutsbedrijf op. De kunstmatige intelligentie zorgde ervoor dat de stem aan de telefoon klonk als die van een topman van het dochterbedrijf. De topman van het moederbedrijf herkende de stem van de CEO van het dochterbedrijf aan de intonatie en het licht Duitse accent. Toen eiste de nep­topman dat het geld binnen een uur naar een Hongaarse leverancier werd gestuurd. 

De hackers zouden wellicht commercieel te verkrijgen stemnabootsingssoftware hebben gebruikt om de topman na te doen. “Ze gaan dan tewerk zoals de bots bij een callcenter”, weet Vael. “Ze schrijven een heel script uit, zodat ze kunnen reageren op elke mogelijke vraag die aan de andere kant van de lijn wordt gesteld.” Dit zal vermoedelijk niet de laatste keer zijn dat criminelen deepfake-achtige technologie inzetten. “De enige manier om het hoofd te bieden aan dergelijke praktijken is een procedure opmaken en er zich aan houden. Van zodra iets afwijkt van de reguliere procedure moeten alle alarmbellen afgaan.” 

Meer over

Nu belangrijker dan ooit: steun kwaliteitsjournalistiek.

Neem een abonnement op De Morgen


Op alle artikelen, foto's en video's op demorgen.be rust auteursrecht. Deeplinken kan, maar dan zonder dat onze content in een nieuw frame op uw website verschijnt. Graag enkel de titel van onze website en de titel van het artikel vermelden in de link. Indien u teksten, foto's of video's op een andere manier wenst over te nemen, mail dan naar info@demorgen.be.
DPG Media nv – Mediaplein 1, 2018 Antwerpen – RPR Antwerpen nr. 0432.306.234