Cybercriminelen gebruiken stem van familielid in oplichting
Cybercriminelen gebruiken stem van vriend of familielid in oplichting
Cybercriminaliteit
Gina Doekhie
Cybercriminaliteit
08/02/2024
7 min
0

Voicecloning: Cybercriminelen gebruiken stem van vriend of familielid in oplichting

08/02/2024
7 min
0

Online oplichting zal door de komst van Artificial Intelligence (AI)-technieken, zoals voice-cloning en deepfakes, steeds geavanceerder worden. Stemklonen, of voice cloning, is een techniek waarbij software wordt gebruikt om de stem van een persoon te kopiëren, te imiteren of te klonen.

Oplichters hebben deze technologie omarmd als een nieuw instrument voor hun duistere doeleinden. Ze nemen gesprekken op en gebruiken die opnames om de stem van een familielid of vriend te klonen. Daarna nemen ze contact op met hun slachtoffer, meestal iemand die de gekloonde stem herkent en vertrouwt, en proberen ze hem te overtuigen om geld over te maken of vertrouwelijke informatie te delen.

Hoe eng is dat?! Je denkt dat het misschien iets is wat je alleen in films ziet, maar deze technologie bestaat en gaat steeds vaker gebruikt worden door kwaadwillende! Dit nieuwe gevaar vereist een nieuwe aanpak van bescherming. In deze blog bespreek ik de gevaren van voice-cloning en hoe je jezelf hiertegen kan beschermen!

Voice-cloning

Deze techniek bestaat al lang en maakt het mogelijk om iemands stem na te bootsen met behulp van Artificial Intelligence (AI) – oftewel kunstmatige intelligentie technieken. Een bepaald AI-algoritme kan alle eigenschappen van de stem van die persoon ontleden, en zo gebruiken om dingen te zeggen die de persoon zelf nooit heeft gezegd. Deze techniek wordt legitiem gebruik in de filmindustrie in bijvoorbeeld animatiefilms, of om een doof persoon een stem te geven.

Maar door de snelle technologische ontwikkelingen komen deze technieken steeds vaker bij de “gewone” gebruiker terecht en niet alleen maar bij de grote professionele bedrijven die grote ontwikkelteams hierop hebben zitten. Dat betekent dat ook kwaadwillende hier sneller toegang tot gaan hebben in de toekomst. Met slechts een paar minuten aan audio opnames van een persoon kan een AI-algoritme een nauwkeurige replica van de stem van die persoon maken, compleet met nuances en intonaties.

Hoe herken je een voice-clone?

Welke vormen van cybercrime?

Voice-cloning kan in verschillende vormen van cybercrime worden gebruikt:

Vriend-in-noodfraude

Cybercriminelen kunnen door de stem van een vriend of familielid te klonen zich nog realistischer voordoen als iemand die jij vertrouwt. Deze type fraude wordt vriend-in-nood fraude genoemd en komt vaak voor via het platform Whatsapp. Een cybercrimineel doet zich voor als vriend of familielid en appt jou met een spoedvraag: “Pap, mijn telefoon is in de toilet gevallen en ik heb zo spoedig mogelijk een nieuwe nodig! Kan je geld overmaken?”.

Maar door de opkomst van voice-cloning zal dat niet alleen maar gebeuren via een Whatsapp-tekstberichtje, maar kan ook de stem worden gebruikt van jouw zus, broer, kind of partner om jou te overtuigen zo snel mogelijk geld over te maken! Bijvoorbeeld door een spraakmemo te sturen of zelfs te bellen met de gekloonde stem. Dus stel je voor dat je niet alleen een appje van je zoon of dochter krijgt, maar dat deze jou ook opbelt en je dezelfde stem hoort als van jouw zoon of dochter die in paniek is. Dan zullen veel ouders snel reageren om geld over te maken.

CEO-fraude

Stel je voor dat jouw baas jou vraagt om zo snel mogelijk een factuur te betalen in verband met een overname. Dit gebeurde bijvoorbeeld bij Pathé, waarbij Nederlandse directeuren 19 miljoen overmaakte aan cybercriminelen die zich voordeden als de directeuren van het Franse hoofdkantoor. Dit is een oud voorbeeld, namelijk van 2019, maar komt nu nog steeds vaak voor bij bedrijven! Vaak is een financiële medewerker het doelwit en de cybercrimineel doet zich voor als een leidinggevende of een CEO. Vandaar de naam CEO-fraude.

Vaak wordt gevraagd om een openstaande factuur te betalen, waarbij het bankrekeningnummer wordt gewijzigd naar die van het cybercrimineelnetwerk. Maar soms wordt ook gevraagd om giftcards te bestellen, voor bijvoorbeeld de medewerkers, maar giftcards zijn makkelijker te besteden door cybercriminelen. Met nieuwe AI-technieken is het mogelijk om daadwerkelijk de stem van de CEO of leidinggevende te klonen en gebruiken. CEO-fraude gaat vaak per e-mail, maar stel je voor dat de CEO jou in paniek opbelt en deze noodvraag stelt. Door voice-cloning, wordt de cybercrimineel heel geloofwaardig.

En nog meer… eigenlijk in alle type cybercrime oplichtingen kan voice-cloning gebruikt worden om jou nog meer te overtuigen om een handeling te laten verrichten. Bijvoorbeeld in phishing kan door middel van een bekende stem, een cybercrimineel jou laten manipuleren om op het phishing-linkje te klikken.

Voorbeelden uit de praktijk

Cybercriminelen maakten eind 2023 gebruik van de stem van de Bunq-topman Ali Niknam om geld af te troggelen van zijn medewerkers. Deze poging mislukte, maar wel een voorbeeld dat het ook in Nederland voorkomt. Namelijk in Engelstalige landen komt deze vorm van fraude vaker voor, omdat AI-taalmodellen die voice-cloning mogelijk maken veel beter zijn in het Engels dan in het Nederlands. Dit komt doordat deze AI-taalmodellen veelal worden getraind in het Engels en er meer data beschikbaar is in het Engels om mee te trainen.

Ook kennen we de vorm dat de stem van bekende personen worden gekloond, om bijvoorbeeld te investeren in cryptomunten. Dit klinkt vaak realistisch, omdat er veel geluidsmateriaal aanwezig is van bekende personen om een taalmodel te trainen zodat deze stem gekloond kan worden.

Een ander voorbeeld speelt zich af in Hongkong, waarbij een bekende multinational voor 23,6 miljoen euro is opgelicht nadat een medewerker dacht dat hij een financiële opdracht had gekregen van zijn baas. Maar in werkelijkheid ging het om een cybercrimineel.

Hoe herken je een voice-clone?

Het is moeilijk om een voice-clone te herkennen als goede technieken zijn gebruikt. Maar je zou een echte stem van een neppe stem kunnen onderscheiden door te letten op:

  • emoties in een stem; het is nog moeilijk om voor AI-algoritmes emoties in een stem door te laten klinken. Voor een mens is dit heel natuurlijk.
  • robot-achtige stem; luister of de stem hapert, of dat zinnen niet goed in elkaar overlopen.
  • vraag-en-antwoord; reageert de stem op jou, stel bijvoorbeeld vragen of als jij een schrikreactie hebt, let dan op of de stem op jou reageert. Dat is nog erg moeilijk voor een AI-algoritme om live te reageren op jouw stem en intonatie. Meestal is de stem vooraf geprogrammeerd om een bepaalde situatie na te bootsen.
  • spoedvraag; wordt er een heel dringend om een verzoek gevraagd om geld over te maken, let dan sowieso goed op! Waarom kan je het geld niet overmaken naar het bankrekeningnummer van je zoon of dochter die je kent? Vaak krijg je een ander rekeningnummer toegestuurd of een tikkie-link, wees waakzaam als dit gebeurt.

Hoe wapen je jezelf tegen voice-cloning gebruikt in online oplichting?

Naast jezelf te leren om voice-cloning te leren herkennen, is het raadzaam om een codewoord af te spreken met jou naasten. Een codewoord, die jij en jouw familie/vrienden alleen kennen. Zorg dat het codewoord niemand anders kent, dat je het goed kan onthouden en dat het geen informatie is die je via het internet kan opzoeken.

🟩 Codewoord checklist 🟩

Ik heb de codewoord checklist ontwikkelt om je je hierbij te helpen.

Dit is wat je ontdekt met de Codewoord Checklist.

  • Ontdek hoe een simpel codewoord je beschermt tegen cybercriminele
  • Ontdek aan welke voorwaarden een goed codewoord voldoet.
  • Bescherm jezelf en de mensen om je heen met deze simpele maar krachtige maatregel.
  • Ontdek hoe je bij onverwachte verzoeken via whatsapp of sms voorkomt dat oplichters je geld aftroggelen.

Inspelen op jouw emoties

Als cybercriminelen voice-cloning gebruiken, proberen ze op jouw emoties in te spelen en zullen ze naast de stem van een familielid/vriend ook achtergrondgeluiden gebruiken. Bijvoorbeeld dat jouw zoon of dochter op een feestje is of in de trein, en dat hij/zij op jouw vragen geen antwoord kunnen geven of jou niet verstaan. Wees daar alert op, zeg dat je het niet vertrouwd, hang op en bel vrienden en familie van jouw zoon of dochter die op dat moment in nood schijnt te zijn. Om te verifiëren of dit daadwerkelijk zo is.

We moeten een cultuur en omgeving creëren waarin we digitaal sceptisch mogen zijn, niet naïef en zelfs een beetje paranoia. Omdat alles gemanipuleerd kan worden en niet echt. Het is niet onbeschoft als je controlevragen stelt of ophangt als je het niet vertrouwd. We zijn ook beleefd en cybercriminelen spelen in op die beleefdheid of angst. Maar wees niet bang, om even op adem te komen en om na te denken. Geen enkele instantie of vriend of familielid zal op zo een manier om geld vragen die direct nodig is. Meestal kan het wel wachten, zodat jij kan nadenken en een plan bedenken om te verifiëren of het klopt en om dan verantwoord het geld over te maken zodat je zeker weet dat de juiste persoon dit ontvangt.

Andere AI-technieken die gebruikt kunnen worden door cybercriminelen

Een andere opkomende techniek in AI die al gebruik wordt door cybercriminelen is het maken van deepfakes. Ik schrijf hier een apart blog over (verwijzing blog), maar je kan je voorstellen dat als de CEO jou in levenden lijve via videobellen vraagt om een betaling over te maken, het slachtoffer misschien daar wel gehoor aan zal geven. Dit is alleen niet de CEO zelf maar een gekloonde video van hem/haar. Maar denk ook aan ChatGPT, de chatbot waarbij een cybercrimineel perfect geschreven phishing e-mails kan schrijven in talen die hij/zij niet eens machtig is.

Andere AI-technieken zijn social bots inzetten om bijvoorbeeld nepprofielen aan te maken van mensen die niet bestaan met AI-technieken zoals: thispersondoesnotexist.com. Dit zijn plaatjes van mensen gegenereerd door AI die niet bestaan. Met deze foto’s worden sociale nepprofielen aangemaakt door cybercriminelen, zodat ze bijvoorbeeld geloofwaardig overkomen tijdens een scam. Of proberen ze op social media invloed uit te oefenen op verkiezingscampagnes.

Conclusie

Een wat langere blog, maar zeker relevant omdat dit een realistische dreiging is voor de nabije toekomst. Dit gaat gebeuren en door voice-cloning zal er een nieuwe dimensie worden toegevoegd aan de fraude en oplichting die we nu kennen. Wees voorbereid en neem maatregelen om jezelf en jouw naasten te beschermen, want ook jouw stem kan gekloond worden om jouw zoon of dochter of partner op te lichten.

Reacties