Een CFO van een Hongkongs bedrijf werd voor €23 miljoen opgelicht. Criminelen gebruikten een deepfake-videocall van de CEO om hem te overtuigen het geld over te maken. Het is geen sciencefiction — het gebeurde in 2024 en is inmiddels gemeengoed als aanvalstechniek. AI heeft fraude democratiseert: technieken die voorheen gesofisticeerde actoren vereisten, zijn nu beschikbaar voor iedereen met een laptop en een vrije middag.

CEO-Fraude 2.0: Deepfake Stemmen en Video

De klassieke CEO-fraude — een e-mail die zogenaamd van de directeur komt met het verzoek snel geld over te maken — wordt steeds vaker aangevuld of vervangen door audiofraude. Een vijf seconden durende stemopname van een publieke toespraak is voldoende om met beschikbare tools een overtuigende imitatie te genereren. Medewerkers die een telefoontje 'van de CEO' krijgen met een urgent betalingsverzoek, kunnen dit niet langer betrouwbaar herkennen als nep op basis van de stem alleen.

Identiteitsfraude op Schaal

Naast gerichte aanvallen op bedrijven zijn er grootschalige aanvallen op particulieren. AI-gegenereerde foto's en video's worden gebruikt om nepprofielen op datingplatforms en sociale media te bouwen die niet te onderscheiden zijn van echte mensen. Voor oplichting (romance scams), reputatieschade en desinformatiecampagnes zijn realistische AI-identiteiten inmiddels standaardgereedschap. De technologie om dit te detecteren loopt achter op de technologie om het te produceren.

Hoe je Jezelf en je Organisatie Beschermt

Verificatieprotocollen zijn de eerste verdedigingslinie. Voor financiële transacties op verzoek van management: altijd terugbellen op een bekend nummer, nooit het nummer dat in het verzoek staat. Voor videocalls waarbij identiteit cruciaal is: gebruik een gedeeld codewoord of stel een onverwachte controlevraag. Technisch zijn watermarking-tools voor AI-gegenereerde content in opkomst, maar adoptie is nog beperkt. Bewustwording blijft de meest effectieve maatregel.