PwC: Deepfake-technologie raakt steeds meer organisaties; Grote zorgen om imitatiefraude

Imitatiefraude neemt toe. Criminelen gebruiken steeds geavanceerdere technieken, zoals deepfakes, om medewerkers te misleiden en financiële schade aan te richten. Ook in Nederland groeit deze vorm van fraude, waarbij aanvallers zich voordoen als leidinggevenden om interne processen te manipuleren. Door deepfake-technologie worden deze aanvallen overtuigender en moeilijker te herkennen, schrijft PwC op haar website.

De maatschappelijke bezorgdheid neemt toe. De Tweede Kamer onderzoekt momenteel juridische maatregelen tegen misbruik van deepfakes. Geïnspireerd door Denemarken hebben verschillende politieke partijen voorgesteld om individuen auteursrecht te geven op hun eigen uiterlijk en stem, waardoor preventie van fraude en identiteitsmisbruik kan worden vergemakkelijkt.

Volgens PwC’s Global Economic Crime Survey 2024 is cybercriminaliteit—waaronder imitatie via deepfakes—nu de meest gemelde vorm van fraude in Europa. Uit de Global Digital Trust Insights 2025 blijkt bovendien dat 67% van de Europese security experts aangeeft dat generatieve AI en cloudtechnologieën het digitale aanvalsoppervlak hebben vergroot.

Voorbeelden van imitatiefraude

Imitatiefraude volgt vaak via een gelaagde aanpak, waarbij verschillende technieken worden gecombineerd om medewerkers te misleiden en beveiligingsmaatregelen te omzeilen. Dit zijn een aantal veelvoorkomende voorbeelden op een rij:

  • Phishing: e-mails die lijken te komen van vertrouwde collega’s of organisaties, en ontvangers aanzetten tot het delen van vertrouwelijke informatie.
  • Business Email Compromise (BEC): gerichte e-mailaanvallen waarbij leidinggevenden of medewerkers worden geïmiteerd om interne stakeholders te misleiden.
  • Deepfakes: door AI gegenereerde audio of video die overtuigend de stem of het uiterlijk van een leidinggevende nabootst, vaak gebruikt om medewerkers te overtuigen—vooral als ze de persoon niet goed kennen.

Deze methoden worden vaak gecombineerd. Een fraudeur kan bijvoorbeeld eerst contact opnemen via WhatsApp of een phishingmail, daarna volgt een deepfake videogesprek. Deze gelaagde strategie creëert een zeer overtuigend scenario, waardoor het steeds moeilijker wordt om echt van nep te onderscheiden.

Wat te doen bij een incident

Tijd is cruciaal bij imitatiefraude. Een snelle en gestructureerde reactie kan de impact aanzienlijk beperken en het herstel ondersteunen. Organisaties moeten daarom:

  • Direct reageren: isoleer het incident en voorkom verdere schade.
  • Onderzoek en analyse: beoordeel de impact en start een forensisch onderzoek.
  • Herstel en juridische stappen: volg het geldspoor en onderzoek juridische en verzekeringsopties.
  • Herstelmaatregelen: versterk processen, herstel systemen en train medewerkers.

Weerbaarheid opbouwen vóór een aanval

Echte cyberweerbaarheid begint ruim vóór een incident. Door proactieve stappen te nemen, kunnen organisaties risico’s verkleinen, verdediging versterken en zich beter voorbereiden op mogelijke fraude:

  • Risicobeoordeling: identificeer kwetsbaarheden en sectorspecifieke dreigingen.
  • Cyberparaatheid: stel duidelijke incidentprocedures op en voer crisissimulaties uit.
  • Bewustwordingstraining: informeer medewerkers over deepfakes en verdachte signalen.

PwC’s visie: Navigeren in de toekomst van AI en deepfakes

Hoewel deepfakes momenteel serieuze risico’s vormen, gelooft PwC dat dezelfde technologie ook deel kan uitmaken van de oplossing. Onze visie op AI is gebaseerd op vier kernprincipes:

  • Van risico naar strategische waarde: AI is niet alleen een bedreiging—het is een motor voor innovatie. Organisaties die AI verantwoord inzetten, kunnen efficiëntie verhogen, besluitvorming verbeteren en klantbeleving versterken.
  • Detectie via AI: nieuwe technologieën worden ontwikkeld om deepfakes in realtime te detecteren. PwC helpt bij het evalueren en implementeren van AI-tools die authenticiteit verifiëren via biometrie, metadata en gedragsanalyse.
  • Governance en ethiek: naarmate de impact van AI groeit, neemt ook de behoefte aan regelgeving toe. We verwachten meer juridische kaders rond digitale identiteit en AI-gebruik. Organisaties moeten zich voorbereiden op transparantie, verantwoording en ethische inzet.
  • Mensen blijven centraal staan: technologie alleen is niet genoeg. Cyberweerbaarheid vereist een sterke focus op bewustwording, gedrag en cultuur van medewerkers.

Download de whitepaper voor meer informatie.

Het nieuwe gezicht van fraude: bestrijden van impersonatie en deepfake-dreigingen

Download