Cybercriminelen zijn altijd op zoek naar nieuwe methoden om toegang te krijgen tot fondsen en kritieke informatie. Dat komt grotendeels doordat organisaties de phishing-schema’s en geniepige ransomware-aanvallen uit het verleden hebben doorzien en tools hebben geïmplementeerd en medewerkers hebben opgeleid om cyberdieven op afstand te houden.Maar met de snelle evolutie van kunstmatige intelligentie, vooral generatieve AI, en de vraag van het publiek naar eenvoudige toegang tot de nieuwe technologie, is cybercriminaliteit klaar om een grote sprong voorwaarts te maken.
Deepfakes – video’s, foto’s of audio die met AI zijn gemaakt om echt te lijken – zijn de nieuwste wapens in het arsenaal van cybercriminelen. Het gebruik van deepfakes voor het plegen van cybercriminaliteit is opvallend toegenomen en het enige dat de vooruitgang afremt, is de verfijning, expertise en inspanning die nodig is om de technologie effectief te gebruiken.
Waarom zijn deepfakes zo effectief?
Deepfakes, zoals we ze nu kennen, zijn video’s, afbeeldingen of audio die met behulp van kunstmatige intelligentie zo zijn gemaakt dat ze er realistisch uitzien. In bredere zin bestaat deepfake-technologie al tientallen jaren. Vroege films manipuleerden beelden lang voordat computers en AI beschikbaar waren. En valse geluidsopnames zijn eenvoudig te maken met of zonder gebruik van moderne technologie – een goede imitator van een beroemdheid kan net zo effectief zijn.
Deepfake-technologie wordt veel gebruikt in de politiek. Officiële campagnes vermijden meestal het gebruik van dergelijke tactieken, maar het is bekend dat aanhangers van een kandidaat onflatteuze en realistische beelden van politieke tegenstanders maken om te delen op sociale media.
De technologie heeft een aantal legitieme toepassingen, vooral in de filmwereld. De film “Forrest Gump” had niet gemaakt kunnen worden zonder de vermenging van het hoofdpersonage van Tom Hanks met historische beelden. Meer recentelijk werd AI-technologie met een fascinerend en realistisch effect gebruikt in de Netflix-documentaire “Dirty Pop” over boybandimpresario Lou Pearlman. De producenten combineerden dialogen uit Pearlmans memoires met een video van hem terwijl hij voor de camera sprak en een “mondacteur” die zijn lippen bewoog om de woorden te laten passen en wat AI-effecten om het allemaal samen te brengen.
Als het programma de kijkers niet van tevoren had gewaarschuwd dat het AI-gegenereerde trucs gebruikte om Pearlman een verteller van zijn eigen documentaire te maken, zou het moeilijk zijn om dat te zien.
Effectief middel
Deepfakes kunnen een effectief middel zijn voor cybercriminaliteit vanwege social engineering, het psychologisch manipuleren van mensen om acties uit te voeren of vertrouwelijke informatie prijs te geven, zoals wachtwoorden of toegang tot financiële rekeningen. Social engineering is vaak een van de vele stappen in een complexer fraudeschema.
Als je wel eens een realistisch ogende e-mail hebt ontvangen die van je bank of kabelmaatschappij lijkt te komen, maar eigenlijk van een onbekend e-mailaccount is, dan is dat oplichting waarbij gebruik wordt gemaakt van het concept van social engineering. Deepfakes zijn vergelijkbaar met nepmails, maar dan op een nieuw, geavanceerder niveau.
De meeste cyberaanvallen die gebruikmaken van social engineering-technieken spelen in op de emoties van het slachtoffer en creëren een gevoel van urgentie, omdat de cybercriminelen het slachtoffer in een emotionele toestand willen brengen en hen snel een beslissing willen laten nemen voordat ze tijd hebben om er kritisch over na te denken.
Deepfake detectie en bescherming
Zo snel als de deepfake-technologie is geëvolueerd, zo snel zijn ook de methoden geëvolueerd om te detecteren wanneer een afbeelding, video of audiobestand een door AI gegenereerde vervalsing is. Er zijn verschillende softwaretools beschikbaar die kunnen helpen bij het detecteren van een nepvideo. Het is alsof je AI ten goede gebruikt tegen degenen die het zouden gebruiken om misdaden te plegen.
In plaats van AI al het detectivewerk te laten doen, kunnen mensen die goed getraind zijn in het herkennen van deepfakes de waarheid aan het licht brengen door simpelweg de kwaliteit en consistentie van de video of afbeelding te analyseren. Vervormingen, onscherpte en kleuren of objecten die niet bij elkaar passen kunnen argwaan wekken. Let ook op ongewoon gedrag van de sprekers in de video, zoals onhandige bewegingen, onnatuurlijke houdingen en lipbewegingen die niet synchroon lopen met de woorden die je hoort. Ten slotte is het belangrijk om de bron en de herkomst van de video of afbeelding te verifiëren.
Maar naarmate de technologie toegankelijker en gebruiksvriendelijker wordt, zullen deepfakes waarschijnlijk een grote rol gaan spelen in de toekomst van cybercriminaliteit. Om deze opkomende dreiging te bestrijden, moeten we de criminelen een stap voor blijven door het gebruik van technologie en strikte protocollen om de toegang tot fondsen of kritieke informatie te blokkeren en, het allerbelangrijkste, door werknemers voor te lichten over hoe ze een deepfake kunnen herkennen.
Het gebruik van deepfakes om cybercriminaliteit te plegen neemt toe, ook al ontbreekt het de meeste criminelen momenteel aan de verfijning en expertise om de technologie effectief te gebruiken. Maar naarmate kunstmatige intelligentie evolueert en gebruiksvriendelijker wordt, zullen deepfakes waarschijnlijk een grotere rol gaan spelen in cybercriminaliteit.
Deepfake detectie en bescherming
Zo snel als de deepfake-technologie is geëvolueerd, zo snel zijn ook de methoden geëvolueerd om te detecteren wanneer een afbeelding, video of audiobestand een door AI gegenereerde vervalsing is. Er zijn verschillende softwaretools beschikbaar die kunnen helpen bij het detecteren van een nepvideo. Het is alsof je AI ten goede gebruikt tegen degenen die het zouden gebruiken om misdaden te plegen.
In plaats van AI al het detectivewerk te laten doen, kunnen mensen die goed getraind zijn in het herkennen van deepfakes de waarheid aan het licht brengen door simpelweg de kwaliteit en consistentie van de video of afbeelding te analyseren. Vervormingen, onscherpte en kleuren of objecten die niet bij elkaar passen kunnen argwaan wekken. Let ook op ongewoon gedrag van de sprekers in de video, zoals onhandige bewegingen, onnatuurlijke houdingen en lipbewegingen die niet synchroon lopen met de woorden die je hoort. Tot slot is het belangrijk om de bron en de herkomst van de video of afbeelding te verifiëren.
Beschermingstips
- Om organisaties te beschermen tegen deepfake cyberbedreigingen, moeten bedrijven dezelfde beproefde cyberbeveiligingsprotocollen blijven volgen al worden gebruikt. Deepfakes zijn op zichzelf geen bedreiging voor de beveiliging, maar ze kunnen een middel zijn voor snode types om langs de beveiligingsprotocollen te komen. Deepfakes zijn dus eigenlijk een variatie op een bestaande bedreiging die het moeilijker kan maken om social engineering scams te detecteren.
- Het menselijke element blijft een van de grootste gevaren voor organisaties als het gaat om cyberbeveiliging.
- Organisaties moeten gebruik blijven maken van multifactorauthenticatie (MFA), een elektronische authenticatiemethode waarbij een gebruiker pas toegang krijgt tot een website of applicatie nadat hij met succes twee of meer bewijsstukken heeft voorgelegd aan een authenticatiemechanisme. Denk aan het aanmelden bij een website met een login, een wachtwoord en tot slot een 6-cijferige code die als sms naar je smartphone is gestuurd. Naarmate er nieuwe bedreigingen aan de horizon verschijnen, zoals deepfakes, moeten organisaties de cybertrainingen van hun werknemers voortdurend herzien en bijwerken.
- Deepfakes vereisen een niveau van verfijning, training en inspanning dat de meeste cybercriminelen nog niet onder de knie hebben, maar ze vormen een reëel en opkomend risico. Werknemers moeten nu worden getraind in het herkennen van een deepfake-bedreiging en het beschermen van kritieke informatie tegen cybercriminelen.
- Vervormingen, wazigheid en niet bij elkaar passende kleuren of objecten kunnen argwaan wekken. Let ook op ongewoon gedrag van de sprekers in de video, zoals onhandige bewegingen, onnatuurlijke houdingen en lipbewegingen die niet synchroon lopen met de woorden die worden gehoord.