Kaspersky onthult in een nieuw rapport de diepgaande invloed van AI op het cybersecuritylandschap in 2023. De analyse verkent de implicaties van AI, waarbij de nadruk ligt op het gebruik door regelgevers en partijen die zich verdedigen tegen cybercriminelen. Afzonderlijk wordt gekeken naar de potentiële exploitatie van AI door cybercriminelen. Dit uitgebreide onderzoek – onderdeel van Kaspersky Security Bulletin (KSB) – is een jaarlijkse compilatie van voorspellingen en rapporten die belangrijke verschuivingen op het dynamische gebied van cybersecurity belichten. |
Te midden van de snelle technologische
vooruitgang en maatschappelijke verschuivingen heeft de term ’AI’ zich stevig
gepositioneerd. Met de toenemende verspreiding van grote taalmodellen (LLM’s)
is er door de toename van beveiligings- en privacyzorgen een direct verband
tussen AI en cybersecurity. Het rapport laat zien hoe AI-tools
cybercriminelen hebben geholpen bij hun kwaadaardige activiteiten in 2023,
terwijl het ook de potentiële defensieve toepassingen van deze technologie
laat zien. Daarnaast wordt ook een blik geworpen op het ontwikkelende
landschap van AI-gerelateerde bedreigingen, die in de toekomst zouden kunnen
bestaan uit:
Complexere kwetsbaarheden
Naarmate instructie-volgende
LLM’s in meer consumentenproducten worden geïntegreerd, zullen er nieuwe
complexe kwetsbaarheden ontstaan op het snijvlak van probabilistische
generatieve AI en traditionele deterministische technologieën. Hierdoor zal
het aanvalsoppervlak dat cybersecurityprofessionals moeten beveiligen groter
worden. Ontwikkelaars zullen vervolges nieuwe beveiligingsmaatregelen moeten
bestuderen, zoals goedkeuring van de gebruiker voor acties die worden
geïnitieerd door LLM-agenten.
Een uitgebreide AI-assistent
voor cybersecurityspecialisten
Red teamers en onderzoekers maken
gebruik van generatieve AI voor innovatieve cybersecuritytools, wat mogelijk
leidt tot een assistent die gebruikmaakt van LLM of machine learning (ML).
Deze tool zou red teaming-taken kunnen automatiseren en begeleiding kunnen
bieden op basis van uitgevoerde opdrachten in een pentesting-omgeving.
Neurale netwerken zullen steeds
vaker worden gebruikt om visuals voor scams te genereren
In het komende jaar kunnen
scammers hun tactieken uitbreiden door gebruik te maken van neurale netwerken
en AI-tools om overtuigendere frauduleuze content te creëren. Doordat het
mogelijk wordt om moeiteloos geloofwaardige afbeeldingen en video’s te genereren,
vormen kwaadwillende actoren een verhoogd risico op escalatie van
cyberbedreigingen met betrekking tot fraude en oplichting.
AI zal geen drijvende kracht
worden voor baanbrekende veranderingen in het dreigingslandschap in 2024
Ondanks de bovenstaande trends
blijven Kaspersky-experts sceptisch over het feit dat AI het
dreigingslandschap op korte termijn ingrijpend zal veranderen. Terwijl
cybercriminelen generatieve AI toepassen, geldt hetzelfde voor partijen die
zich verdedigen tegen deze criminelen. Zij zullen dezelfde of zelfs
geavanceerdere tools gebruiken om de beveiliging van software en netwerken te
testen, waardoor het onwaarschijnlijk is dat het aanvalslandschap drastisch
zal veranderen.
Meer AI-gerelateerde
regelgevingsinitiatieven, met bijdrage van de private sector
Naarmate de snelgroeiende technologie
zich verder ontwikkelt, is het ook een kwestie van beleid en regelgeving
geworden. Het aantal AI-gerelateerde regelgevende initiatieven zal toenemen.
Niet-overheidspartijen, zoals technologiebedrijven, kunnen gezien hun
expertise in het ontwikkelen en gebruiken van kunstmatige intelligentie
waardevolle inzichten leveren voor discussies over AI-regulering op zowel
mondiale als nationale platformen.
Watermerk voor AI-gegenereerde
inhoud
Er zal meer regelgeving en
beleid van dienstverleners nodig zijn om synthetische content (content
gemaakt op basis van AI) te markeren of te identificeren. Ontwikkelaars en
onderzoekers zullen op hun beurt bijdragen aan methoden om synthetische media
van een watermerk te voorzien, zodat ze gemakkelijker geïdentificeerd en
bewezen kunnen worden.
“Kunstmatige intelligentie
in cybersecurity is een tweesnijdend zwaard. Het adaptieve vermogen versterkt
onze verdediging en biedt een proactief schild tegen ontwikkelende
bedreigingen. Dezelfde dynamiek brengt echter ook risico’s met zich mee, omdat
aanvallers AI gebruiken om geavanceerdere aanvallen uit te voeren. Het juiste
evenwicht vinden, zorgen voor verantwoord gebruik zonder gevoelige gegevens
te veel te delen, is van het grootste belang bij het beveiligen van onze
digitale grenzen,” zegt Vladislav Tushkanov, security-expert bij
Kaspersky.
Ga voor meer informatie over AI
in cyberbeveiliging naar Securelist.com.
Dit rapport is onderdeel van
Kaspersky Security Bulletin (KSB) – een jaarlijkse serie voorspellingen en
analytische rapporten over belangrijke verschuivingen binnen de
cyberbeveiligingswereld. Meer informatie over andere KSB-stukken vind je hier.
### Over Kaspersky Kaspersky, opgericht in 1997, is wereldwijd actief op het gebied van cybersecurity en digital privacy. Kaspersky’s threat intelligence en security-expertise worden voortdurend omgezet in innovatieve security-oplossingen en -diensten om bedrijven, kritieke infrastructuren, overheden en consumenten van over de hele wereld te beschermen. Het uitgebreide securityportfolio van het bedrijf omvat toonaangevende endpoint security en een aantal gespecialiseerde security-oplossingen en -diensten om geavanceerde digitale bedreigingen te bestrijden. Meer dan 400 miljoen gebruikers en 240.000 zakelijke gebruikers worden beschermd door technologieën van Kaspersky. Kijk voor meer informatie op www.kaspersky.nl. |