Generatieve Artificiële Intelligentie (AI) is een snel opkomend fenomeen. Deze vorm van AI kan niet alleen unieke teksten, maar ook bijvoorbeeld afbeeldingen en muziek genereren. Ook cybercriminelen verkennen de mogelijkheden van de technologie.
Uit onderzoek blijkt dat generatieve AI al gebruikt is bij verschillende vormen van cyberaanvallen. Eind 2022 veroverde de tool ChatGPT in korte tijd het internet met teksten die bijna niet te onderscheiden zijn van teksten geschreven door mensen. Cybercriminelen maken gebruik van de kans om hun werkwijze te optimaliseren. Zo hebben minder bekwame hackers via de onderliggende taalmodellen, ‘large language models’ (LLM), toegang tot een schatkamer aan programmeercodes.
Ook wordt het door de opkomst van LLM’s voor cybercriminelen steeds makkelijker om phishing-berichten op te stellen zonder spellings- en grammaticafouten. Uit recent onderzoek van Darktrace blijkt dat de taalkundige complexiteit van phishing-mails sinds de lancering van ChatGPT met 17 procent is toegenomen. Tegelijkertijd richten cybercriminelen zich steeds meer op zogenoemde spearphishing-berichten. Dit soort berichten zijn doorgaans goed geschreven en specifiek gericht op een individu, zoals een hooggeplaatste medewerker binnen een organisatie.
Biometrische veiligheidssystemen omzeilen
Het genereren van videobeelden en stemgeluid is een van de meest opwindende toepassingen van generatieve AI, maar tegelijkertijd een ontwikkeling die velen zorgen baart. Zo kunnen cybercriminelen met ‘deepfakes’ de biometrische veiligheidssystemen van apparaten en diensten omzeilen. Zulke systemen maken gebruik van unieke fysieke kenmerken om een individu te identificeren. Denk bijvoorbeeld aan een vingerafdruk of gezicht waarmee een telefoon kan worden ontgrendeld.
Onlangs wist een journalist toegang te krijgen tot de saldo- en transactie-informatie van zijn bankrekening door een AI-versie van zijn stem te gebruiken (een gekloonde stem). Onderzoekers van de PennState University trokken de conclusie dat niet alle biometrische oplossingen zijn opgewassen tegen de huidige deepfake-technologie.
Beluister ook de podcast ‘Generatieve AI: Het verschil tussen echt en nep’
Bedrijven zien generatieve AI niet als bedreiging
Echt gealarmeerd over deze ontwikkeling zijn de bedrijven overigens niet. Onderzoek van ABN AMRO wijst uit dat een derde van de bevraagde bedrijven (29) procent, vernieuwingen op het gebied van generatieve AI niet als bedreiging ziet voor de cyberveiligheid van de organisatie.
Lees hier het rapport 'Mkb isoleert zich door beperkt bewustzijn cyberdreiging'.