Traditionele phishingmails waren relatief eenvoudig te herkennen. Vreemde afzenders, gekke taalfouten en onlogische verzoeken maakten het voor alerte medewerkers mogelijk om verdachte berichten te identificeren. Die tijd is voorbij. Met behulp van large language models kunnen aanvallers nu berichten genereren die qua taal, toon en context nauwelijks te onderscheiden zijn van legitieme communicatie.
Sterker nog, AI maakt het mogelijk om phishing te personaliseren. Door openbaar beschikbare informatie van bedrijfswebsites, LinkedIn of andere sociale media te gebruiken, kunnen aanvallers berichten opstellen die perfect aansluiten bij de functie, de organisatie en zelfs recente activiteiten van het doelwit. Deze werkwijze wordt spear phishing genoemd; het is bijzonder effectief.
Een van de meest verontrustende ontwikkelingen is de opkomst van deepfakes in cybercriminaliteit. Met AI-gegenereerde video en audio kunnen criminelen zich voordoen als een directeur, een collega of een zakenpartner. Internationaal zijn al gevallen bekend waarbij medewerkers miljoenen overmaakten na een videocall met een deepfake van hun CEO. Het gebruik van deepfakes bij fraude is de afgelopen drie jaar met meer dan tweeduizend procent gestegen.
Voor MKB-bedrijven is dit risico bijzonder relevant. Juist in kleinere organisaties, waar lijnen kort zijn en verzoeken van de directeur snel worden opgepakt, is de kans groter dat een overtuigende deepfake niet wordt herkend. Daar komt bij dat de technologie om deepfakes te maken steeds toegankelijker wordt.
Cybersecurity-onderzoekers verwachten dat 2026 het jaar wordt waarin AI-systemen steeds zelfstandiger cyberaanvallen uitvoeren. Dat betekent dat aanvallen niet alleen slimmer worden, maar ook sneller. AI kan kwetsbaarheden opsporen, exploits (toegangspoorten) ontwikkelen en zich door netwerken bewegen zonder dat daar continue menselijke aansturing voor nodig is. De snelheid waarmee dit gebeurt maakt het voor traditionele beveiligingsmaatregelen steeds lastiger om bij te houden.
Het is verleidelijk om te denken dat de oplossing voor AI-gedreven aanvallen ook in technologie ligt. Betere filters, slimmere detectie, geavanceerdere firewalls. Die maatregelen zijn belangrijk, maar niet voldoende. Juist omdat AI-aanvallen zich richten op menselijk gedrag, is bewustwording van medewerkers crucialer dan ooit.
Onderzoek laat zien dat meer dan 68 procent van alle datalekken wordt veroorzaakt door menselijke fouten. Dus niet door het ontbreken van techniek, maar door onoplettendheid, werkdruk of onvoldoende herkenning van verdachte signalen. Wanneer aanvallen door AI steeds overtuigender worden, neemt dat risico alleen maar toe. Bij Securide combineren we daarom technische maatregelen met gerichte bewustwording. Met onze CyberAwareness programma's trainen we medewerkers om ook de nieuwste vormen van social engineering en AI-gedreven aanvallen te herkennen. Geen eenmalige presentatie, maar een structureel programma met phishing-simulaties, interactieve trainingen en meetbare resultaten. Want in een wereld waarin AI de aanval slimmer maakt, moet de verdediging dat ook zijn.
AI maakt cybercriminelen gevaarlijker dan ooit. Bedrijven die durven te investeren in techniek en in de mensen die ermee werken, zijn in staat met hun verdediging bij te blijven.