Toen het Nationaal Cyber ​​Security Centrum (NCSC) zijn eerste voorspellingen rond AI In 2024 was het een ontnuchterend moment voor de cybersecuritygemeenschap. Er volgde een weloverwogen inschatting van de dreiging op korte termijn door kwaadaardig gebruik van de technologie. De waarschuwing dat AI "de komende twee jaar vrijwel zeker het volume en de impact van cyberaanvallen zou vergroten" was een wake-upcall voor veel netwerkverdedigers.

Nu veel van de voorspellingen van het NCSC zijn uitgekomen, heeft de gemeenschap geen excuus meer nu het agentschap zijn vervolgbeoordeling heeft gepubliceerd. Deskundigen stellen dat organisaties nu stappen moeten ondernemen om te voorkomen dat ze aan de kant komen te staan ​​van een groeiende digitale kloof tussen degenen die de dreiging wel aankunnen en degenen die dat niet kunnen.

Wat de NCSC zegt

Het NCSC-rapport Opnieuw levert het een grimmige lectuur op. Het waarschuwt dat AI cyberaanvallen effectiever en efficiënter zal maken, en dat een groeiend aantal dreigingsactoren de komende twee jaar toegang zal krijgen tot dergelijke tools. Het voegt eraan toe dat het toenemende gebruik van AI door organisaties – met name aanbieders van kritieke infrastructuur (CNI) – hun aanvalsoppervlak aanzienlijk zal vergroten.

Hieronder vindt u meer gedetailleerde informatie over deze beoordelingen:

 1. Een toename van de ‘frequentie en intensiteit’ van cyberdreigingen

Dreigingsactoren gebruiken AI al om verkenning, kwetsbaarheidsonderzoek en -exploitatie (VRED), social engineering, het genereren van basismalware en het exfiltreren van data te verbeteren. Dit zal de komende twee jaar het "volume en de impact" van inbraken vergroten, in plaats van nieuwe aanvallen te stimuleren. AI-ondersteunde VRED zal waarschijnlijk de "belangrijkste" use case zijn.

2. Meer dreigingsactoren maken gebruik van AI

Het criminele gebruik van AI zal tot 2027 toenemen, naarmate het in meer producten wordt geïntegreerd. Criminelen zullen beter worden in het omzeilen van de beperkingen die in legitieme modellen zijn ingebouwd en in het gebruik van AI-gestuurde pentestingtools in "as-a-service"-aanbiedingen, wat een voorsprong biedt voor beginnende actoren.

3. Automatisering komt eraan

Een "volledig geautomatiseerde, end-to-end geavanceerde cyberaanval" is onwaarschijnlijk vóór 2027. Maar cybercriminelen zullen experimenteren met het automatiseren van bepaalde elementen van de kill chain. Dit omvat het identificeren en uitbuiten van kwetsbaarheden en het snel updaten van malware/infrastructuur om detectie te omzeilen. Dit maakt het identificeren, volgen en beperken van bedreigingen zonder AI een stuk lastiger.

4. Een groeiende zero-day-dreiging van geavanceerde actoren

Vaardige actoren die AI-modellen kunnen 'finetunen' of 'soevereine AI-systemen' kunnen bouwen, zullen deze gebruiken om zero-day-exploits te ontwikkelen, waardoor kritieke systemen vanaf 2027 kwetsbaarder worden.

5. AI vergroot het aanvalsoppervlak van bedrijven

AI is steeds meer verbonden met bedrijfssystemen (inclusief OT) en data. Dit brengt een toenemend risico met zich mee via directe promptinjectie, kwetsbaarheden in software, indirecte promptinjectie en aanvallen op de toeleveringsketen. Deze technieken zijn al in staat om AI te benutten voor bredere systeemtoegang.

AI-ontwikkelaars kunnen deze risico's vergroten door overhaast onveilige producten op de markt te brengen die uitgebreide datasets verzamelen, waardoor het risico toeneemt dat gebruikers worden ontmaskerd voor gerichte aanvallen. Andere beveiligingsproblemen kunnen zijn:

  • Zwakke encryptie (waardoor gegevens kwetsbaar zijn voor onderschepping)
  • Slecht identiteitsbeheer en -opslag (waardoor het risico op diefstal van inloggegevens toeneemt)
    6. Cybersecurity op grote schaal wordt cruciaal

Naarmate meer dreigingsactoren AI voor VRED gebruiken om systemen op grote schaal te exploiteren en de tijd tussen openbaarmaking en exploitatie verder te verkorten, zullen CNI- en OT-systemen steeds kwetsbaarder worden. Er kan een "digitale kloof" ontstaan ​​tussen systemen die deze AI-gedreven dreiging kunnen beheersen en een groter aantal systemen die kwetsbaarder zijn.

De rechterkant van de kloof

"Aan beide kanten van het spectrum bespaart automatisering tijd en verhoogt het de productiviteit. Kwaadwillenden zijn echter vaak het snelst in het ontdekken van de voordelen van technologische vooruitgang", waarschuwt Andy James, CEO van MSSP Custodian360.

We betreden een wereld waarin organisaties denken dat ze over voldoende controles en bescherming beschikken, en organisaties die weten dat dit niet zo is, maar bereid zijn de risico's te accepteren. In werkelijkheid weten beide partijen niet of ze over voldoende controles beschikken en de haast om deze zwakheden te exploiteren zal alleen maar toenemen.

Hij vertelt ISMS.online dat betere training en bewustwording van personeel gebruikers zal helpen om door AI ontwikkelde social engineering-praktijken te herkennen, hoewel deze snel in verfijning toenemen. De door het NCSC geschetste bedreigingen zouden ook een stimulans moeten zijn voor een grotere acceptatie van zero trust in bedrijven, betoogt James.

Ruth Wandhöfer van de Centrum voor Cyberbeveiliging en Bedrijfsveerkracht (CSBR)) voegt eraan toe dat organisaties verouderde tools zoals SIEM en ineffectieve tools zoals firewalls moeten laten varen en proactief AI-gestuurde “direct threat intelligence” (DTI) moeten omarmen.

"In tegenstelling tot algemene cyberdreigingsinformatie (CTI), die je een stortvloed aan gegevens oplevert die onvermijdelijk grote hoeveelheden vals-positieve en irrelevante datapunten bevatten, biedt DTI organisaties op bewijs gebaseerde dreigingsinformatie die specifiek is ontworpen voor jouw specifieke organisatie", vertelt ze aan ISMS.online.

"In zijn beste vorm levert deze technologie een geavanceerd systeem op waarin AI en machine learning aanvalspatronen analyseren en realtime bedreigingsmonitoring bieden. Deze organisatiespecifieke DTI wordt samengesteld en automatisch geïntegreerd in de beveiligingsstack van de onderneming en fungeert als een geautomatiseerde verdedigingslaag tegen inkomende bedreigingen."

Het draait allemaal om het voorkomen van aanvallen voordat ze een organisatie kunnen treffen. Dit doet u door profielen van tegenstanders, hun infrastructuur en TTP's in kaart te brengen.

"Dit is nog belangrijker in de context van de toenemende wettelijke vereisten voor de eigen cyberbeveiliging van organisaties en die van derden, zoals in DORA en NIS 2", voegt Wandhöfer toe.

Wat AI als doelwit betreft, adviseert ze organisaties om oplossingen zoals grote taalmodellen (LLM's) intern te ontwikkelen in plaats van gevoelige interne systemen te verbinden met externe open-source AI-oplossingen.

"Wat betreft de uitbreiding van aanvalsoppervlakken door AI, is de opkomst van agentische AI ​​een andere snel naderende risicorealiteit", waarschuwt Wandhöfer. "Agentische AI ​​kan worden gehackt, vergiftigd met malware om gegevens te extraheren of frauduleuze activiteiten uit te voeren, en nog veel meer."

Een redding voor IT-teams met te weinig middelen zou een verbeterde samenwerking binnen de beveiligingsgemeenschap kunnen zijn.

"Met de definitieve goedkeuring van de Data (Use & Access) Act hopen we dat een grotere uitwisseling van informatie tussen de industrie en de publieke sector, en tussen verschillende sectoren, de impact van kwaadaardige AI zal beperken", concludeert ze.

In de tussentijd doen IT- en compliancemanagers er verstandig aan de laatste ontwikkelingen in de gaten te houden en serieus AI-bedreigingen in hun risicoplanning op te nemen.