Het Verenigd Koninkrijk is al meer dan tien jaar een economische underachiever. Sinds de financiële crisis van 2008-9 is de productiviteit nauwelijks gestegen, waardoor het land meer kwetsbaar is voor economische schokken, ontevredenheid onder de bevolking is aangewakkerd en de publieke dienstverlening is verslechterd. De nieuwe regering denkt een antwoord te hebben: AI. Een belangrijk nieuw AI Opportunities Action Plan januari onthuld is ontworpen om een ​​“decennium van nationale vernieuwing” te bewerkstelligen door “AI te integreren in de aderen van deze ondernemende natie”.

Maar zoals experts hebben gewaarschuwd, introduceert het ook significante nieuwe mogelijkheden voor dreigingsactoren om te stelen, saboteren, afpersen en verstoren. De sleutel zal zijn om ervoor te zorgen dat de organisaties die zich hebben aangemeld om het plan werkelijkheid te maken, hun AI-infrastructuur en -systemen vanaf het begin met beveiliging in gedachten ontwerpen.

Wat staat er in het plan?

Het plan zelf, waarvan de regering beweert dat ze het volledig zal overnemen, is zeker niet ambitieus. Er zijn acht kernelementen:

De basis leggen met AI-infrastructuur

Dit omvat het bouwen van een speciale AI Research Resource (AIRR) van geavanceerde AI-geschikte computers en het opzetten van “AI Growth Zones” om de bouw van datacentra in de particuliere sector te versnellen.

Data-activa ontgrendelen

Het ontwikkelen van een National Data Library (NDL), die openbare datasets “veilig en ethisch” beschikbaar zal stellen voor AI-onderzoekers en -innovatoren. Deze plannen omvatten ook het bouwen van infrastructuur voor het verzamelen van gegevens in de publieke sector, het financieren van de creatie van nieuwe, waardevolle datasets en het stimuleren van de industrie om “private datasets te cureren en te ontsluiten.”

Opleiding en vaardigheden

Het beoordelen van het tekort aan AI-vaardigheden, het verbeteren van de diversiteit in de talentenpool, het ondersteunen van hoger onderwijs om het aantal AI-afgestudeerden te vergroten en het aantrekken van geschoolde werknemers uit het buitenland.

Regelgeving, veiligheid en zekerheid

Het ontwikkelen van het AI Safety Institute, het competitiever maken van het "UK text and data mining regime", "dringend" financieren van toezichthouders om hun AI-expertise te verbeteren en ervoor zorgen dat alle sponsorafdelingen prioriteit geven aan "veilige AI-innovatie". Het plan noemt ook pro-innovatie-initiatieven zoals regulatory sandboxes en het bouwen van door de overheid gesteunde "high-quality assurance tools" om AI-veiligheid te beoordelen.

Pas een “Scan > Pilot > Schaal”-aanpak toe

Anticiperen op toekomstige AI-ontwikkelingen, consistente en snelle piloting en prototyping, en een focus op opschaling naar tientallen of honderden miljoenen burgerinteracties in het Verenigd Koninkrijk. Deze fase verwijst ook naar de behoefte aan infrastructuurinteroperabiliteit, codeherbruikbaarheid en open sourcing.

Versterking van de publieke en private sector

De overheid is van plan om haar omvang en nieuw opgebouwde digitale infrastructuur te gebruiken om nieuwe kansen te creëren voor vernieuwers, een AI-kenniscentrum te creëren en de interesse van de particuliere sector in de Scan > Pilot > Scale-aanpak te stimuleren om snel resultaten te boeken.

Pak de barrières voor gebruikersacceptatie aan

Verbeter de acceptatie door de publieke en private sector via sectorspecifieke AI-kampioenen en een nieuwe industriële strategie.

Geavanceerde AI

Creëer een nieuwe overheidseenheid die de bevoegdheid heeft om samen te werken met de private sector om de Britse inzet op grensverleggende AI te maximaliseren.

Meer dan lippendienst?

Zoals gebruikelijk bij belangrijke overheidsaankondigingen, moeten veel details nog worden uitgewerkt. Dus hoewel "veiligheid" 14 keer in het plan wordt genoemd, is dat alleen in de meest vage bewoordingen, zoals dat de overheid "zich inzet voor het bouwen van geavanceerde, veilige en duurzame AI-infrastructuur" of dat het "op verantwoorde, veilige en ethische wijze de waarde van data-activa van de publieke sector zal ontsluiten".

Toch is er goede reden om bezorgd te zijn over de implicaties. Volgens het World Economic Forum (WEF) Wereldwijd risicorapport 2025, "nadelige uitkomsten van AI-technologieën" werd door bedrijfsleiders en experts gerangschikt als het zesde ernstigste risico in het komende decennium. Deze uitkomsten kunnen voortkomen uit slecht ontworpen modellen of kwaadaardige acties zoals data-/modelvergiftiging. In het laatste scenario krijgen dreigingsactoren toegang tot AI-systemen om de trainingsdata te corrumperen of modelparameters te manipuleren om specifieke, ongewenste uitkomsten te saboteren of te veroorzaken.

Ze zouden dezelfde toegang tot AI-infrastructuur kunnen gebruiken om gevoelige trainingsgegevens van bedrijven en klanten te stelen, of zelfs een groot taalmodel (LLM) zelf, als dit door een organisatie is afgestemd op een specifiek doel en daarom op zichzelf waardevol intellectueel eigendom vertegenwoordigt.

Helaas blijkt uit onderzoek dat de belangrijkste onderdelen van AI-benaderingen van de volgende generatie, zoals retrieval augmented generation (RAG) en autonome ‘agentische AI’, vol zitten met beveiligingslekken. Eén rapport beweert meerdere kwetsbaarheden te hebben gevonden in LLM-hostingtools en -platforms zoals llama.cpp en Ollama, evenals vectordatabases zoals ChromaDB. Het onthult ook tientallen openbaar blootgestelde servers en instanties die aan dergelijke tools zijn gekoppeld, waarvan er veel geen authenticatie vereisen. En dan hebben we het nog niet eens over het risico dat gecompromitteerde inloggegevens met zich meebrengen.

"Een hoog percentage cyberaanvallen maakt gebruik van gestolen inloggegevens, dus aanvallers loggen in in plaats van te hacken", vertelt Andrew Rose, CSO van SoSafe, aan ISMS.online. "Veel bedrijven maken AI-chatbots om hun personeel te helpen, maar weinigen hebben nagedacht over het scenario waarin hun chatbot medeplichtig wordt aan een aanval door de aanvaller te helpen gevoelige gegevens te verzamelen, belangrijke personen te identificeren en nuttige bedrijfsinzichten te verkrijgen."

Deskundigen waarschuwen voor problemen

Andere veiligheidsexperts hebben ook alarm geslagen over de plannen van de overheid. Michael Adjei, directeur van systems engineering bij Illumio, waarschuwt voor een "verborgen laag" van gepatenteerde en onvoldoende onderzochte AI-technologie die dreigingsactoren zouden kunnen targeten via de hierboven uitgelegde vijandige datavergiftigingsaanvallen.

"De uitdaging is dat de verborgen lagen van AI werken via 'geleerde representaties', die moeilijk te interpreteren en te monitoren zijn voor beveiligingsteams op kwetsbaarheden. Dit maakt het moeilijker om gemanipuleerde AI-modellen te detecteren, met name in systemen die autonoom of in realtime functioneren", vertelt hij aan ISMS.online.

“De AI-toeleveringsketen brengt nog meer risico's met zich mee. Gecompromitteerde gegevens van derden, trainingsomgevingen, software of hardware kunnen hele AI-systemen in gevaar brengen. Aanvallers kunnen bijvoorbeeld schadelijke gegevens injecteren in trainingsdatasets, waardoor er vooroordelen of kwetsbaarheden in AI-modellen ontstaan.”

Het overheidsplan verwijst naar opensourcesoftware, een specifiek probleem voor de toeleveringsketen gezien de de goed gedocumenteerde beveiligingsuitdagingen van de industrie.

Bridewell CTO Martin Riley heeft een achtergrond in datacenterontwerp en -exploitatie. Hij waarschuwt dat de "datacentermarkt niet goed gereguleerd is en dat de volwassenheid van cybersecurity rond deze faciliteiten enigszins ontbreekt." Hij waarschuwt ook voor de NDL.

"De NDL zal er primair op gericht zijn om ervoor te zorgen dat de private sector kan innoveren om de publieke sectoren te ondersteunen, dus de strengheid rondom de data, anonimisering en bescherming van individuen zal verschillende cybersecurity-uitdagingen creëren", zegt Riley. "Wat zijn de cybersecurity-vereisten voor degenen die toegang willen tot de NDL en de data willen gebruiken?"

Rose van SoSafe wil dat er meer aandacht komt voor governance.

"Ik hoop dat de overheid herhaalt dat AI moet voldoen aan bestaande regelgeving, zoals normen voor gegevensprivacy. Aandringen op kwaliteit en controle voor invoergegevens zou verstandig zijn om een ​​kwalitatief goede output te garanderen die niet bevooroordeeld is, maar dit wordt een uitdaging wanneer de datasets groot en breed worden en afkomstig zijn van veel verschillende bronnen", legt hij uit.

“De sleutel is erop aandringen dat bedrijven die AI omarmen een governance- en toezichtcomité opzetten. Het zou een inventarisatie moeten vereisen van waar AI wordt gebruikt en de reikwijdte van de verantwoordelijkheden, ondersteund door risicobeoordelingen van de potentiële schade veroorzaakt door foutieve output of falen, en herstelpaden voor eventuele fouten of inbreuken.”

ISO 42001 komt te hulp

Regulatoren spelen een belangrijke rol bij het veilig, zeker en ethisch realiseren van de ambities van de overheid. Het AI Safety Institute wordt een wettelijk orgaan, sponsorafdelingen worden gefinancierd om "hun AI-capaciteiten op te schalen" en "veilige AI-innovatie" wordt benadrukt in de richtlijnen voor deze regulatoren.

Het is echter nog maar de vraag welke nieuwe regels er als gevolg hiervan worden geïmplementeerd, maar er zijn al best practice-normen die AI-ontwikkelaars en -gebruikers kunnen helpen bij het navigeren door de regelgeving die op hun pad komt. ISO 42001 is bijvoorbeeld bedoeld om het verantwoord gebruik en beheer van AI-beheersystemen te bevorderen.

"Het biedt richtlijnen voor veilig AI-gebruik en helpt ontwikkelaars bij het implementeren van mechanismen om ongebruikelijk gedrag of onverwachte uitkomsten te detecteren, waardoor de vatbaarheid voor manipulatie wordt verminderd", aldus Adjei van Illumio.

Rose van SoSafe is het daarmee eens.

“ISO 42001 is een effectieve methodologie om organisaties te helpen AI bewust te implementeren. Het stimuleert een zorgvuldige aanpak van het beoordelen en controleren van de implementatie van AI, en zorgt ervoor dat er voldoende inzicht en toezicht is op de bijbehorende risico's”, concludeert hij.

"Net als ISO 27001 maakt het je niet veilig. Het creëert echter een pad voor continue beoordeling en verbetering, wat de kans vergroot op het creëren van een veerkrachtige oplossing."

We zullen in het voorjaar veel meer weten over de plannen van de overheid, hoewel het nog maar de vraag is of het ministerie van Financiën veel van deze initiatieven zal blokkeren of verwateren, nu de Britse economie er slecht voor staat. Wat er ook gebeurt, laten we hopen dat ingebouwde beveiliging en verbeterd AI-bestuur niet onderhandelbaar zijn.