De overheid zet vol in op AI. In januari werd aangekondigd dat Actieplan voor AI-kansen streeft ernaar economische groei te stimuleren, de kwaliteit van openbare diensten te verbeteren en mensen meer kansen te bieden. Maar om dit ambitieuze plan te laten slagen, weet de overheid dat bedrijven moeten vertrouwen op de producten en diensten waarin ze willen investeren. Hier komt AI-assurance om de hoek kijken.
Het is een kleine maar groeiende sector die in 2024 al een bruto toegevoegde waarde (BTV) van £1 miljard waard is. De overheid gelooft dat deze, met de juiste steun, tegen 2035 bijna £19 miljard waard kan zijn. Om dit te bereiken, heeft ze zojuist een rapport gepubliceerd een nieuwe routekaart voor externe assurance-aanbieders – een over het hoofd gezien, maar potentieel belangrijk deel van de markt.
De markt is nog steeds aan het rijpen
Relatief gezien is de Britse markt voor AI-assurance groter dan die van de VS, Duitsland en Frankrijk, volgens overheidscijfers. Ook wordt geschat dat maar liefst 80% van de externe assurancebureaus "groeisignalen" vertoont – wat betekent dat de omstandigheden gunstig zijn om van het VK een wereldleider op dit gebied te maken. Toch zijn er uitdagingen. Enkele van de uitdagingen die in de routekaart worden genoemd, zijn:
- De kwaliteit van goederen en diensten die worden aangeboden door externe AI-assuranceproviders. Het is nog steeds onduidelijk welke technische normen op de markt moeten worden toegepast om het risico op schade of een aanbod van lage kwaliteit te beperken.
- De Britse AI-assurancesector biedt naar schatting al werk aan 12,500 mensen, maar aanbieders blijken moeite te hebben om kandidaten te vinden met de juiste mix van vaardigheden. Een deel van de uitdaging is dat deze aanzienlijk kunnen variëren, van technische competentie tot kennis van relevante wetgeving, AI-governance en -normen. Een gebrek aan diversiteit schaadt de sector ook, stelt de overheid.
- Toegang tot informatie over AI-systemen is essentieel voor bedrijven die relevante assurance-diensten willen leveren. Maar of het nu om beveiligings-, commerciële of andere redenen is, veel leveranciers aarzelen om dit soort informatie te delen – waaronder trainingsgegevens, AI-modellen en informatie over management en governance.
- Innovatie in de AI-assurancesector is essentieel om groei te stimuleren, maar vereist input van een breed scala aan experts, waaronder AI-ontwikkelaars. De uitdaging is dat er relatief weinig fora zijn voor gezamenlijke R&D-activiteiten op dit gebied, stelt de overheid.
Bouwkwaliteit
Gelukkig heeft de overheid een plan om elk van deze uitdagingen op zijn beurt aan te pakken. De eerste focus ligt op het verbeteren van de kwaliteitsborging. Om Britse assurancebureaus te helpen zich te onderscheiden en in het algemeen het vertrouwen van klanten in de markt te vergroten, heeft de overheid drie ideeën om de kwaliteit te verbeteren. Ze wil de sector professionaliseren door middel van certificering en/of registratie voor individuen – hoewel ze toegeeft dat dergelijke programma's zorgvuldig moeten worden ontworpen, ontwikkeld in samenwerking met beroepsorganisaties en ondersteund door een hoogwaardig opleidingsnetwerk. Het is waarschijnlijk nog te vroeg voor een gereguleerde brancheorganisatie en een professionele standaard voor AI-assurance, zo geeft het rapport toe.
Een andere manier om de kwaliteit te verbeteren, is door de kwaliteit van specifieke assurance-processen te verifiëren, zoals risicobeoordeling of bias-audits. Normen zoals ISO 24027 zouden kunnen worden gebruikt om relevante certificeringen op dit gebied te ontwikkelen, aldus het rapport. Hoewel standaardisatie van assurance-processen de consistentie en toegang tot wereldwijde markten zou kunnen verbeteren, kan het kleinere bedrijven met minder middelen buiten de markt sluiten.
Tot slot suggereert de regering dat de Britse nationale accreditatiedienst (UKAS) zou kunnen helpen beoordelen of organisaties "bekwaam, onpartijdig en consistent" conformiteitsbeoordelingsactiviteiten zoals certificering, testen en inspecties kunnen uitvoeren. Het rapport merkt echter op dat er weinig normen zijn die certificering door geaccrediteerde assurance providers kunnen ondersteunen, waardoor de impact van dergelijke stappen beperkt is.
Om de plannen van de grond te krijgen, roept het Department for Science, Innovation and Technology (DSIT) een consortium van belanghebbenden bijeen om de 'bouwstenen' te ontwikkelen die nodig zijn om de AI-assurancesector te professionaliseren. Dit omvat de ontwikkeling van een vrijwillige ethische code, een kader voor vaardigheden en competenties, en van daaruit een professioneel certificerings- of registratiesysteem, mogelijk te beginnen met AI-audits.
Andere actiegebieden
Vaardigheden: De overheid is van plan om met hetzelfde consortium samen te werken om verbeteringen op dit gebied door te voeren. Ze stelt dat het Verenigd Koninkrijk de komende vijf jaar tienduizenden AI-professionals moet opleiden – zowel op technisch als niet-technologisch gebied, zoals maatschappelijke impact en ethische naleving. Bestaande opleidings- en certificeringsschema's zoals de IAPP's AI Governance-certificaat en opleidingen in cybersecurity, data science, interne audit en software engineering zouden hierbij kunnen helpen. Maar er is nog steeds geen duidelijke route voor aspirant-AI-auditprofessionals.
DSIT zal eerst met het consortium samenwerken aan een "omvattend vaardigheden- en competentiekader voor AI-borging", inclusief een professioneel certificeringsprogramma voor AI dat kan voortbouwen op bestaande certificaten en standaarden op gebieden zoals cybersecurity. Zodra dit werk is voltooid, kan DSIT beoordelen of er meer nodig is om de ontwikkeling van trainingen en kwalificaties te ondersteunen.
Toegang tot informatie: Het consortium gaat samenwerken met de Britse assurance-aanbieders om inzicht te krijgen in hun informatiebehoeften voor verschillende soorten AI-assurancediensten. Dit zal het helpen om best practices te ontwikkelen voor bedrijven die assurancediensten gebruiken, zodat ze vooraf weten welke informatietoegang er van hen wordt verwacht.
Innovatie: De overheid zal een nieuw forum voor samenwerking tussen meerdere belanghebbenden oprichten: het AI Assurance Innovation Fund. Het fonds krijgt £ 11 miljoen ter ondersteuning van onderzoek naar innovatieve AI-assurancemechanismen, zodat belanghebbenden AI-risico's beter kunnen identificeren. Aanvragen voor de eerste financieringsronde kunnen in het voorjaar van 2026 worden ingediend. Het fonds zou ook de Britse AI Adoption Hubs kunnen ondersteunen.
Een belangrijke stap
Sharron Gunn, CEO van BCS, The Chartered Institute for IT, vertelt ISMS.online dat het plan van de overheid de markt voor AI-borging zal helpen groeien en het publieke vertrouwen in AI-systemen zal vergroten.
"De inzet van de overheid voor de oprichting van een AI-assuranceberoep, waarvan de beoefenaars er trots op zijn verantwoording af te leggen aan een ethische code, is een enorme stap voorwaarts", voegt ze eraan toe. "Het is ook terecht dat een consortium, inclusief beroepsorganisaties, de taak krijgt om deze code te ontwikkelen en de juiste trajecten voor registratie en certificering voor AI-assurance aan te bevelen."
Jennifer Appleton, directeur van ISO Quality Services, stelt dat de routekaart een belangrijke stap is om organisaties te helpen ‘ambities om te zetten in praktische actie’.
Ze vertelt ISMS.online: "Veel bedrijven zijn enthousiast over de kansen die AI kan bieden, maar blijven voorzichtig met governance, risico's en verantwoording. Door een gestructureerd kader te bieden, kan de roadmap organisaties helpen bij het verantwoord integreren van AI in hun bedrijfsvoering."
Appleton is vooral blij met de afstemming van de routekaart op ISO 42001.
"Een erkende internationale standaard helpt bedrijven niet alleen om te laten zien dat ze voldoen aan de eisen, maar ook om vertrouwen, transparantie en ethische verantwoordelijkheid te tonen bij de implementatie van AI. Voor veel organisaties zal dit het verschil maken tussen het theoretisch verkennen van AI en het vol vertrouwen implementeren ervan", zegt ze.
Natuurlijk zal de uitdaging, net als bij elk nieuw raamwerk, liggen in het vinden van de juiste balans tussen flexibiliteit en nauwkeurigheid, zodat het werkt voor bedrijven van elke omvang en in elke sector. Maar over het geheel genomen is het een positieve en broodnodige ontwikkeling, en we kijken ernaar uit om bedrijven te ondersteunen bij de toepassing ervan in de praktijk.
Tom McNamara, CEO van Atoro, verwelkomt de plannen met een voorzichtiger stem. Hij beschrijft ze als het uitstippelen van "een logisch en verstandig pad" door te proberen het beroep te definiëren en kennis op te bouwen vóórdat processen worden gecertificeerd. Hij stelt echter dat het consortium moet worden geleid door degenen die aan de frontlinie staan, met "praktijkervaring in het bouwen en beveiligen van AI-systemen".
"Het succes van het raamwerk berust op een gevaarlijke aanname: dat de juiste mensen beschikbaar zijn om het te bouwen", vertelt McNamara aan ISMS.online.
Effectieve AI-borging vereist diepgaande, technische kennis van hoe deze modellen werken, niet alleen van de resultaten die ze opleveren. De eerste en meest cruciale taak van het consortium is om echte AI-experts in de zaal te krijgen. Zonder hen zal het raamwerk een goedbedoelde, maar holle oefening zijn.










