Het Witte Huis presenteerde in juli een ingrijpend AI-actieplan dat de Amerikaanse aanpak van AI-beheer hervormt. Het is een enorme ommekeer ten opzichte van het standpunt van de vorige regering, waarbij de regelgevende remmen worden weggenomen en een volwaardige aanpak van AI-ontwikkeling en -implementatie wordt bevorderd.
Dit creëert zowel kansen als risico's voor organisaties. Snellere implementatie gaat ten koste van minder toezicht door de overheid, waardoor bedrijven zelf kritieke lacunes in de governance moeten opvullen. Laten we eens kijken wat de toekomst brengt.
Drie pijlers van het plan
Trump AI-actieplan beschrijft een gecoördineerde federale inspanning om een AI-wapenwedloop te winnen tegen wereldwijde concurrenten, met name China. De aanbevelingen omvatten alle belangrijke federale instanties, van de herziene normen van het ministerie van Handel tot de AI-oorlogsvoeringinitiatieven van het Pentagon. Hier leest u hoe elke pijler het landschap verandert.
Pijler I: Versnel AI-innovatie
Deze pijler richt zich op regelgevende belemmeringen voor de ontwikkeling van AI door de private sector. Het Office of Science and Technology Policy en het Office of Management and Budget (OMB) zullen beperkende regels identificeren en intrekken. Staten worden met name nauwlettend gevolgd wanneer het OMB hun AI-regelgevingsklimaat evalueert bij het nemen van financieringsbeslissingen, waardoor federale middelen mogelijk worden weggeleid van staten met te veel beperkingen.
Het positieve is dat het plan open-source- en open-weight-modellen promoot, omdat het de waarde ervan erkent voor startups en onderzoekers die zich geen gesloten commerciële systemen kunnen veroorloven.
Pijler II: Bouw een Amerikaanse AI-infrastructuur
Deze pijler, door de president omschreven als het "bouw een kind, bouw"-onderdeel van het plan, richt zich sterk op de fysieke vereisten die ten grondslag liggen aan AI: datacenters, halfgeleiderproductie en energie. Bouwers van datacenters krijgen vrijstellingen voor bouwvergunningen, waardoor milieubeoordelingen worden ingeperkt of afgeschaft en regelgeving onder de Clean Air Act en de Clean Water Act wordt afgeschaft.
Het plan stelt federale gronden open voor de ontwikkeling van datacenters en de bijbehorende energieopwekkingsfaciliteiten, en belooft tegelijkertijd een modern elektriciteitsnet om de honger van AI naar elektronen te stillen (er wordt sterk verwezen naar kernenergie en geothermische energie). Al deze datacenters zullen veel elektriciens, HVAC-experts en andere technische infrastructuurmedewerkers nodig hebben, dus het plan voorziet in opleidingsprogramma's om die beroepsbevolking te versterken.
Pijler III: Internationale AI-diplomatie
Hoe voert een isolationistische regering diplomatie? Op een manier die lijkt op "met ons of tegen ons". Het plan schetst de ontwikkeling van AI als een nulsomspel tussen de leden van een "AI-alliantie" en alle anderen. Deze bondgenoten krijgen toegang tot complete AI-exportpakketten, met hardware, modellen, software en standaarden. Niet-leden, waaronder China, worden geconfronteerd met strengere exportcontroles die gericht zijn op subsystemen voor de productie van halfgeleiders. Locatieverificatiefuncties op geavanceerde chips zullen misbruik door tegenstanders voorkomen.
Deregulering creëert een vacuüm
De overhaaste deregulering legt meer verantwoordelijkheid voor naleving bij bedrijven zelf. De FTC moet onderzoeken beoordelen die "onnodig de AI-innovatie zouden kunnen belasten", terwijl NIST verwijzingen naar desinformatie, DEI en klimaatverandering uit zijn AI Risk Management Framework schrapt. Maar in plaats van nalevingsverplichtingen te schrappen, versnippert deze federale terugtrekking ze alleen maar. Staten behouden hun eigen AI-regelgeving, waardoor een lappendeken aan vereisten ontstaat waar bedrijven nu per rechtsgebied mee moeten werken. Ondertussen introduceert een beloofd plan om "ideologische vooringenomenheid" uit te bannen vage aanbestedingsnormen zonder duidelijke definities.
Bedrijven moeten nu hun eigen governance-kaders vinden om AI-risico's te beheersen. Dit betekent dat er duidelijke beleidslijnen moeten worden opgesteld voor data governance, modeltransparantie en het beperken van vooroordelen, met name voor klantgerichte systemen waar verantwoording het belangrijkst is.
Wat nu?
Organisaties hebben nu behoefte aan regelmatige AI-risicobeoordelingen, gedocumenteerde audit trails en robuust leveranciersbeheer voor AI-tools van derden. Kritieke aspecten zijn onder meer algoritmische uitlegbaarheid, privacywaarborgen die verder gaan dan de minimale federale vereisten, en AI-specifieke procedures voor incidentrespons.
Dit alles is vooral lastig voor bedrijven die over staats- en landsgrenzen heen opereren.
De veiligste optie is om de vereisten in alle operationele jurisdicties in kaart te brengen en de grootste gemene delers voor naleving te identificeren. Bedrijven zouden hun AI-implementaties moeten controleren en risicoregisters moeten bijwerken om dit nieuwe landschap te weerspiegelen.
Begin met het inventariseren van alle huidige en geplande AI-implementaties en evalueer deze aan de hand van uw risicobereidheid en veranderende regelgeving. Prioriteitsgebieden zijn onder meer klantgerichte systemen die transparantie vereisen, AI-gestuurde beslissingen die van invloed zijn op werkgelegenheid of krediet, en afhankelijkheden van modellen van derden.
Als 's werelds eerste norm voor AI-managementsystemen biedt ISO 42001 38 controles verdeeld over negen doelstellingen, volgens de bekende Plan-Do-Check-Act-methodiek. Bedrijven die de certificering behalen, tonen aan dat hun AI-systemen risico's identificeren en beperken, en tegelijkertijd veerkracht, schaalbaarheid en consistent toezicht tonen. De norm integreert met bestaande ISO 27001-systemen en is aanpasbaar aan verschillende sectoren via sectorspecifieke richtlijnen.
Een gestructureerd controlekader is waardevol in tijden van onzekerheid, wanneer de regelgeving verandert en de richtlijnen voor de aanpak van een snel evoluerende technologische ontwikkeling uiteenlopen. ISO 42001 kan uw leidraad zijn en u verankeren in best practices voor de beheersing en het beheer van AI-systemen, hoe stormachtig de naleving ook is.










