Het is zes maanden geleden dat de Amerikaanse regering een ingrijpend uitvoerend bevel (EO) heeft aangenomen waarin de behoefte aan verantwoorde AI wordt aangepakt. De Executive Order over veilige, beveiligde en betrouwbare kunstmatige intelligentie ging in op de zorgen over de beveiliging en veiligheid van AI, samen met het effect ervan op de burgerlijke vrijheden en de rechten van werknemers. Het erkende ook de noodzaak om de AI-vaardigheden van de federale beroepsbevolking drastisch te vergroten. Deze zorgen vertaalden zich in een breed scala aan acties binnen elk federaal agentschap. Hoe gaat het, een half jaar later, met de implementatie ervan?

Gecoördineerde actie

De EO werd gecoördineerd met activiteiten binnen de uitvoerende macht. De weken erna aankondiging op 30 oktober 2023 was er een golf van activiteit bij verschillende instanties, zoals de aankondiging door het ministerie van Buitenlandse Zaken van zijn Enterprise AI-strategie op 9 november.

Het ministerie van Defensie had duidelijk ook een antwoord klaar. Vrijwel onmiddellijk na de publicatie van de EO heeft het DoD uitgebracht zijn data-, analyse- en kunstmatige intelligentie-adoptiestrategie uit 2023, die de AI-strategie uit 2018 heeft vervangen. Dit beleid is vooral belangrijk voor het Pentagon, dat volgens een Brookings Instituut verslag vormt het leeuwendeel van de federale AI-contracten in de Amerikaanse overheid. De uitgaven voor militaire AI-contracten waren in het jaar tot augustus 557 goed voor 675 miljoen dollar van 2023 miljoen dollar aan middelen die waren toegewezen aan AI-contracten bij alle agentschappen, zo blijkt uit het rapport.

Een solide rapportkaart

Op 28 maart, het Witte Huis gerapporteerd dat de agentschappen alle deadlines van 90 en 150 dagen onder de EO hadden gehaald. Maatregelen zoals hierin beschreven tijdlijn analyse omvatte de productie van een rapport van het ministerie van Financiën over risicobeheer voor AI in de financiële dienstverlening, en een zelfevaluatie door elke instantie van de risico's die AI met zich meebrengt voor kritieke nationale infrastructuur.

Verschillende instanties hebben bijgedragen aan de AI-veiligheidsinspanningen. Het ministerie van Handel heeft op 1 november het Amerikaanse AI Safety Institute opgericht binnen het National Institute for Standards and Technology (NIST) en heeft sindsdien personeel en een consortium opgericht om de organisatie te ondersteunen. Medio april heeft de NSA zijn richtlijnen gepubliceerd over het veilig inzetten van AI-systemen.

Het National AI Advisory Committee (NAIC) sprak over kwesties als AI-veiligheid, bevelen de introductie van een systeem om bijwerkingen van AI-systemen te rapporteren. De NAIC-aanbeveling zou mogelijk de definities van het Office of Management and Budget (OMB) van AI die de veiligheid en rechten beïnvloedt, als raamwerk gebruiken. Deze werden uiteengezet in de OMB's van 28 maart memorandum over het bevorderen van bestuur, innovatie en risicobeheer voor het gebruik van kunstmatige intelligentie door instanties, waarmee veel van de mandaten voor uitvoerende overheidsinstanties in de EO zijn vastgelegd.

De veiligheids- en beveiligingspraktijken in het OMB-memorandum omvatten een reeks minimumpraktijken voor AI die gevolgen heeft voor de rechten, samen met de eis dat agentschappen deze uiterlijk 1 december 2024 beginnen te volgen. Als ze deze richtlijnen niet kunnen volgen, moeten ze stoppen met het gebruik van de betreffende AI. .

Andere gebieden van vooruitgang op basis van de eisen van de EO zijn onder meer het ontwerpen en implementeren van plannen om meer AI-talent te werven bij de Amerikaanse overheid. De NAIC heeft in het vierde kwartaal van 4 verschillende aanbevelingen gedaan het verbeteren van de AI-geletterdheid onder Amerikanen, en adviseerde ook a campagne voor levenslange AI-carrièresucces. Het Witte Huis volgde met een roep om AI-talent tijdens een sollicitatieactie in januari.

De vooruitgang heeft zich uitgebreid tot het internationale staatsmanschap. Het ministerie van Buitenlandse Zaken aangekondigd in november dat 47 staten de Politieke Verklaring over Verantwoord Militair Gebruik van Kunstmatige Intelligentie en Autonomie hadden onderschreven, een initiatief dat in februari 2023 in Den Haag werd gelanceerd.

De Defensieproductiewet: een gespannen kwestie

EO's hebben doorgaans invloed op de particuliere sector, hetzij via hun impact op federale aannemers, hetzij via instructies aan instanties die specifieke regels afdwingen. Soms zal het Witte Huis echter een beroep doen op speciale bevoegdheden. In dit geval gebruikte het de Defense Production Act om AI-modellen voor twee doeleinden te reguleren.

Volgens deze wetgeving uit 1950 kan de president bedrijven uit de particuliere sector dwingen bepaalde productieregels te volgen. In dit geval moeten AI-producenten rapporteren over hun AI-veiligheidstests, samen met het gebruik van rekenkracht boven een bepaalde drempel. Aanbieders van rekencapaciteit moeten ook het gebruik van hun capaciteit door specifieke buitenlandse mogendheden voor AI-training melden.

NetChoice, een brancheorganisatie voor technologiebedrijven die Google, Meta en Amazon tot haar leden telt, is van mening dat de overheid haar verregaande regelgeving overschrijdt. Carl Szabo, de algemeen adviseur van de organisatie, beweert dat de regelgeving, inclusief het gebruik van de DPA zoals uiteengezet in de EO, een huiveringwekkend effect zal hebben op de investeringen in de particuliere sector.

“Als je begint met het toevoegen van wettelijke beperkingen en regelgevende controles die moeten worden uitgevoerd voordat je een systeem voor kunstmatige intelligentie kunt inzetten, zal dat mijn vermogen als investeerder beperken om een ​​product op de markt te brengen en het noodzakelijke rendement op de investering te behalen. " hij zei.

Hij is ook van mening dat de EO zo breed is dat deze voor de rechter kan worden aangevochten.

“Ik kan je niet vertellen wanneer het gaat gebeuren, maar ik kan wel zeggen dat er zeker discussies zijn tussen veel mensen van wie ik heb gehoord over het brengen van een uitdaging,” voegde hij eraan toe.

In de tussentijd blijft de regering haar belofte nakomen om AI-risico’s en verantwoord gebruik aan te pakken, na een groei van bijna 260% in haar financiële verplichtingen voor AI-contracten gedurende het jaar tot augustus 2023.

Bedrijven die AI verwachten te gebruiken, vooral bedrijven die mogelijk worden beïnvloed door Amerikaanse overheidscontracten, zouden er goed aan doen de opkomende normen voor verantwoord gebruik te volgen. NIST heeft het gepubliceerd Kader voor AI-risicobeheer, terwijl de onlangs gepubliceerde ISO / IEC 42001 standaard voor het inzetten en onderhouden van AI-systemen is een ander nuttig raamwerk om te volgen. Met het overlijden van de AI-wet van de EU in maart is de noodzaak om beste praktijken te demonstreren bij de implementatie van AI urgenter dan ooit.