Het is 2023 en AI lijkt overal te zijn. ChatGPT, de AI geproduceerd door het door Elon Musk opgerichte instituut OpenAI, is dat wel het schrijven van studentenessays, boeken uitbrengeninvestering veilig is en u uw kans vergroot op uitdagende parkeerboetes. In één incident bewijst dat we in een aflevering van Black Mirror leven, een bijzonder zielloze universiteitsmedewerker zelfs gebruikt om studenten te troosten na een massaschietpartij.
Hoe ChatGPT werkt
Privacy- en beveiligingsexperts vragen zich misschien af hoe AI ook hen kan helpen. Zou het bijvoorbeeld uw privacybeleid kunnen schrijven? Het antwoord is ja – een soort van.
Om de vraag grondiger uit te leggen, is het de moeite waard om te begrijpen hoe het nieuwere AI-merk van ChatGPT werkt. Het is gebaseerd op iets dat een groot taalmodel (LLM) wordt genoemd. Dit is een AI-model dat is getraind met behulp van een groot tekstcorpus, meestal van internet geplukt. Het trainingsproces verdeelt deze tekst in tokens, die delen van woorden kunnen zijn. Vervolgens gebruikt het enorme hoeveelheden rekenkracht om patronen in de taal te vinden die het helpen begrijpen hoe die tokens met elkaar in verband staan.
Wanneer iemand de AI een verzoek stuurt (zeg: “leg koude fusie uit in de stijl van Sherlock Holmes”), gebruikt de AI zijn uitgebreide trainingsmodel om stukjes woorden te nemen en te voorspellen welke waarschijnlijk daarna zullen komen. Op deze manier kan het overtuigende taal produceren die de concepten lijkt te volgen die in de prompt zijn uiteengezet.
Zelfverzekerd en dom: een slechte combinatie
Het probleem met deze aanpak is dat de AI niet weet waar hij het over heeft. Onderzoekers hebben het vergeleken met een 'stochastische papegaai', die willekeurige woorden aan elkaar rijgt zonder ze te begrijpen. Een document dat dit beschrijft, Over de gevaren van stochastische papegaaien, wijst erop dat “talen systemen van tekens zijn, dat wil zeggen combinaties van vorm en betekenis.” Als iemand 'konijn' zegt, begrijp je het concept van een konijn en hoe dit zich verhoudt tot verschillende andere dingen (Pasen, lente, huisdieren, smakelijke stoofpot, enz.). “Maar de trainingsgegevens voor LM’s zijn slechts vorm”, zeggen de onderzoekers. “Ze hebben geen toegang tot betekenis.”
Dat schept problemen voor LLM's waarvan u afhankelijk bent voor feitelijke inhoud. Omdat ze woorden zoeken op basis van statistische waarschijnlijkheid in plaats van op kennis, hebben ze de neiging dingen te schrijven die niet waar zijn. In AI-jargon staat dit bekend als ‘hallucineren’, en het is een probleem als je erop wilt vertrouwen voor feitelijke inhoud.
Mensen hebben geëxperimenteerd met het gebruik van ChatGPT om een privacybeleid te schrijven, met twijfelachtige resultaten. Ze ontdekten, voorspelbaar, dat de resultaten slechter waren als de LLM meer lege plekken moest invullen.
Eenvoudige AI-prompts leverden beleid op dat niet gebaseerd was op specifieke privacywetten en geen betrekking had op specifieke bedrijfspraktijken. Het privacybeleid verbeterde naarmate testers meer informatie toevoegden, tot het punt waarop het een indrukwekkend resultaat opleverde. Op dat moment zult u echter uren, dagen of zelfs weken moeten besteden aan het bepalen welke privacywetten op u van toepassing zijn, het analyseren van de openbaarmakingsvereisten van die wetten en het vervolgens verstrekken van deze informatie aan ChatGPT, samen met uw specifieke zakelijke praktijken. " ze zegt. Dat roept de vraag op: waarom doe je niet gewoon alles zelf?
Anderen hebben ChatGPT en soortgelijke LLM's beschreven als "rekenmachines voor woorden". Ze zijn alleen echt nuttig bij het schrijven als je er zelf veel werk in steekt en de resultaten zorgvuldig verifieert.
Het gebruik van AI door mensen is vaak zowel zelfverzekerd als dom
We kunnen AI-tools niet vertrouwen, maar we kunnen er wel op vertrouwen dat mensen ze misbruiken. We hebben de gevolgen van slecht bedachte en ongepast toegepaste AI al gezien, wat heeft geleid tot aanzienlijke gevolgen die het echte leven beïnvloeden.
Autoriteiten hebben gebruik gemaakt van door AI aangedreven systemen waarvan is aangetoond dat ze bevooroordeeld zijn bij het aanbevelen van gerechtelijke straffen. Het misbruik van AI-software door de Belastingdienst was daar bijvoorbeeld de aanleiding voor ouders ten onrechte van fraude beschuldigen– het blinde geloof in gebrekkige AI-aangedreven gezichtsherkenningsalgoritmen leidde tot de onrechtmatige arrestatie van onschuldige mensen. Vooringenomenheid kwam ook naar voren in het AI-aangedreven rekruteringssysteem van Amazon, dat werd afgeschaft nadat het bleef bestaan er niet in slagen gekwalificeerde vrouwen aan te bevelen voor technologische banen.
Hoe kunnen we dit probleem aanpakken? Sommige deskundigen hebben dat al gedaan geroepen voor een moratorium van zes maanden op de ontwikkeling van AI om de hele droevige puinhoop te doorgronden voordat de zaken nog verder uit de hand lopen.
Aan richtlijnen geen gebrek
We hebben al genoeg verantwoorde AI-richtlijnen om uit te kiezen, en ze zeggen soortgelijke dingen. Pleitbezorgingsgroep Algorithm Watch houdt een inventaris van AI-richtlijnen van verschillende instellingen, waaronder die van de EU Ethische richtlijnen voor betrouwbare AI. Een daarvan die er op het moment van schrijven nog niet in was opgenomen, was het National Institute of Standards and Technology (NIST's). AI-risicobeheerkader, uitgebracht in januari van dit jaar. Net als de meeste andere richtlijnen wil het NIST-framework een aantal rails bieden voor de ontwikkeling en toepassing van AI. Het weerspiegelt ook verschillende gemeenschappelijke principes in andere ethische richtlijnen, zoals transparantie, verantwoordingsplicht, privacy, veiligheid en veerkracht.
Per de OEDCzijn er op het moment van schrijven ruim 800 AI-beleidsinitiatieven in bijna 70 landen, maar er is een groot verschil tussen bindend en niet-bindend beleid. Naleving van de meeste initiatieven, waaronder NIST's, is vrijwillig.
Een blik op bedrijven als Clearview AI laat zien hoe belangrijk het is om verantwoord AI-beleid juridisch af te dwingen, in plaats van alleen maar vriendelijk te vragen. De startup, die gezichtsherkenningsdiensten aan wetshandhavers verkoopt, voorziet hen van miljoenen foto's gestolen van sociale medianetwerken zonder toestemming van mensen.
Niet genoeg regelgeving
Landen zijn verdeeld in hun aanpak om hun beleid strikt te reguleren. Ze staan allemaal voor dezelfde uitdaging: te weinig regelgeving, en ze riskeren onvoorspelbaar en onverantwoord gebruik van de technologie. Te veel, en ze zouden potentieel lucratieve AI-innovatoren kunnen dwingen weg te trekken.
De VS hebben AI nog niet gereguleerd. Congres voorgestelde de Algorithmic Accountability Act in 2022, maar deze stierf zonder stemming. De FTC heeft beloofde om zijn bestaande bevoegdheden te gebruiken om inwoners van de VS te beschermen tegen het flagrante gebruik van AI. Ook heeft zij een voorafgaande kennisgeving van voorgestelde regelgeving dat zou ingrijpende nieuwe handelsregels kunnen inluiden om met geautomatiseerde besluitvormings- en toezichtsystemen om te gaan.
De EU is agressiever geweest en heeft de AI-wet, waarin wordt bepleit dat de hoop dit jaar voorbij zal gaan. Het zou alle AI-producten en -diensten omvatten, deze classificeren op basis van hun waargenomen risiconiveau en strenge beoordelingen en regels voor gegevensnaleving toepassen op de producten en diensten met een hoger risico. Overtreders riskeren hoge boetes.
Groot-Brittannië heeft dat wel gedaan ingenomen wat het eufemistisch een “pro-innovatiebenadering“. In plaats van één enkele nieuwe AI-toezichthouder te benoemen, zal zij de verantwoordelijkheid voor het reguleren van AI verdelen onder de bestaande toezichthouders en hen in eerste instantie geen nieuwe wettelijke bevoegdheden geven om dit te doen.
Terwijl politici het koord tussen ethiek en economisch voordeel bewandelen, staat de toekomst van AI op het spel. Eén ding is zeker: het alleen aan technologiebedrijven overlaten om verantwoordelijk te handelen zou … onverantwoord zijn.










