Kunstmatige intelligentie (AI) zal ons leven en werk de komende jaren radicaal veranderen. Maar deze technologie is sterk afhankelijk van het verzamelen en analyseren van grote datasets en brengt ook grote privacyrisico’s met zich mee.
Think onderzoek Volgens Cisco maakt 60% van de consumenten zich zorgen over de manier waarop organisaties AI-systemen gebruiken. En 65% heeft minder vertrouwen in bedrijven die deze technologie gebruiken in hun producten en diensten.
Deze angsten hebben ertoe geleid dat veel overheidsinstanties en grote instellingen kaders hebben ontwikkeld in een poging het gebruik van AI-technologie te reguleren. In juni heeft de EU aangekondigd plannen voor een baanbrekende AI-wet om ervoor te zorgen dat deze technologie “veilig, transparant, traceerbaar, niet-discriminerend en milieuvriendelijk” is.
Zelfs het Vaticaan heeft dat, met de hulp van het Markkula Centrum voor Toegepaste Ethiek van de Santa Clara Universiteit, gedaan ontwikkelde een handboek waarin de ethische implicaties van AI-technologie worden geschetst. Ze hopen “dieper nadenken over de impact van technologie op de mensheid te bevorderen”. Het National Institute of Standards and Technology heeft ook een Kader voor AI-risicobeheer.
Naarmate AI-technologie evolueert, zullen er ongetwijfeld nieuwe wetten ontstaan die de ontwikkeling en het gebruik ervan regelen. Tegelijkertijd zal de druk op AI-bedrijven en -gebruikers toenemen om de nieuwe wetten te begrijpen en na te leven. Maar hoe kunnen ze dat nu daadwerkelijk succesvol doen? En is er nog iets dat ze moeten weten? We hebben verschillende experts uit de sector om hun advies gevraagd.
AI-regelgeving is geen slechte zaak voor de industrie
Hoewel de introductie van AI-regelgeving misschien een intimiderend vooruitzicht lijkt voor organisaties die deze technologie ontwikkelen en gebruiken, kan het in werkelijkheid een goede zaak zijn voor de industrie. Aleksandr Gornostal, een softwarearchitect en AI-expert bij Ster gelooft dat AI-regels “op de lange termijn een eerlijker en gelijker speelveld zullen creëren”.
Gornostal verwacht dat nieuwe regelgeving de onderzoeks- en ontwikkelingsinspanningen op het gebied van AI op de korte termijn zal schaden. Maar dit zal niet eeuwig duren; hij heeft er vertrouwen in dat er uiteindelijk een kans zal zijn voor technologiebedrijven om producten te ontwikkelen die enkele van de grootste problemen van AI oplossen, vooral op het gebied van menselijk toezicht, privacy en non-discriminatie.
Bedrijven zullen er uiteraard voor moeten zorgen dat hun AI-systemen voldoen aan nieuwe en opkomende wetten als ze op de lange termijn willen slagen. Gornostal adviseert bedrijven om te beginnen met het regelmatig uitvoeren van impactbeoordelingen en het zorgen voor constante transparantie met belanghebbenden. Ze moeten ook aanzienlijke budgetten en middelen opzij zetten om aan deze regels te voldoen.
“Naleving van de AI-regelgeving zal een voorwaarde worden voor toegang tot de Europese markt, en alle bedrijven die handel willen drijven of zaken willen doen in de EU zullen zich aan de normen moeten houden”, zegt hij.
Naast privacyproblemen stelt Gornostal dat generatieve AI risico’s met zich meebrengt op het gebied van diversiteit, representatie en inclusiviteit. “De modellen hebben de neiging de meest dominante visie te versterken zonder een oordeel uit te spreken over hoe eerlijk of correct deze is. We moeten ons bewust zijn van deze tekortkomingen en vermijden dat AI-gebruik echokamers creëert.”
Een by-design-principe aannemen
Bedrijven die willen profiteren van de AI-revolutie zullen geen andere keuze hebben dan zich voor te bereiden op nieuwe en evoluerende sectorregelgeving. Echter, als immut senior privacyadviseur en juridisch ingenieur Sophie Stalla-Bourdillon wees erop dat velen al gewend zijn aan het omgaan met wetten zoals de Algemene Verordening Gegevensbescherming. Ze suggereert ook dat de naleving van nieuwe AI-regels vergelijkbaar zal zijn.
“De beste manier om op nieuwe wet- en regelgeving te anticiperen, is door de op principes gebaseerde aanpak die door regelgeving zoals geïntroduceerd, zo vroeg mogelijk te operationaliseren GDPR; met andere woorden, het nastreven van een by-design benadering van compliance”, zegt ze.
Dit omvat het ontwerpen van gecontroleerde omgevingen waarin organisaties routinematig zoeken naar “potentiële incidenten en ongewenste praktijken”, aldus Stalla-Bourdillon. Ze adviseert bedrijven ook om deze te toetsen aan maatstaven als vertrouwelijkheid en eerlijkheid.
Ze legt verder uit dat bedrijven kunnen kiezen uit twee ontwerpstrategieën om “te laten zien dat privacy en veiligheid feitelijk naar elkaar toe groeien”. De eerste maakt gebruik van gegevensbeschermingsprincipes zoals minimalisatie en need-to-know.
“Wanneer dit wordt geoperationaliseerd, zou dit moeten leiden tot een fijnmazig toegangscontrolebeleid. Dit beleid is relevant voor trainingsgegevens, modelparameters, vragen of aanwijzingen, resultaten of reacties”, zegt ze.
De tweede ontwerpstrategie biedt bedrijven statistieken, KPI's en auditlogboeken om de transparantie en waarneembaarheid te verbeteren tijdens systeembevestiging, training, testen, implementatie en vele andere perioden. Ze voegt hieraan toe: “Het hebben van inzicht in de gehele datalevenscyclus vergroot de controle en maakt het eenvoudiger om deel te nemen aan regelmatige beoordelingen.”
Iedereen moet de risico's van AI begrijpen
Hoewel AI-regelgeving “hard nodig” is, ESET mondiale cybersecurity-adviseur Jake Moore geeft toe dat bedrijven het waarschijnlijk moeilijk zullen vinden om op de hoogte te blijven van hun voortdurend veranderende eisen.
“Regelgeving kan bedrijven meer macht geven en hen het gevoel geven dat ze beschermd zijn, maar ze betekenen niets voor de ontwikkelaars van geavanceerde malware. De Britse regelgeving is notoir laat voor de partij, maar dit ziet er nu al veelbelovend uit”, vervolgt hij.
Hij noemt overheidsinterventie op het gebied van AI-risico’s ‘van cruciaal belang’, maar dringt er bij de toezichthouders op aan realistische verwachtingen te scheppen. “Het beheersen van het beest [AI] zal vrijwel onmogelijk zijn als de geavanceerde technologie voortdurend wordt verbeterd”, zegt hij. “Bovendien wordt het politiewerk zoals altijd moeilijker gemaakt met internationale, interjurisdicties.”
Naast het voldoen aan de nieuwe AI-regelgeving waarschuwt hij organisaties om de dreiging die uitgaat van AI-aangedreven cyberaanvallen niet te negeren. Hij verwacht dat deze in complexiteit en schaal zullen toenemen en zich de komende jaren zullen richten op bedrijven en individuen.
Hij voegt eraan toe: “Het is belangrijk om het personeel en het bredere publiek te leren dat zien niet altijd geloven is en dat we meer dan ooit 'het zekere voor het onzekere moeten nemen', aangezien het menselijke element [van AI] nog steeds op grote schaal wordt misbruikt. ”
Aviv Raff, CIO van Bloeibereik, is het eens met het belang van het voorlichten van individuen over de risico's die aan AI zijn verbonden en de stappen die zij kunnen nemen om deze technologie veilig te gebruiken.
Hij adviseert: “Voor bedrijven is het belangrijk dat ze beleid en standaarden introduceren die het acceptabele gebruik van AI aanpakken, training van werknemers organiseren over het juiste gebruik van AI, ervoor zorgen dat ze alleen privé-instanties van AI gebruiken die contractueel gebonden zijn, en zich afmelden voor het model training en gebruik het least privilege-principe om ongeoorloofde toegang te voorkomen. “
AI biedt enorme kansen voor de samenleving als geheel, maar brengt ook aanzienlijke ethische risico’s met zich mee. Het stimuleren van mondiaal begrip van deze risico’s en het tegengaan ervan is van cruciaal belang voor het realiseren van het enorme potentieel dat AI-technologie biedt.
Regelgeving zal een essentiële rol spelen in dit proces, maar het is duidelijk dat het naleven ervan een uitdagende taak zal zijn voor bedrijven. Bovendien moeten overheidsinstanties, naarmate de AI-technologie evolueert en er nieuwe risico’s ontstaan, hun regelgeving dienovereenkomstig aanpassen om ervoor te zorgen dat deze relevant blijft.










