September was een keerpunt voor voorstanders van AI-ethiek. De FTC uitgegeven Artikel 6(b) beveelt zeven grote techbedrijven die chatbots produceren om als companions te worden gebruikt. Dit is het eerste grote federale onderzoek dat specifiek gericht is op AI-companionchatbots die ontworpen zijn om menselijke eigenschappen, emoties en intenties na te bootsen. De FTC houdt zich niet in. Ze richt zich op enkele van de grootste AI-bedrijven. Alphabet, Meta Platforms, Instagram, OpenAI, Snap, Character Technologies en Elon Musks xAI kregen allemaal brieven.
De commissarissen stemden unaniem voor de besluiten, waarmee ze de bezorgdheid van beide partijen over AI onder de regelgeving aangaven. Ze gaven bedrijven 45 dagen de tijd om verschillende aspecten van hun AI-activiteiten toe te lichten, waaronder hoe ze gebruikersbetrokkenheid monetariseren, gebruikersinput verwerken, output genereren naar aanleiding van gebruikersvragen, en hun AI-personages ontwikkelen en goedkeuren. Ze moeten ook rapporteren over hoe ze negatieve effecten meten, testen en monitoren vóór en na de implementatie, en hoe ze deze negatieve effecten, met name voor kinderen, beperken.
In die rapporten wordt ook besproken hoe gebruikers en ouders worden geïnformeerd over mogelijke negatieve gevolgen, over hun gegevensverzamelings- en verwerkingspraktijken, en hoe ze persoonlijke informatie gebruiken of delen. Er is dus brede bezorgdheid over mogelijke schade aan de privacy en aan kwetsbare gebruikers.
Welke gevolgen heeft dit voor B2B-bedrijven?
We zijn zowel verbaasd als niet verbaasd dat de FTC dit doet. Aan de ene kant is de regering-Trump fel tegen regulering, vooral als het om AI gaat. Aan de andere kant hebben meerdere families rechtszaken aangespannen omdat ze beweren dat AI-chatbots tienerzelfmoord aanmoedigen. Kinderen zouden door AI-algoritmen die onverantwoordelijk functioneerden, zijn aangespoord om zelfmoord te plegen. Het is dus hoog tijd dat er iets aan gedaan wordt.
AI's die echter losjes omgaan met de emotionele toestand van kwetsbare mensen, roepen vragen op over mogelijke schade aan consumenten. Welke gevolgen kan dit hebben voor B2B-bedrijven?
Elke aanname dat B2B-organisaties de regelgeving voor AI op consumentniveau kunnen negeren is gevaarlijk. waarschuwde Mayer Brown, advocaten Christa Bieker en Christopher Leach in 2022. Artikel 5 van de FTC bevat geen expliciete beperkingen op wie als consument wordt beschouwd. De FTC heeft bijvoorbeeld handhavingsmaatregelen genomen tegen B2B-betalingsverwerkers en kredietverstrekkers voor kleine bedrijven.
Deze actie laat zien dat de FTC zich minder terughoudend zal opstellen dan sommigen van ons misschien dachten als het gaat om het aanpakken van de schadelijke gevolgen van AI.
In 2023 zei de toenmalige voorzitter Lina M. Khan: "Er is geen AI-uitzondering op de bestaande wetgeving, en de FTC zal de wet krachtig handhaven om oneerlijke of misleidende praktijken of oneerlijke concurrentiemethoden te bestrijden." Het valt nog te bezien hoeveel daarvan stand zal houden in de nieuwe regering, maar er is duidelijk nog steeds behoefte om bedrijven ter verantwoording te roepen.
Bedrijven die AI niet op de juiste manier inzetten, lopen het risico op ‘algoritmische onttrekking’
Het zal maar een treurig en zeldzaam iemand zijn die verliefd wordt op zijn chatbot voor debiteurenbeheer. Desondanks kan onverantwoord gebruik van AI nog steeds problemen opleveren voor B2B-bedrijven.
Zo heeft de FTC een algoritmische verwijderingsmaatregel ingevoerd waarmee bedrijven AI's kunnen verwijderen die zijn ontwikkeld met onrechtmatig verkregen gegevens. Deze maatregel is voornamelijk toegepast in consumentenzaken, maar zoals we hebben geleerd, kunnen bedrijven ook consumenten zijn.
Gebruik ISO 42001 om best practices te documenteren
Bedrijven kunnen maatregelen nemen om zichzelf te beschermen door ervoor te zorgen dat ze hun AI op verantwoorde wijze ontwikkelen en inzetten. Een van de krachtigste maatregelen is het documenteren van het feit dat je vanaf de basis verantwoord te werk gaat. ISO 42001, een internationale norm specifiek voor AIMS (Artificial Intelligence Management Systems), behandelt uitdagingen op het gebied van AI, waaronder ethiek, transparantie, continu leren, vooringenomenheid en verantwoording. Dit zijn precies de zorgen die de aanleiding vormen voor het onderzoek van de FTC.
Organisaties die deze standaard volgen, moeten bijvoorbeeld potentiële schade identificeren en documenteren vóór de implementatie, onevenredige gevolgen voor beschermde groepen beoordelen, risico's regelmatig opnieuw beoordelen en gedocumenteerde mitigerende maatregelen implementeren. Dat is precies wat de FTC van chatbotleveranciers eist.
Bijlage A.7 van ISO 42001 vereist eveneens documentatie van dataverzamelingsbronnen, inclusief transformatie, gebruik en opslag. Het behandelt datakwaliteitsbeheer, inclusief de impact van eventuele vertekeningen in het systeem.
Zelfs bedrijven die niet rechtstreeks met consumenten te maken hebben, doen er goed aan het huidige onderzoek van de FTC vanuit een B2B-perspectief te bekijken. Chatbots zijn niet alleen nieuwe interfaces voor bestaande bedrijfssystemen. Ze zijn veel krachtiger in het verzamelen en verwerken van data, en veel vloeiender en natuurlijker in hun taalgebruik. Dat creëert nieuwe manieren van interactie met zakelijke klanten en medewerkers.
Bevelen op grond van artikel 6(b) van de FTC geven geen aanleiding tot juridische stappen; het zijn hulpmiddelen om de kennis van de Commissie te verrijken. Als de Commissie echter niet tevreden is met de bevindingen, kunnen handhavingsmaatregelen volgen. En dat zou precedenten kunnen scheppen voor allerlei vormen van AI-gebruik tegen alle soorten consumenten (zelfs kleine bedrijven). In een onstabiel regelgevingslandschap waar beleidsmakers worstelen met nieuwe technologie, loont het om voorzichtig te zijn en controles in te voeren.










