Een recent incident heeft geleid tot zorgen over de manier waarop GenAI-tools met data omgaan. Is het tijd om ervoor te zorgen dat uw data niet in hun LLM's terechtkomt? Dan Raywood bekijkt de mogelijkheden.
Een wijs persoon zei ooit: wat je op internet zet, blijft op internet. Dat gold specifiek voor sociale media, met name Facebook.
In dit decennium draait het minder om het onthullen van content op sociale media en meer om wat je in Generative AI en Large Language Models (LLM's) stopt. Deze modellen bewaren, verwerken en bewaren die data om verzoeken en zoekresultaten gedetailleerder te maken.
Het vertrouwen in de veiligheid van GenAI werd echter in de zomer aan het wankelen gebracht toen duizenden van Grok chat-transcripties werden blootgelegd, wat aantoont hoe snel privé AI-gesprekken openbaar kunnen worden. Voor individuen kan dit gênant zijn. Voor bedrijven zijn de risico's veel groter, omdat klantgegevens, intellectueel eigendom of juridische strategieën openbaar worden gemaakt, met gevolgen variërend van reputatieschade tot boetes van toezichthouders.
Van chatbot naar zoekmachine
Think mediaberichtenElke keer dat een chat met de Grok-bot werd gedeeld, werd een unieke URL gegenereerd en beschikbaar gesteld aan zoekmachines. De meeste gebruikers wisten niet dat deze links automatisch werden geïndexeerd, wat betekende dat iedereen ze online kon vinden.
Damian Chung, Business Information Security Officer bij Netskope, vertelt IO dat hij denkt dat in dit geval alleen de chatgeschiedenis is blootgelegd, maar dat dit "behoorlijk zorgwekkend is, omdat je niet verwacht dat die AI-interacties openbaar worden gemaakt als je ze deelt."
Hij is echter van mening dat dit incident in ieder geval het bewustzijn over dit soort risico's vergroot, omdat "we niet kijken naar de veiligheidscontroles rond deze LLM's, dus je moet niet zomaar zomaar informatie daarin laten binnenkomen."
Voor bedrijven is de les duidelijk: zodra data uw omgeving verlaat, verliest u de controle erover. Zelfs ogenschijnlijk onschuldige uploads kunnen op een manier die u nooit had gewild, weer opduiken.
Schaduw-AI en het risico op lekken
Grok, een product van Elon Musks xAI-bedrijf en veelgebruikt op X, is nu een van de honderden beschikbare GenAI-diensten. Als je gesprekken kunt lekken waarvan de deelnemer dacht dat ze privé waren, of in ieder geval niet openbaar, wat hebben anderen dan in hun bezit dat gelekt of geschonden zou kunnen worden?
Chung zegt dat we nog in de beginfase van de ontwikkeling van GenAI zitten en dat het goed is om ons bewust te zijn van de risico's, zonder gebruikers af te schrikken.
Matt Beard, directeur cybersecurity en AI-innovatie bij AllPoints Fibre Networks, stelt het botweg: "Of het nu gaat om gevoelige of algemene gegevens, de dreigingen zijn in dat opzicht zeker reëel. Van onbedoelde openbaarmaking van klantgegevens tot het lekken van interne strategiedocumenten. De gevolgen kunnen variëren van reputatieschade tot boetes van toezichthouders."
Dit risico wordt versterkt door Shadow AI. Medewerkers die onofficiële tools gebruiken om hun productiviteit te verhogen, kunnen vertrouwelijk materiaal blootleggen zonder het te beseffen. Zodra informatie online is geïndexeerd, kan deze lang blijven bestaan nadat het oorspronkelijke gesprek is verwijderd.
Beleid, geen verbod
Eén aanpak is om de toegang tot AI-tools volledig te blokkeren, maar beveiligingsexperts waarschuwen dat dit ineffectief is. Zoals Chung opmerkt: "Als je dat doet, zal de gebruiker een andere manier vinden om het te gebruiken. Door het te blokkeren, krijgen we niet per se hetzelfde beveiligingsniveau als we denken te krijgen."
In plaats daarvan stellen experts voor om AI-gebruik mogelijk te maken met duidelijke regels en waarborgen. Beard zegt dat de balans ligt in "het creëren van een raamwerk van technische en gedragscontroles" om organisatiedata te beschermen. Het gaat erom "personeel de voordelen van veilig gebruik van deze tools te laten zien en ervoor te zorgen dat ze bedrijfsmatig aanvaardbare systemen beschikbaar hebben, want uiteindelijk zullen ze op zoek gaan naar een tijdelijke oplossing als dat niet lukt."
Angelo Rysbrack, specialist digitale verdediging bij Pronidus Cybersecurity, is het ermee eens dat de recente inbreuken het grootste risico voor bedrijven benadrukken: hoe medewerkers omgaan met deze AI-tools. Het uploaden van gevoelige of zelfs ogenschijnlijk onschadelijke gegevens kan snel leiden tot blootstelling. Zodra de gegevens uw omgeving verlaten, verliest u de controle erover.
Praktische oplossingen
Wat kunnen organisaties dan realistisch gezien doen om het risico op blootstelling te verminderen? De ISMS met wie ze spraken, waren het erover eens dat de oplossing ligt in het bouwen van gestructureerde, gelaagde verdedigingsmechanismen.
Rysbrack merkt op dat de meeste organisaties al een acceptabel gebruiks- of IT-beleid hebben, en dat dit het natuurlijke startpunt is. "Als de basis er is, bouw er dan op voort" in plaats van helemaal opnieuw te beginnen. Hij waarschuwt echter dat beleid op papier niet voldoende is en dat medewerkers vanaf het begin op de hoogte moeten worden gesteld van de regels en regelmatig aan hun verantwoordelijkheden moeten worden herinnerd.
Beard benadrukt de noodzaak om te focussen op het mogelijk maken van veilig gebruik binnen vastgestelde kaders: "We moeten AI omarmen vanwege de efficiëntie die het ons oplevert, maar dat betekent niet dat we het blindelings moeten omarmen. Het betekent het bouwen van een raamwerk van technische en gedragscontroles om onze data en onze mensen te beschermen.
Voor Rysbrack moeten deze controles praktische waarborgen omvatten: "Gebruik inhoudsfiltering, app-beveiligingsbeleid en preventie van gegevensverlies om te voorkomen dat gevoelige informatie de organisatie verlaat." In sommige gevallen kan het passend zijn om "risicovolle apps te blokkeren, maar bied medewerkers waar mogelijk veilige alternatieven."
Beard benadrukt hoe belangrijk het is om onderscheid te maken tussen goedgekeurde en niet-goedgekeurde AI-tools en om duidelijke verwachtingen te stellen aan werknemers: "Bovenal zou het beleid voor acceptabel gebruik duidelijk moeten verbieden dat informatie boven de classificatie 'Openbaar' wordt gedeeld met niet-goedgekeurde diensten."
Dergelijke maatregelen kunnen verder worden versterkt door ze te verankeren in erkende kaders zoals ISO 27001 voor informatiebeveiliging en ISO 42001 voor AI-governance. Dit draagt eraan bij dat beleid, monitoring en risicomanagement niet alleen consistent zijn, maar ook controleerbaar en verdedigbaar tegen toezicht door toezichthouders.
Deze combinatie van frameworks, technische beveiligingen en voortdurend gebruikersbewustzijn zorgt voor een cultuur waarin werknemers zowel de voordelen van AI-tools als de grenzen van veilig gebruik begrijpen.
Handel nu, wacht niet
Beard is er duidelijk over dat de tijd van aarzelen voorbij is en dat organisaties niet moeten wachten op een inbreuk, maar nu actie moeten ondernemen. "Maak duidelijke, aparte beleidsregels voor AI-gebruik en -ontwikkeling; zorg ervoor dat deze transparant worden gemonitord en train je mensen. Beschouw AI bovenal als een capaciteit die moet worden benut en niet als iets waar je bang voor moet zijn."
Chung is het ermee eens dat het blokkeren van elke nieuwe AI-toepassing niet realistisch is. Nu er al honderden beschikbaar zijn en er voortdurend nieuwe bijkomen, stelt hij voor dat organisaties lichtere interventies overwegen, zoals een 'coaching'-bericht voordat een GenAI-website wordt bezocht, om medewerkers eraan te herinneren goed na te denken over wat ze delen.
Rysbrack benadrukt dat de uitdaging is om een evenwicht te vinden in het beschermen van data zonder innovatie te ondermijnen. De beste resultaten worden bereikt door een combinatie van duidelijke regels, gebruikersbewustzijn, training en technische beveiliging. "Op die manier kennen medewerkers de grenzen, beschikken ze over de juiste tools en voorkomt de organisatie dat ze de volgende koploper wordt."
De echte les van Grok
Het Grok-lek is niet het eerste geval waarin door AI gegenereerde gesprekken online doorzoekbaar worden, en het zal ook niet het laatste zijn. De echte les voor bedrijven is dat vertrouwen in GenAI nooit vanzelfsprekend is.
Door nu beleid, technische beveiliging en bewustwording bij medewerkers te implementeren, kunnen organisaties de productiviteit van AI benutten en tegelijkertijd hun meest waardevolle data beschermen. Wachten op de volgende inbreuk is geen optie.










