
Hoe je schaduw-AI kunt temmen
Inhoudsopgave:
Herinner je je schaduw-IT nog? Het heeft een revolutionair nieuw broertje: schaduw-AI. Naarmate werknemers de tijdbesparende mogelijkheden van generatieve AI-modellen steeds meer waarderen, maken ze er massaal gebruik van op de werkvloer. Het probleem is dat ze niet altijd toestemming hebben.
Volgens de auteurs is schaduw-AI niet alleen een theoretisch probleem. AI-beveiligingsrapport 2025 van Check Point Research; het is er nu. AI-diensten zijn nu maandelijks actief in minstens de helft van de bedrijfsnetwerken, zo bleek uit het onderzoek. Tegelijkertijd, een ander rapport Cyberhaven Labs ontdekte vorig jaar dat het delen van gegevens met AI-tools in één jaar tijd, tussen maart 2023 en maart 2024, bijna vervijfvoudigde. Dat zou prima zijn als het gebruik volledig zou worden gesanctioneerd. Driekwart van het ChatGPT-gebruik op de werkplek vindt echter plaats via persoonlijke accounts die niet worden beperkt door de beveiligingsmaatregelen van het bedrijf, aldus Cyberhaven.
Werknemers zijn niet altijd discreet over wat ze met deze tools delen; bijna één op de vier geeft toe vertrouwelijke werkinformatie achter de rug van hun baas te delen. Check Point Research ontdekte dat 1.25% van alle prompts een hoog risico op lekken van gevoelige gegevens met zich meebracht, en nog eens 7.5% van de prompts potentieel gevoelige gegevens bevatte.
Volgens Cyberhaven varieert de informatie die in deze systemen terechtkomt van informatie over klantenservice (16.3%) tot broncodes, R&D-materialen en financiële documenten.
Incidenten uit de praktijk illustreren wat er op het spel staat. In april 2023 kondigde Samsung werd geconfronteerd met een grote verlegenheid toen ingenieurs broncodes van halfgeleiders en bedrijfseigen vergadernotities deelden.
Lopen mijn gegevens echt gevaar?
Bedrijven zouden kunnen denken dat hun data veilig opgeborgen is als deze in een AI-sessie terechtkomt, maar dat is niet altijd het geval. Er zijn verschillende lekvectoren. Veel AI-services gebruiken bijvoorbeeld expliciet invoergegevens voor modeltraining. Dat geldt bijvoorbeeld voor de gratis ChatGPT-versie van OpenAI en de gratis versie van Microsoft Copilot waarop deze is gebaseerd. Dit kan fragmenten van uw bedrijfsgegevens blootstellen aan andere gebruikers via de reacties van de AI.
Prompt Injection-aanvallen kunnen AI-systemen ertoe verleiden eerdere gesprekken of trainingsgegevens te onthullen, waardoor de AI zich in feite tegen zichzelf keert om informatie te verkrijgen die niet gedeeld mag worden. Deze aanvallen worden nu beschouwd als OWASP's grootste AI-beveiligingsrisico vanwege hun potentiële impact. Ze stellen aanvallers in staat AI-systemen te manipuleren door zorgvuldig geperfectioneerde prompts te creëren die gevoelige trainingsgegevens extraheren of veiligheidsmaatregelen omzeilen.
Datalekken bij AI-aanbieders zelf brengen blootstellingsrisico's met zich mee. Wanneer deze bedrijven worden gehackt, worden uw gevoelige prompts onderdeel van de gestolen dataset. OpenAI moest gebruikers in 2023 waarschuwen na een bug in de Redis-database. blootgestelde chats van sommige gebruikers met anderen. OpenAI staat nu onder bevel. om geen gebruikersquery's te verwijderen als onderdeel van een rechtszaak van de New York Times worden nu privégesprekken bewaard die kwetsbaar zouden kunnen zijn voor een succesvolle hack.
De herkomst en veiligheid van deze modellen zijn soms ook twijfelachtig. Nu er meer Chinese modellen beschikbaar zijn en diepe zorgen ten opzichte van de beveiliging van het Chinese model DeepSeek, is schaduw-AI een duidelijke en actuele bedreiging.
Het monitoren van schaduw-AI is moeilijk
Schaduw-AI kan gemakkelijk onder de radar blijven, vooral omdat deze diensten sneller worden gelanceerd dan IT-afdelingen ze kunnen evalueren. AI-mogelijkheden die in goedgekeurde applicaties zijn ingebouwd, zullen onzichtbaar zijn voor conventionele detectiesystemen en het kan lastig zijn om browsergebaseerde sessies te blokkeren. Blokkeerlijsten zijn mogelijk niet op de hoogte van alle AI-diensten, en in elk geval mogen sommige medewerkers ze wel gebruiken, terwijl anderen dat niet mogen. Daarnaast zijn er nog API-gebaseerde interacties en versleutelde communicatie om te overwegen.
Het temmen van het AI-beest
Gezien de belofte van AI voor een hogere productiviteit, lijkt het simpelweg volledig verbieden ervan contra-intuïtief. In plaats daarvan is het realistischer om AI zorgvuldig te benutten door AI-gebruiksbeleid te creëren, vooral gezien de bereidheid van werknemers om deze diensten te gebruiken. Een onderzoek van Software AG van afgelopen oktober gevonden dat bijna de helft van alle werknemers hun eigen AI-tools zou blijven gebruiken, zelfs als hun werkgever ze zou verbieden.
Tools zoals het AI Risk Management Framework van NIST bieden organisaties de mogelijkheid om de voordelen van AI te benutten en tegelijkertijd de risico's ervan te beperken. Het raamwerk van NIST hanteert een 'govern, map, measure, manage'-benadering, waarbij maatregelen onder elk van deze categorieën worden opgenomen om organisaties in staat te stellen een strategische aanpak te hanteren voor het beheer van het gebruik van AI door medewerkers. Het 42001:2023-raamwerk van ISO geeft ook aan hoe AI-managementsystemen binnen organisaties op verantwoorde wijze kunnen worden opgezet en onderhouden.
Veel van de principes die worden gebruikt om traditionele schaduw-IT te bestrijden, zijn hier ook van toepassing. Het opzetten van interne AI-appstores met goedgekeurde toolcatalogi kan gebruikers meer keuzemogelijkheden bieden en tegelijkertijd redelijke gebruiksbeperkingen handhaven. Dit geeft u ook meer grip op het opstellen van beleid voor acceptabel gebruik van AI, dat medewerkers vertelt welke soorten vragen wel en niet acceptabel zijn. Trainingsprogramma's voor medewerkers helpen deze beleidslijnen te verankeren en maken ze bovendien productiever door ze te vullen met slimme AI-usecases.
Voor sommige organisaties zal de overstap naar private AI-systemen die gebruikmaken van zelfgehoste, grote taalmodellen het risico van externe AI-toepassingen minimaliseren. Voor velen zal dat echter nog steeds een grote opgave zijn, die aanzienlijke expertise en een groot budget vereist.
Wanneer een nieuwe technologie mainstream wordt, willen werknemers er ongetwijfeld mee experimenteren. We zagen het met mobiele apparaten en later met de cloud. AI zal niet de laatste zijn. De sleutel is om een gastvrije en verantwoordelijke houding aan te nemen ten opzichte van technologiegebruik en hen weer bij de groep te betrekken.