Deepfake-technologie op basis van kunstmatige intelligentie (AI) is geen nieuw fenomeen. De term 'deepfake' wordt al sinds 2017 gebruikt om synthetische media te beschrijven, en er zijn veel voorbeelden van deepfakes op grote schaal gepubliceerd. Virale voorbeelden zijn onder meer een door AI gegenereerde video waarin Mark Zuckerberg spreekt over de snode kracht van Facebook, een TikTok-account gewijd aan het delen van deepfake-video’s van acteur Keanu Reeves, en zelfs een video van de Amerikaanse voorzitter van het Huis van Afgevaardigden, Nancy Pelosi, die is bewerkt om haar dronken te laten lijken. 

Deepfake-technologie blijft zich snel ontwikkelen en het is ingewikkelder dan ooit om te bepalen wat wel en niet echt is. Hebben deepfakes, nu de Britse algemene verkiezingen in aantocht zijn, de manier beïnvloed waarop kiezers naar politieke kandidaten kijken – en zelfs de manier waarop zij stemmen?

Deepfakes bij de Britse verkiezingen

Vorige maand werd op X (voorheen Twitter) een vervalste video vrijgegeven van Labour-politicus Wes Streeting, waarin hij naar verluidt collega-Labour-parlementslid Diane Abbott een ‘dwaze vrouw’ noemde. De BBC meldde dat de video en veel van de reacties op X afkomstig waren van een netwerk van accounts die clips van politici maken en delen en vervolgens misleidende reacties plaatsen om de indruk te versterken dat ze echt zijn. 

Heeft het netwerk tot doel de beoogde politici te ondermijnen en in diskrediet te brengen, hetzij voor politieke doeleinden, hetzij gewoon voor amusement? Uit het BBC-rapport bleek dat dezelfde accounts deepfake-clips plaatsten van Luke Akehurst van Labour en Nigel Farage van Reform UK, die het politieke spectrum van Groot-Brittannië bestrijken. In een niet-gerelateerde gebeurtenis gingen satirische deepfake-video's van de Britse premier Rishi Sunak onlangs ook viraal nadat hij voorstellen voor de National Service had aangekondigd. 

De impact van AI beperkt zich ook niet tot sociale media: er is zelfs een AI Onafhankelijke kandidaat genaamd AI Steve, een avatar van de echte zakenman Steven Endacott. 

Een onderzoek van YouGov ontdekte dat 43% van de Britten hun nieuws tijdens de algemene verkiezingen via sociale media haalt, na televisie (58%). In totaal haalt 77% zijn nieuws online. Dus hoewel veel toepassingen van deepfake-technologie onschadelijk en vermakelijk kunnen zijn, kunnen de gevolgen van video's zoals de clip van Wes Streeting politiek schadelijk zijn. Terwijl de Britten hun stem uitbrengen, zullen deepfakes voor sommigen waarschijnlijk hun stemkeuze beïnvloeden.

GenAI blijft ook bedrijven beïnvloeden

Bedreigingsactoren blijven zich ook richten op bedrijven en hun klanten. Vorige week ontdekte de Australische nieuwszender 7News dat zijn YouTube was gehackt door bedreigingsactoren, die het gebruikten om een ​​door AI gegenereerde video live te streamen waarin Elon Musk een cryptocurrency-zwendel aanprees. De Sydney Morning Herald meldde dat de deepfake kijkers aanmoedigde om een ​​QR-code van het merk Tesla te scannen en geld in het cryptocurrency-programma te storten om “hun crypto-activa te verdubbelen”. 

De hack laat zien dat bedreigingsactoren steeds slimmer worden in hun aanpak om bedrijven in gevaar te brengen om toegang te krijgen tot kritieke gegevens – en klanten. Het YouTube-kanaal van 7News heeft meer dan een miljoen abonnees, waardoor de oplichters achter de aanval het aanzienlijke publiek van 7News kunnen bereiken: CryptoNews meldde dat de livestream door ongeveer 60,000 kijkers werd bekeken en dat een andere gelijktijdige stream door ongeveer 45,000 mensen werd bekeken. 

Deepfakes stellen bedreigingsactoren ook in staat om zakelijke e-mailcompromisaanvallen (BEC) uit te voeren op organisaties, waarbij gebruik wordt gemaakt van door AI gegenereerde audio, beelden en video om senior personeelsleden na te bootsen. In april deelde LastPass mee dat a De bedreigingsacteur had zich voorgedaan als CEO Karim Toubba met behulp van WhatsApp, het sturen van telefoontjes, sms-berichten en voicemails naar een medewerker met een audio-deepfake. In dit geval heeft de medewerker het incident gemeld en is de dreiging door LastPass getemperd. Toch zijn er veel recente incidenten waarbij deze aanvalswijze succesvol is geweest en tot financiële verliezen heeft geleid.

Vooruitgang in AI-technologie leidt tot toenemende cyberdreigingen

AI wordt een steeds toegankelijkere technologie voor bedreigingsactoren, wat leidt tot een toename van aanvallen op individuen en bedrijven. Ons Rapport over de staat van de informatiebeveiliging heeft meer dan 1,500 professionals op het gebied van informatiebeveiliging ondervraagd en vastgesteld dat bijna een derde (30%) van de bedrijven in de afgelopen twaalf maanden te maken heeft gehad met een deepfake-aanval. 

De meerderheid van de respondenten (76%) is het er echter ook mee eens dat AI en machine learning (ML)-technologie de informatiebeveiliging verbeteren en nieuwe manieren bieden om beveiligingsmaatregelen te automatiseren, analyseren en verbeteren. 62% verwacht de komende twaalf maanden hun uitgaven aan AI- en ML-beveiligingstoepassingen te verhogen. 

Hoe kunnen we deepfake-incidenten aanpakken en voorkomen, nu AI-aangedreven technologie bedrijven zowel uitdagingen als ongelooflijke kansen biedt?

Het risico op deepfake-incidenten verminderen

Voor bedrijven zullen de opleiding en het bewustzijn van werknemers van cruciaal belang zijn om het risico op deepfake-incidenten te verminderen. Normen zoals ISO 27001, de internationale standaard voor informatiebeveiliging, bieden een raamwerk voor het bouwen, onderhouden en voortdurend verbeteren van een managementsysteem voor informatiebeveiliging (ISMS). Denk hierbij aan het implementeren van een informatiebeveiligingsbeleid, dat uw medewerkers begeleidt bij het melden van een vermoedelijk incident, zoals een BEC-aanval, via e-mail of in de vorm van een deepfake. 

Bij de Britse algemene verkiezingen moet het grote publiek waakzaam zijn bij de vraag of video’s en audiofragmenten die op sociale mediaplatforms worden geplaatst echt of gemanipuleerd zijn. Verschillende visuele en auditieve aanwijzingen kunnen helpen bij het identificeren van een deepfake. 

Visuele aanwijzingen zijn onder meer: 

  • Onnatuurlijke oogbeweging (of een gebrek aan oogbeweging)
  • Inconsequente gezichtsuitdrukkingen
  • Onsamenhangende of schokkerige lichaamsbewegingen
  • Tanden die er niet echt uitzien of de omtrek van individuele tanden ontbreekt
  • Vervagende of verkeerd uitgelijnde beelden. 

Auditieve aanwijzingen zijn onder meer:

  • Robotachtig klinkende geluiden
  • Audiostoringen 
  • Inconsistente audio
  • Vreemde uitspraken van woorden
  • Lipsynchronisatiefouten met discrepanties tussen gesproken woorden en lipbewegingen.

Bestrijding van de invloed van synthetische media

Het zal moeilijk zijn om de impact van door AI gegenereerde deepfakes op de Britse algemene verkiezingen te meten. Nu 43% van de Britten hun nieuws via sociale media haalt, zullen veel kiezers waarschijnlijk een vorm van synthetische media hebben gezien die verband houdt met een politieke partij – of ze zich daar nu van bewust zijn of niet. 

Gebruikers op X identificeren echter regelmatig potentiële deepfakes en waarschuwen andere gebruikers via de functie voor communitynotities. Het X-platform zelf heeft nu een gemanipuleerd mediabeleid waarin staat dat 'je geen synthetische, gemanipuleerde of buiten de context geplaatste media mag delen die mensen kunnen misleiden of verwarren en tot schade kunnen leiden'. Het account dat oorspronkelijk de door Wes Streeting gemanipuleerde video plaatste, is nu opgeschort, maar de impact ervan valt nog te bezien.

Nu het aantal deepfake-incidenten toeneemt, moeten bedrijven ook overwegen hoe hun beveiligingspositie kan worden verbeterd. Het ontwikkelen van een robuust ISMS in lijn met de ISO 27001:2022-standaard helpt organisaties hun verdediging tegen cyberdreigingen te versterken, het risico op succesvolle aanvallen te verminderen en ervoor te zorgen dat werknemers zich bewust zijn van hun rollen en verantwoordelijkheden op het gebied van informatiebeveiliging.