Zelfs toen we onze persoonlijke gegevens verloren, konden we altijd vertrouwen op ten minste één geheim: als we genoeg zelfbeheersing hebben, kunnen mensen nooit onze gedachten lezen. Wees er nu op voorbereid dat zelfs dat gaat veranderen.

Voor veel technologen is de laatste grens in de zoektocht naar persoonlijke informatie wat we voelen. Voor een marketeer of politicus kan het lezen van onze emoties het krachtigste zijn wat er is.

Leveranciers haasten zich om producten te ontwikkelen die precies dat kunnen. Sommigen stellen voor om technologie te gebruiken die gebruikmaakt van hersendata (een vakgebied dat bekendstaat als neurotechnologie). Apple heeft bijvoorbeeld gepatenteerde hersenlezing AirPods. Eerder dit jaar ontdekten onderzoekers van het Ulsan National Institute of Science and Technology (UNIST) in Zuid-Korea een gezichtsmasker gemaakt Ze beweren dat ze de onmerkbare gezichtsveranderingen van de drager kunnen analyseren om zo in real-time menselijke emoties te kunnen aflezen.

Sommige hebben geen nieuwe gadgets nodig om emoties te lezen; ze gebruiken gegevens van onze bestaande apparaten; al in 2018 stelde het Amerikaanse National Institute of Health gevonden dat smartwatch-gegevens stelden onderzoekers in staat om de emoties van de dragers met een behoorlijke mate van nauwkeurigheid te bepalen. Vandaag de dag, kinderziekenhuis Holland Bloorview's Hulst Het systeem gebruikt hartgegevens die worden verzameld via smartwatches en fitnesstrackers om de emoties van kinderen te bepalen. Deze gegevens worden vervolgens weergegeven in een app voor verzorgers.

Emotiescannende wearables hebben een positieve kant. Het onderzoeksproject van de University of West Scotland toepassingen een combinatie van gezichtsanalyse en gegevens van draagbare apparaten om de emoties van mensen met autisme te begrijpen. Voel therapieën biedt een draagbaar en back-end data-analysesysteem om emoties te analyseren voor medische behandelingen, waaronder therapieën voor geestelijke gezondheid.

Sommige initiatieven voor emotielezen richten zich op het welzijn van werknemers, vooral in beroepen met veel stress. Het Oscar Kilo-programma van de Britse politie heeft beproefd draagbare technologie om de emotionele toestand van agenten in bijzonder stressvolle posities te monitoren, zoals bij het gebruik van vuurwapens en bij onderzoeken naar kinderuitbuiting.

Privacy

Naast deze positieve toepassingen ziet Nita Farahany, Robinson O. Everett Distinguished Professor of Law & Philosophy aan de Duke Law School, ook een mogelijke keerzijde.

"De hersengegevens die deze apparaten verzamelen, worden niet verzameld in traditionele laboratoriumomgevingen of in klinische onderzoeken die worden uitgevoerd door artsen en wetenschappers", aldus zij. zei, sprekend op een TED-evenement.

"In plaats daarvan zullen het de verkopers van deze nieuwe apparaten zijn. Juist de bedrijven die onze data al jaren vermarkten," voegde ze toe. Ze betoogt dat deze data persoonlijker zal zijn dan de data die we in het verleden hebben gedeeld, omdat het het deel van onszelf vertegenwoordigt dat we normaal gesproken achterhouden.

De Neurorights Foundation, een non-profitorganisatie met haar oorsprong aan de Columbia University, richt zich op het beschermen van mensenrechten tegen mogelijk misbruik van neurotechnologie. In april 2024 publiceerde ze een rapport genaamd Het beschermen van hersengegevens: het beoordelen van de privacy-praktijken van bedrijven die consumentenneurotechnologie bedrijven. Het beoordeelde 30 bedrijven die niet-medisch gecertificeerde consumentenapparaten aanbieden die neurale data verzamelen en ontdekte dat 29 "blijkbaar toegang hebben tot de neurale data van de consument en geen zinvolle beperkingen opleggen aan deze toegang." Het voegde toe dat het beleid van die bedrijven hen in staat stelde om data te delen met derden.

Van data-analyse naar afstandsbediening

Wat zijn de mogelijkheden als bedrijven beter worden in het lezen en registreren van emoties? Aan het alledaagse einde van het spectrum zou het begrijpen van wat mensen opwindt of verveelt taken als het splitsen van verschillende websiteontwerpen kunnen versnellen. Interessanter is het vermogen om een ​​diepgaand persoonlijk beeld te helpen vormen van iemands interesses, dat veel verder gaat dan het bijhouden van wat ze online bekijken.

Bedrijven kunnen proberen om data te gebruiken bij het nemen van commerciële beslissingen. Een zorg- of levensverzekeringsmaatschappij kan bijvoorbeeld uw emotionele staat overwegen bij het beoordelen van uw geschiktheid voor een polis.

Misschien is een van de meest huiveringwekkende scenario's het idee van emotionele feedbackloops. Als je dacht dat een bedrijf je social media posts voedt op basis van waar je op klikt, eng was, stel je dan eens voor dat het je druppelsgewijs content voedt op basis van hoe het weet dat je je voelt. Facebook al geëxperimenteerd met het doelbewust manipuleren van de emoties van mensen via sociale media, meer dan tien jaar geleden.

Deze emotionele lussen kunnen verwoestend zijn. Naarmate technologie zich ontwikkelt om persoonlijker te lijken, wordt het vermogen om emoties te beïnvloeden net zo krachtig als het vermogen om ze te detecteren. We hebben al gezien beschuldigingen van generatieve AI-producten die bijdragen aan zelfmoorden.

Wettelijke bescherming

Sommige wetten zouden door toezichthouders kunnen worden ingeroepen om overschrijdingen te voorkomen. Hoewel weinig bedrijven die in het rapport van de Neurorights Foundation zijn geanalyseerd, expliciet hersengegevens als persoonlijke informatie erkennen, hebben advocaten stel dat het onder bepaalde consumentenprivacyregelgeving, zoals de AVG, duidelijk in deze categorie zou vallen. De AI-wet van de EU reguleert ook expliciet het gebruik van door AI aangestuurde systemen die biometrische gegevens gebruiken voor emotionele herkenning, en verbiedt ze in sommige omgevingen ronduit en categoriseert de systemen die wel zijn toegestaan ​​als systemen met een hoog risico en met strikte wettelijke vereisten.

De jammerlijk slechte federale privacybescherming in de VS biedt privacy-advocaten niet dezelfde troost, maar staten doen hun best. Sommige kunnen emotie-lezende wearables misschien aanpakken onder bestaande consumentenprivacywetten, terwijl andere overgaan op het uitsluiten van hersengebaseerde data. In februari heeft Colorado een Bill expliciet neurale data beschermen. Californië heeft zijn eigen Bill in oktober. Een andere manier zou kunnen zijn om emotionele data te classificeren als biometrisch.

Het werk aan wearables voor emotionele detectie gaat onverminderd door en de markt groeit snel. Technologie voor emotionele herkenning was $23.5 miljard waard in 2022 en zal in 42.9 $ 2027 miljard bereiken - een CAGR van 12.8% over vijf jaar. Er staat veel geld op het spel. Daarentegen staat het juridische en ethische werk op dit gebied nog in de kinderschoenen. Het behandelen van neurale en emotionele gegevens als persoonlijke gegevens - of als speciale categoriegegevens met extra bescherming - is op korte termijn een slimme zet, ongeacht of toezichthouders het probleem hebben getest of niet. Met iets dat zo krachtig is, geldt: hoe meer voorzichtigheid, hoe beter.