Afgewezen door een robot

Accepteer je een afwijzing van een sollicitatie op basis van een voorspellend algoritme? Nee, zegt 78 procent van de ondervraagden in een enquête van iBestuur. Werving en selectie van personeel was aanvankelijk hoofdzakelijk mensenwerk, maar nieuwe technologieën nemen veel taken over. Zo propageert internetbedrijf Google al sinds 2015 het wervings- en selectiebeleid primair te baseren op harde data, analytische tests en algoritmen.

Op termijn zal deze markt voor werving en selectie worden gedomineerd door internetplatforms, zoals LinkedIn en Facebook. Het proces tussen bedrijven en werkzoekenden wordt dan volledig geautomatiseerd. De platforms hebben nu al de vacature- en talentenmarkt, die voorheen was voorbehouden aan professionele recruiters, online toegankelijk gemaakt. Bedrijven worden daardoor overspoeld met sollicitaties. Met behulp van algoritmes kunnen platformbedrijven vervolgens ook de werving en selectie overnemen. Moeten we vrezen dat de personeelswervingsdienst in navolging van hotels en taxi’s ook wordt ‘geuberiseerd’? Dit staat en valt bij de betrouwbaarheid van de algoritmes en het vertrouwen dat bedrijven en werkzoekenden daarin hebben.

Een onderzoeker van Erasmus Universiteit ontwikkelde een algoritme om CV’s te selecteren op basis van big data. Hij analyseerde bijna een half miljoen CV’s van echte kandidaten en informatie over het verloop van hun sollicitaties. De software die hij ontwikkelde scande de CV’s op basis van een aantal variabelen in relatie tot het besluit over het wel of niet uitnodigen van de kandidaat voor een eerste gesprek. Met die kennis ontwikkelde hij een algoritme dat met een nauwkeurigheid van 80 procent kan voorspellen welke CV’s door recruiters zal worden geselecteerd. Die betrouwbaarheid kan nog verder worden verhoogd, maar het is de vraag of de kwaliteit en objectiviteit van de selectie daardoor toeneemt. Persoonlijke waardeoordelen zijn namelijk vervat in het algoritme.

Het Chinese bedrijf Seedlink presenteert een aanpak waardoor de selectie van kandidaten eerlijker moet verlopen zonder te kijken naar leeftijd, geslacht of achtergrond. Zij selecteren met een algoritme personeel voor multinationals. Op basis van kunstmatige intelligentie ontwikkelen zij drie dominante open vragen op basis van de competenties die het bedrijf van de nieuwe werknemer wenst, zoals probleemoplossend vermogen of creativiteit. Die vragen worden vervolgens door de medewerkers van het bedrijf beantwoord. Op basis van de antwoorden wordt een model gemaakt dat de verschillen tussen de beste en de minder goed presenterende werknemers weergeeft. Met behulp van een voorspellend algoritme komt het toptalent dan bovendrijven.

De CV’s en persoonlijk gesprekken verliezen aan belang bij werving van talent. Bedrijven willen uit een grote vijver van kandidaten kunnen vissen. Sommige bedrijven laten een grote groep kandidaten daarom eerst online assessments uitvoeren. Dat bespaart bedrijven, die voorheen honderden CV’s moesten scannen in hun zoektocht naar talent, veel tijd. De kandidaten doen nu thuis achter de PC online toetsen. De programma’s zijn zodanig ontwikkeld dat kandidaten zich niet beter kunnen voordoen zonder door de mand te vallen. De computer meet onder meer concentratie, intelligentie en risicogedrag. Een algoritme berekent daarna of een kandidaat geschikt is voor de functie. Een autoverkoper mag zich bijvoorbeeld risicovoller gedragen dan een boekhouder.

Een robot beslist uiteindelijk wie door mag naar de volgende ronde. Op basis van een algoritme wordt iedere aarzeling, woordkeuze of gezichtsuitdrukking meegewogen. De robot voorspelt of de kandidaat oprecht is en de waarheid spreekt. Op basis daarvan kunnen sollicitanten worden afgewezen als ze niet passen in het gewenste profiel. Ondanks uitgebreide rapportages met beoordeling per competentie hebben bedrijven het nodige uit te leggen als kandidaten afvallen op basis van een computertest. Algoritmes kunnen beter dan mensen voorspellen wie geschikt is voor een baan. Afwijzen blijft mensenwerk.

(De uitkomsten van de enquête worden bekendgemaakt tijdens de ronde tafel-bijeenkomst Computer says no! op 17 september.)

Robot neemt het stuur over

Stel, je rijdt over een bergpas en plotseling steken twee kinderen de weg over nét wanneer je de bocht om komt. In een flits moet je besluiten de kinderen aan te rijden (met mogelijk twee slachtoffers die het gevaar veroorzaakten) of jezelf in het ravijn te storten (met inzittenden als slachtoffer). Spaar je het leven van de kinderen of offer je jouw leven?

Dergelijke keuzes moeten wij in een split second nemen op basis van onze eigen waarneming en inschatting in de context van een specifieke situatie. Een zelfrijdende auto kan op basis van algoritmen betere keuzes maken. In milliseconden kunnen zo verschillende scenario’s worden doorgenomen, waarbij de situatie van meerdere auto’s kan worden meegenomen. Alleen moeten wij software dan wel zo programmeren dat de gewenste keuze wordt gemaakt bij ethische dilemma’s. Wat zijn die gewenste keuzes? Wij vroegen het in een enquête van iBestuur. Tweederde van de respondenten geeft aan zichzelf op te offeren als de keuze gemaakt moet worden tussen overstekende mensen op het zebrapad of het betonblok.

Onderzoekers van de Universiteit van Osnabrück deden een virtual reality-studie naar de keuzes die mensen maken bij dit soort verkeersdilemma’s. Deelnemers kregen een Oculus Rift-bril op en maakten in een virtuele realiteit keuzes bij verkeersscenario’s. De uitkomst van het onderzoek wees uit dat een mens meer waard is dan een dier. De hond heeft de hoogste waardering onder de dieren. Bij mensen worden mannen sneller geofferd dan vrouwen en ouderen eerder dan jongeren. Daarnaast heeft ook de reactiesnelheid invloed op de keuze. Is die tijd korter dan een seconde dan zijn bestuurder niet meer geneigd van baan te veranderen. Een meerderheid van de participanten kiest voor een altruïstische benadering gericht op het beperken van het aantal slachtoffers, ook als dit ten koste gaat van inzittenden in de eigen auto.

Vorig jaar kwamen 613 mensen om het leven in het verkeer (waaronder 201 automobilisten, 206 fietsers, 58 voetgangers, 51 motorrijders, 46 brom- en snorfietsers en 25 bestuurders van gemotoriseerde invalidevoertuigen). Door de komst van de zelfrijdende auto zal het autoverkeer bijna even veilig worden als het reizen met de trein. Op termijn komen er auto’s die onderling met elkaar in verbinding staan en als konvooien dicht op elkaar kunnen rijden. Vooralsnog moeten we het doen met adaptieve cruise control die de snelheid bepaalt op basis van de afstand tot de voorganger. In een volgend level kunnen auto’s zelfstandig de rijbaan volgen en automatisch afremmen voor voetgangers. De nieuwe Audi A8 behoort tot level 3 en kan onder bepaalde omstandigheden volledig automatisch rijden.

Vanaf level 4 rijdt de auto volledig zelfstandig. Eerst nog in een afgeschermd gebied en vaste routes, bijvoorbeeld voor robottaxi’s waar volop mee wordt geëxperimenteerd. Vanaf level 5 is de auto volledig de baas en beslist in noodsituaties over leven of dood. Bij simulaties gaven deelnemers aan voorstander te zijn van het opofferen van passagiers als er daardoor minder slachtoffers vallen. Tenminste, behalve als zij zelf de bestuurder zijn. Is dat wel het geval, dan wint egoïsme het wellicht toch van altruïsme. Met een robot aan het stuur hebben we daar in ieder geval geen last van.

Computer Says No

In veel grote organisaties regeert de computer. Het zijn telecomaanbieders, verzekeraars en overheden die hun medewerkers slaafs taken met behulp van de computer laat uitvoeren. Meedenken met de klant is niet nodig, want de computer heeft altijd gelijk. De Britse comedy serie Little Britain steekt daarmee de draak. Een moeder meldt zich met haar dochtertje bij de balie van het ziekenhuis voor het verwijderen van de amandelen bij het meisje. De receptioniste kijkt op haar scherm en zegt: ‘Computer Says No’. Het meisje staat in het systeem ingeboekt voor een dubbele heupoperatie. ‘Wil je die?’ vraagt de receptioniste. Natuurlijk wil ze die niet, maar de amandeloperatie zit er niet in: ‘Computer Says No’.

Door voortschrijding van de technologie gaat de receptioniste achter een beeldscherm snel verdwijnen. Balie- en helpdeskmedewerkers maken op termijn plaats voor een virtuele assistent voor klantenondersteuning. Die werkt 24 uur per dag en kan oneindig veel klanten tegelijk helpen. Dankzij kunstmatige intelligentie gedraagt de virtuele assistent zich steeds menselijker, toont inlevingsvermogen en denkt met de klant mee. Het Amerikaanse bedrijf IPSoft gaf haar virtuele assistent ‘Amalia’ een menselijk gezicht. De digitale wereld verovert steeds meer terrein op de fysieke wereld. Zelf zijn we met onze smartphones en waerables ook continu aangesloten op die digitale wereld.

Mijn sporthorloge meet 24 uur per dag mijn hartslag en activiteit. Dit gebruik ik zelf als ondersteuning bij het sporten en fit te blijven. Wat zou ik van vinden om deze gegevens te delen met een arts die mijn gezondheid dan continu kan bewaken? Sta ik de informatie af aan mijn zorgverzekeraar om mijn premie en risicotoeslag te bepalen? Wat doe ik als mijn zieke moeder wordt ontslagen uit het ziekenhuis en haar toestand voortaan op afstand wordt bewaakt op basis van een slimme pleister die vitale functies kan meten? Door voortschrijdende technologische ontwikkelingen worden we steeds meer voor ethische afwegingen geplaatst. Op basis van de informatiesporen die wij achter laten en alom aanwezige camera’s worden wij bespied en op basis van slimme algoritmen gemanipuleerd zonder dat in de gaten te hebben. Zonder dat we het door hebben worden taken van mensen overgenomen door robots. We bellen naar de helpdesk en worden geholpen door een robot. Een rechterlijke uitspraak of beoordeling van onze sollicitatiebrief wordt achter de schermen door een robot afgehandeld. Moeten we dan ook verhaal halen bij de robot als we het er niet mee eens zijn? Aan de andere kant kunnen de robots ook veel gemak geven, bijvoorbeeld voor uitvoering van zorgtaken of zelfrijdende auto. Dan vertrouwen we op de juiste beslissingen van de robot. Als de auto moet kiezen tussen fatale botsing tegen betonblok of doodrijden van overstekende mensen, welke keuze moet de auto dan van jou maken? Waar ligt de grens? Welke afweging maak je tussen bijvoorbeeld veiligheid en privacy of terrorismebestrijding en digitale veiligheid? Wat vind je nog ethisch verantwoord?

De voortschrijding van de technologie brengt een aantal van dit soort ethische dillema’s met zich mee. Trek je ergens een grens of accepteer je digitalisering als een soort natuurverschijnsel waarop je geen invloed hebt? Waar trek jij de grens? Is het ‘Computer Says No!’, of zeg je ‘Ho!’?

Op basis van deze test meet je jouw houding ten opzichte van enkele dilemma’s.

Overige publicaties over ethische dilemma’s en technologie
eHaelth Continue gezondheidsmonitor
Overheidsregistraties Een systeem leeft niet
Gezichtsherkenning Orwells 1984 nabij
Ongewenste reclame Nationale Postspam Loterij
Smart Cities Nudge de overheid
Veiligheidsdiensten Behoorlijk goede privacy
Werving en selectie Afgewezen door een robot
eCourt Transparante robotadviseur
Zelfrijdende auto Robot neemt het stuur over

 

Behoorlijk goede privacy

In 2016 kreeg de politie via Canada een bestand met 3,6 miljoen berichten in handen. Die berichten waren via 40.000 smartphones met pgp-versleuteling verstuurd. De politie wist de encryptie ongedaan te maken en kreeg zo inzicht in de communicatie binnen een crimineel netwerk. De rechtbank stond de ontsleutelde berichten vervolgens toe als bewijs in een rechtszaak tegen een crimineel. Verwacht mag worden dat het Openbaar Ministerie in de toekomst vaker berichten uit pgp-telefoons zal gaan gebruiken als bewijs tegen criminelen. De jacht op encryptiesleutels is geopend.

Tot twee jaar terug waren online berichtendiensten zoals Whatsapp een belangrijke bron voor politie en inlichtingendiensten. Via chatapplicaties konden zij veel te weten komen over activiteiten van criminelen en terroristen. Na de onthullingen van Snowden hebben technologiebedrijven hun diensten beveiligd met end-to-end encryptie. Dit heeft de veiligheidsdiensten de mogelijkheid ontnomen om het berichtenverkeer af te luisteren.

AIVD-baas Bertholee pleitte vergeefs voor een achterdeurtje voor de veiligheidsdiensten om de versleuteling te kunnen omzeilen. De FBI ving bot bij Apple bij verkrijgen van toegang tot de iPhone 5C van de San Benardino-schutter. Een externe partij moest er aan te pas komen om het apparaat te hacken. De Russische geheime dienst FSB eiste vrijgave van de encryptiesleutels van Telegram. Telegram weigerde dit te doen met als argument dat daardoor de privacy van gebruikers zou worden geschonden. De Russische autoriteiten blokkeerden vervolgens het gebruik van de chatapp in het hele land. Tussen de 10 en 15 miljoen gebruikers in Rusland kunnen de dienst nu niet goed meer gebruiken.

Door de versleuteling van berichten van chatapps is het voor de veiligheidsdiensten moeilijker geworden inzicht te krijgen in de communicatie van terroristen. Na inwerkingtreding van de nieuwe Wet op de inlichtingen- en veiligheidsdiensten (Wiv) kan de AIVD nu wel met kabelgebonden interceptie inzicht krijgen in de metadata over de communicatie. Ze kunnen zien wie met wie praat, zonder de inhoud van die communicatie zien. Het levert bijvoorbeeld informatie over gebruikte nummers of IP-adressen, de start- en eindtijd van de communicatie en gebruikte communicatiemiddelen.

Voor informatie over de inhoud van de berichten moeten de veiligheidsdiensten door de beveiliging heen zien te breken. De Wiv biedt hiertoe uitgebreide hackbevoegdheid om binnen te dringen op apparatuur en netwerken. Daarbij moeten de diensten veelal gebruik maken van onbekende kwetsbaarheden in de beveiliging. Die kwetsbaarheden hoeven de diensten niet te melden aan de leveranciers en ontwikkelaars van software en apparaten. Het geheim houden van die informatie vergroot de kans op uitlekken daarvan en gebruik door buitenlandse inlichtingendiensten en cybercriminelen. Bedrijfsgegevens en privégegevens kunnen daardoor in verkeerde handen vallen. Dit is schadelijk voor economische veiligheid en privacy van burgers. Schade die mogelijk terrorismedreiging kan overstijgen. PGP-versleuteling staat voor Pretty Good Privacy. Die beveiliging biedt inmiddels geen volledige garantie.

Een systeem leeft niet

Dankzij geautomatiseerde systemen kan de Belastingdienst efficiënt en rechtmatig belastingen innen. De ICT is ook niet meer weg te denken bij de uitvoering door gemeentes en uitkeringsinstanties. Data staan centraal als de besluiten zijn geautomatiseerd. De mens verdwijnt daardoor naar de achtergrond. Kunnen geautomatiseerde registraties altijd leidend zijn in beslissingen die de overheid neemt?

Dat overheidsregistraties leidend zijn heb ik zelf mogen ervaren bij het aantekenen van bezwaar tegen mijn registratie bij de SVB. Als minderjarige woonde ik bij mijn ouders in Brussel. Na mijn middelbare schooltijd verhuisde ik voor studie naar Delft. Een jaar later verhuisden ook mijn ouders naar Nederland. De SVB gaat nu uit van de verhuisdatum van mijn ouders. Daardoor kan ik worden gekort op mijn AOW. De registratie van mijn buitenlands verblijf wordt niet aangepast op basis van systeemcontrole van de BRP. Dit probleem kan ik mij zelf aanrekenen, want ik  ben de bron van deze onjuiste registratie. Nadat ik op kamers ging wonen, had ik mij natuurlijk direct moeten aanmelden bij de gemeente voor inschrijving in de bevolkingsadministratie. Als achttienjarige had ik moeten weten dat een verlate inschrijving vijftig jaar later consequenties zou kunnen hebben voor de hoogte van mijn AOW-uitkering.

Veel gecompliceerder is het voor iemand die zich graag wil inschrijven bij de gemeente, maar de gemeente kan die inschrijving niet in behandeling nemen. Bijvoorbeeld van een dakloze die zich wil aanmelden als woningzoekende. De woningbouwvereniging stelt hiervoor de eis dat iemand inkomsten heeft. De gemeente verstrekt pas een bijstandsuitkering als de aanvrager staat ingeschreven. Echter, die inschrijving kan de gemeente niet doen omdat de dakloze nog geen woning in de gemeente heeft. De Nationale ombudsman krijgt regelmaat klachten van mensen die zich niet kunnen inschrijven en daarmee worden uitgesloten van zorg, steun of andere voorzieningen.

Mensen kunnen ook in de knel komen door fouten die de overheid maakt, bijvoorbeeld door verkeerde invoer van gegevens of onjuiste koppelingen. Dergelijke fouten kunnen gevolgen hebben voor uitkeringen, toeslagen of boetes. Het rechtzetten van gemaakte fouten is in praktijk een moeizaam proces, waarbij de bewijslast bij de burger lijkt te liggen. Betrokkenen hebben vaak geen weet van de oorzaak van de problemen en kunnen onverwacht slachtoffer worden van foutieve registratie.

Bekendste voorbeeld hiervan is de zaak Dolmatov. Deze Russische activist hing zichzelf begin 2013 op in zijn cel in een detentiecentrum in Rotterdam. Zijn asielaanvraag in Nederland was afgewezen en hij zou naar Rusland worden uitgezet. Dit besluit was gebaseerd op de indicatie ‘uitzetbaar in Nederland’ in het computersysteem. Als status van de vreemdeling was in het systeem automatisch het veld ‘verwijderbaar’ aangevinkt. Dit had niet gemogen, want er liep nog een beroepsprocedure. Door fouten in de registratie en gebrekkige communicatie in de vreemdelingenketen werd Dolmatov ten onrechte in bewaring gezet en kreeg hij niet de juiste rechtsbijstand en zorg. De Inspectie oordeelde hard over de zaak Dolmatov: “Het onzorgvuldig handelen van de Nederlandse overheid is niet alleen toe te schrijven aan het handelen of nalaten van functionarissen, maar ook aan de afhankelijkheid van – en het vertrouwen in – de systemen, procedures en formulieren die die functionarissen bij hun besluiten in die keten ondersteunen.” Als gevolg van deze analyse is er daarna fors gesleuteld aan de systemen en koppelingen binnen de vreemdelingenketen.

Het ligt voor de hand in cruciale gevallen niet langer blind te varen op systemen  en meer aandacht te schenken aan de menselijke kant van de zaak. De Nationale ombudsman stelt terecht dat het perspectief van de burger geborgd moet worden in alles wat de overheid doet. De overheid moet minder vanuit het systeem denken en meer de burger als uitgangspunt nemen. Een mens leeft, een systeem niet.

Continue gezondheidsmonitor

Er kleven ethische dilemma’s aan nieuwe innovatieve technologische ontwikkelingen in de gezondheidszorg. Inmiddels kunnen we 7 x 24 uur vitale functies van de mens meten. Mooi in theorie, maar kunnen patiënten en verpleegkundigen in de praktijk vertrouwen op sensoren die continu de toestand van een mens kunnen meten en rapporteren?

Verplaats je in het volgende toekomstscenario van patiënt Jan. Hij is een ICT’er  van middelbare leeftijd, gewend aan het werken onder grote prestatiedruk. Hij is topfit en kerngezond, maar heeft structureel een verhoogde bloeddruk. Omdat dit een risicofactor is voor hart- en vaatziekten heeft de huisarts Jan uit voorzorg continue gezondheidsmonitoring voorgeschreven. Dit belemmert hem niet om fanatiek te sporten. Als Jan op zijn racefiets door de duinen raast voelt hij zich vrij en gelukkig. Zo ook op die zonnige ochtend in mei, maar het fietsen gaat nu minder soepel dan gewoonlijk. Bovenop de duin valt hij bijna stil. Hij schakelt een tandje terug en grijpt naar zijn achterzak voor een hap van een krachtreep. Het is een kwestie van door de vermoeidheid heen trappen, denkt hij nog, totdat zijn smartphone het alarmsignaal geeft. Hij stapt af, valt en verliest zijn bewustzijn. Kort daarop ontvangt Ruud een reanimatie oproep op zijn mobiel. Hij is als vrijwilliger aangesloten bij hartveilig wonen en oefent jaarlijks de reanimatieprocedure. Ruud stapt van zijn fiets en ziet in het sms-bericht dat hij niet ver van het incident vandaan is. Hij bevestigt zijn vertrek naar het slachtoffer. Google maps navigeert hem daar binnen één minuut naar toe. Ruud ziet Jan liggen, legt hem in een veilige positie, controleert de ademhaling en start reanimatie. Even later arriveert een andere opgeroepen vrijwilliger met een AED. Zij volgen samen de instructies van de alarmcentrale via hun mobiel en bedienen de AED. Binnen vijf minuten arriveert een ambulance. Verplegers nemen de zorg voor Jan over. Voordat hij bij het ziekenhuis arriveert is hij weer bij kennis. Door snelle en automatische melding van de gezondheidstoestand en mobilisatie van hulpverleners is Jan’s leven gered.

Tot zover de happy flow. Dit toekomstscenario is nu al grotendeels technisch te realiseren. De inzet van vrijwilligers die via hun mobiel oproepbaar zijn voor reanimatie werkt al in veel plaatsen in het land. Het is alleen nog een kwestie van opschaling, training van vrijwilligers en plaatsen van meer AED’s. Slimme horloges en smartphones meten al continu lichaamsfuncties. De wearables zijn ook in de gezondheidszorg in opkomst en kunnen binnenkort veel bewaking, die nu standaard in een ziekenhuis gebeurt, overnemen.  Slimme pleisters kunnen al enkele dagen continu vitale waarden meten. Een onderhuidse sensor kan tot 90 dagen achtereen glucosewaarden meten. Het wachten is nu op een sensor die continu en langdurig alle vitale lichaamsfuncties kan monitoren.

Techbedrijven, zoals Philips en KPN, zetten vol in op het medische domein. Het is voor hen een belangrijke groeimarkt. Platformbedrijven zoals Google, Amazon en Apple beschikken straks over veel medische informatie. Data zijn onderdeel van hun verdienmodel. Het gevaar dreigt dat de gezondheidszorg wordt overspoeld door technologische ontwikkelingen.

Er blijven nog veel vragen onbeantwoord over de meetbare mens. Hoe betrouwbaar zijn de data? Wie heeft de controle? Waarvoor wordt de data gebruikt? Komen de gegevens enkel de patiënt ten goede of kunnen ze ook worden gebruikt voor profiling (bijv. door verzekeraars)? Moeten we privacy inruilen voor proactieve zorg op basis van 7 x 24 uurs monitoring? Als wij door inzet van technologie levens willen redden, dan moeten we antwoord hebben op deze vragen en obstakels wegnemen.

Transparante robotadviseur

Zelfdenkende robots moeten de mensheid een flinke stap voorwaarts brengen. We worden er nu al mee geconfronteerd. De spraak assistent van onze mobiel is daar een goed voorbeeld van. Via stemcommando’s kunnen wij onze smartphone allerlei taken laten uitvoeren. Robots kunnen veel taken van de mens overnemen (zoals het besturen van onze auto) en beïnvloeden ons gedrag zonder dat wij ons daar bewust van zijn.

Robots kunnen reageren op het gedrag van mensen op basis van de digitale sporen die wij achter laten. Via ons online klikgedrag, sociale media, smartphone, activiteiten trackers en apparaten met sensoren produceren wij een grote hoeveelheid data in verschillende verschijningsvormen. Met machine learning kunnen computermodellen op basis van zelflerende algoritmes steeds beter onze persoonlijkheid voorspellen. Dat kan zelfs op basis van simpele Facebook likes. Vanaf 70 likes kent Facebook je beter dan je vrienden.

Drie onderzoekers in de Verenigde Staten ontwikkelden een algoritme waarmee iemands persoonlijkheid kan worden voorspeld op basis van Facebook likes of Twitter berichten. Het algoritme voorspelt de scores op basis van de Meyers-Briggs Type Indicator (MBTI) en de Big Five persoonlijkheidstheorie. Deze Big Five theorie beschrijft iemands persoonlijkheid in de volgende dimensies: extraversie, vriendelijkheid, emotionele stabiliteit, ordelijkheid en openheid. Per dimensie kun je hoog, laag of ergens daar tussenin scoren. Een gedetailleerd overzicht van jouw persoonlijkheid kun je op basis van Facebook of Twitter likes en berichten laten voorspellen met deze Facebook and Twitter Prediction tool.

Ik testte de tool uit. Op basis van 3.232 twitterberichten kreeg ik binnen een paar seconden een uitgebreid rapport over mijn persoonlijkheid. De scores van de Big Five en MBTI zijn vrijwel identiek met de uitslagen van testen die ik bij psychologische testen op basis van vragenlijsten heb gedaan. Met het voorspellen van mijn geslacht heeft het computermodel meer moeite: ‘Your digital footprint is fairly androgynous; it suggests you’re probably Male but you don’t repress your feminine side’. Het voorspellen van mijn leeftijd blijkt ook een moeilijke opgave: ‘Your digital footprint suggests that your online behaviour resembles that of a 25-29 years old’. De modellen pretenderen niet de absolute waarheid te voorspellen; zij rapporteren met een zekere waarschijnlijkheid.

Zolang wij die analyses zelf onder ogen krijgen en kunnen relativeren is er niets aan de hand. Het wordt een ander verhaal als bedrijven en overheden er mee aan de haal gaan. Zo kondigde Facebook CEO Zuckerberg aan dat zijn bedrijf met behulp van Artificiële Intelligentie privéberichten gaat analyseren om terroristische activiteiten op te sporen. Ook denkt Facebook de helpende hand te kunnen bieden bij het voorkomen van zelfmoord onder tieners en bij het tegengaan van pesten op school. Dat klinkt allemaal heel idealistisch, maar inmiddels zijn de data die je via sociale media achterlaat verworden tot handelswaar die bedrijven in staat stelt op basis van persoonlijkheidsanalyse gerichte diensten aan te bieden. Overheden gebruiken persoonlijke data om fraude op te sporen en om misdrijven te voorkomen en op te lossen.

Dat wij niet blind kunnen vertrouwen op ‘zelflerende software’ leerde het experiment van Microsoft met Twitterbot Tay. De bot vergaloppeerde zich in de dialoog met Twittergebruikers en deed allerlei racistische uitspraken. Microsoft heeft daarna het Twitteraccount afgeschermd en de meeste tweets verwijderd. De complexe logica achter algoritmes is vaak nog een ‘black box’ die moeilijk kan worden verklaard. Dit moet veranderen als per 25 mei 2018 de Algemene Verordening Gegevensbescherming (AVG) in werking treedt. De AVG geeft mensen het recht om geïnformeerd te worden over de logica van een advies of besluit van een robot. Bedrijven en overheden moeten transparant worden en hun systemen aanpassen. Softwarebedrijf Pegasystems introduceerde dit jaar als eerste de T-Switch (T van Trust en Transparency) waarmee organisaties controle kunnen uitoefenen op de mate van transparantie van hun Artificiële Intelligentie.