Computer Says No

In veel grote organisaties regeert de computer. Het zijn telecomaanbieders, verzekeraars en overheden die hun medewerkers slaafs taken met behulp van de computer laat uitvoeren. Meedenken met de klant is niet nodig, want de computer heeft altijd gelijk. De Britse comedy serie Little Britain steek daarmee de draak. Een moeder meldt zich met haar dochtertje bij de balie van het ziekenhuis voor het verwijderen van de amandelen bij het meisje. De receptioniste kijkt op haar scherm en zegt: ‘Computer Says No’. Het meisje staat in het systeem ingeboekt voor een dubbele heupoperatie. ‘Wil je die?’ vraagt de receptioniste. Natuurlijk wil ze die niet, maar de amandeloperatie zit er niet in: ‘Computer Says No’.

Door voortschrijding van de technologie gaat de receptioniste achter een beeldscherm snel verdwijnen. Balie- en helpdeskmedewerkers maken op termijn plaats voor een virtuele assistent voor klantenondersteuning. Die werkt 24 uur per dag en kan oneindig veel klanten tegelijk helpen. Dankzij kunstmatige intelligentie gedraagt de virtuele assistent zich steeds menselijker, toont inlevingsvermogen en denkt met de klant mee. Het Amerikaanse bedrijf IPSoft gaf haar virtuele assistent ‘Amalia’ een menselijk gezicht. De digitale wereld verovert steeds meer terrein op de fysieke wereld. Zelf zijn we met onze smartphones en waerables ook continu aangesloten op die digitale wereld.

Mijn sporthorloge meet 24 uur per dag mijn hartslag en activiteit. Dit gebruik ik zelf als ondersteuning bij het sporten en fit te blijven. Wat zou ik van vinden om deze gegevens te delen met een arts die mijn gezondheid dan continu kan bewaken? Sta ik de informatie af aan mijn zorgverzekeraar om mijn premie en risicotoeslag te bepalen? Wat doe ik als mijn zieke moeder wordt ontslagen uit het ziekenhuis en haar toestand voortaan op afstand wordt bewaakt op basis van een slimme pleister die vitale functies kan meten? Door voortschrijdende technologische ontwikkelingen worden we steeds meer voor ethische afwegingen geplaatst. Op basis van de informatiesporen die wij achter laten en alom aanwezige camera’s worden wij bespied en op basis van slimme algoritmen gemanipuleerd zonder dat in de gaten te hebben. Zonder dat we het door hebben worden taken van mensen overgenomen door robots. We bellen naar de helpdesk en worden geholpen door een robot. Een rechterlijke uitspraak of beoordeling van onze sollicitatiebrief wordt achter de schermen door een robot afgehandeld. Moeten we dan ook verhaal halen bij de robot als we het er niet mee eens zijn? Aan de andere kant kunnen de robots ook veel gemak geven, bijvoorbeeld voor uitvoering van zorgtaken of zelfrijdende auto. Dan vertrouwen we op de juiste beslissingen van de robot. Als de auto moet kiezen tussen fatale botsing tegen betonblok of doodrijden van overstekende mensen, welke keuze moet de auto dan van jou maken? Waar ligt de grens? Welke afweging maak je tussen bijvoorbeeld veiligheid en privacy of terrorismebestrijding en digitale veiligheid? Wat vind je nog ethisch verantwoord?

De voortschrijding van de technologie brengt een aantal van dit soort ethische dillema’s met zich mee. Trek je ergens een grens of accepteer je digitalisering als een soort natuurverschijnsel waarop je geen invloed hebt? Waar trek jij de grens? Is het ‘Computer Says No!’, of zeg je ‘Ho!’?

Op basis van deze test meet je jouw houding ten opzichte van enkele dilemma’s.

Eerdere publicaties over ethische dilemma’s en technologie
eHaelth Continue gezondheidsmonitor
Overheidsregistraties Een systeem leeft niet
Gezichtsherkenning Orwells 1984 nabij
Ongewenste reclame Nationale Postspam Loterij
Smart Cities Nudge de overheid
Veiligheidsdiensten Behoorlijk goede privacy
eCourt Transparante robotadviseur
Zelfrijdende auto Robot neemt het stuur over

Transparante robotadviseur

Zelfdenkende robots moeten de mensheid een flinke stap voorwaarts brengen. We worden er nu al mee geconfronteerd. De spraak assistent van onze mobiel is daar een goed voorbeeld van. Via stemcommando’s kunnen wij onze smartphone allerlei taken laten uitvoeren. Robots kunnen veel taken van de mens overnemen (zoals het besturen van onze auto) en beïnvloeden ons gedrag zonder dat wij ons daar bewust van zijn.

Robots kunnen reageren op het gedrag van mensen op basis van de digitale sporen die wij achter laten. Via ons online klikgedrag, sociale media, smartphone, activiteiten trackers en apparaten met sensoren produceren wij een grote hoeveelheid data in verschillende verschijningsvormen. Met machine learning kunnen computermodellen op basis van zelflerende algoritmes steeds beter onze persoonlijkheid voorspellen. Dat kan zelfs op basis van simpele Facebook likes. Vanaf 70 likes kent Facebook je beter dan je vrienden.

Drie onderzoekers in de Verenigde Staten ontwikkelden een algoritme waarmee iemands persoonlijkheid kan worden voorspeld op basis van Facebook likes of Twitter berichten. Het algoritme voorspelt de scores op basis van de Meyers-Briggs Type Indicator (MBTI) en de Big Five persoonlijkheidstheorie. Deze Big Five theorie beschrijft iemands persoonlijkheid in de volgende dimensies: extraversie, vriendelijkheid, emotionele stabiliteit, ordelijkheid en openheid. Per dimensie kun je hoog, laag of ergens daar tussenin scoren. Een gedetailleerd overzicht van jouw persoonlijkheid kun je op basis van Facebook of Twitter likes en berichten laten voorspellen met deze Facebook and Twitter Prediction tool.

Ik testte de tool uit. Op basis van 3.232 twitterberichten kreeg ik binnen een paar seconden een uitgebreid rapport over mijn persoonlijkheid. De scores van de Big Five en MBTI zijn vrijwel identiek met de uitslagen van testen die ik bij psychologische testen op basis van vragenlijsten heb gedaan. Met het voorspellen van mijn geslacht heeft het computermodel meer moeite: ‘Your digital footprint is fairly androgynous; it suggests you’re probably Male but you don’t repress your feminine side’. Het voorspellen van mijn leeftijd blijkt ook een moeilijke opgave: ‘Your digital footprint suggests that your online behaviour resembles that of a 25-29 years old’. De modellen pretenderen niet de absolute waarheid te voorspellen; zij rapporteren met een zekere waarschijnlijkheid.

Zolang wij die analyses zelf onder ogen krijgen en kunnen relativeren is er niets aan de hand. Het wordt een ander verhaal als bedrijven en overheden er mee aan de haal gaan. Zo kondigde Facebook CEO Zuckerberg aan dat zijn bedrijf met behulp van Artificiële Intelligentie privéberichten gaat analyseren om terroristische activiteiten op te sporen. Ook denkt Facebook de helpende hand te kunnen bieden bij het voorkomen van zelfmoord onder tieners en bij het tegengaan van pesten op school. Dat klinkt allemaal heel idealistisch, maar inmiddels zijn de data die je via sociale media achterlaat verworden tot handelswaar die bedrijven in staat stelt op basis van persoonlijkheidsanalyse gerichte diensten aan te bieden. Overheden gebruiken persoonlijke data om fraude op te sporen en om misdrijven te voorkomen en op te lossen.

Dat wij niet blind kunnen vertrouwen op ‘zelflerende software’ leerde het experiment van Microsoft met Twitterbot Tay. De bot vergaloppeerde zich in de dialoog met Twittergebruikers en deed allerlei racistische uitspraken. Microsoft heeft daarna het Twitteraccount afgeschermd en de meeste tweets verwijderd. De complexe logica achter algoritmes is vaak nog een ‘black box’ die moeilijk kan worden verklaard. Dit moet veranderen als per 25 mei 2018 de Algemene Verordening Gegevensbescherming (AVG) in werking treedt. De AVG geeft mensen het recht om geïnformeerd te worden over de logica van een advies of besluit van een robot. Bedrijven en overheden moeten transparant worden en hun systemen aanpassen. Softwarebedrijf Pegasystems introduceerde dit jaar als eerste de T-Switch (T van Trust en Transparency) waarmee organisaties controle kunnen uitoefenen op de mate van transparantie van hun Artificiële Intelligentie.