Binnen de lijntjes kleuren

DALL·E 2023-02-25 14.41.56 – kunstmatige intelligentie leert het landschap van Piet Mondriaan binnen de lijntjes te kleuren

Begin dit jaar werd ChatGPT gepresenteerd als een doorbraak van kunstmatige intelligentie, vergelijkbaar met het internet en de smartphone, die onze wereld voorgoed zou veranderen. Ontwikkelaar OpenAI laat zien wat je met rekenkracht en een grote hoeveelheid tekstdata kunt doen. Hun chatbot produceert na iedere vraag razendsnel coherente tekst en lijkt zorgvuldig getraind om gebruikers te behagen met politiek correcte antwoorden.

ChatGPT kan statistisch voorspellen welke woorden en zinnen logisch achter elkaar horen en verschaft daardoor het meest waarschijnlijke antwoord. Als ik vraag naar mijn levensloop, dan is het antwoord: “Jan Willem Boissevain (1923-1944) was een Nederlandse verzetsstrijder tijdens de Tweede Wereldoorlog. Op 1 oktober 1944 werd Boissevain samen met zeven andere verzetsstrijders gefusilleerd op de Waalsdorpervlakte.” Mijn naam is weliswaar uniek, maar wordt hier verward met die van Gideon Willem Boissevain. Dan nog, kloppen zijn geboorte- en overlijdensjaar niet. Informatie die toch makkelijk op internet te vinden is. Als ik een simpel Snip en Snap raadseltje voorleg “Het is de zoon van mijn vader, maar het is niet mijn broer.” dan krijg ik een fout antwoord: “Het is uw neef”. Als ik antwoord met de oplossing, dan word ik in het gelijk gesteld en beleefd gecomplimenteerd.

Erg betrouwbaar en intelligent is ChatGPT dus niet, maar het is wel opvallend goed opgevoed. OpenAI heeft maatregelen genomen om problemen met ongepaste antwoorden te beperken. Keniaanse microworkers worden ingezet om de teksten, die de chatbot gebruikt om de antwoorden te componeren, op te schonen. Een chatbot die racistische en seksistische taal uitslaat is namelijk de nachtmerrie van iedere chatdienstaanbieder. Zo moest Microsoft zeven jaar geleden hun Twitterbot Tay in allerijl offline halen nadat de bot, in minder dan 24 uur na introductie, racistische, genocidale en vrouwonvriendelijke berichten naar gebruikers begon te sturen. Microsoft heeft recent ook beperkingen moeten opleggen aan het gebruik van BingGPT, nadat deze nieuwe AI-gedreven chat- en zoekdienst door gebruikers was betrapt op fouten en ongepaste antwoorden.

We spreken van kunstmatige intelligentie wanneer een machine een voorspellende taak sneller, goedkoper en accurater kan uitvoeren dan waar een mens toe in staat is. Sneller en goedkoper zijn robots zeker, maar niet per definitie accurater. Dat ligt niet primair aan de robot, maar aan de data waarop die is getraind. Die data zijn niet altijd representatief en kunnen menselijke vooroordelen bevatten. Zo moest een internationaal e-commercebedrijf een zelfontwikkelde tool voor het beoordelen van sollicitaties schrappen, nadat gebleken was dat deze onder meer vooroordelen had tegen aanmeldingen van vrouwen. Dit werd veroorzaakt door de data waarmee de tool was getraind, waarbij de meeste sollicitaties afkomstig waren van mannen.

Vooroordelen komen ook voor in de tekstdata waarop ChatGPT is getraind, en kunnen daarom ook voorkomen in antwoorden die de chatbot geeft. Die vooroordelen in de data vormen een beperking bij toepassing van ChatGPT, maar bieden soms voordelen. Zo las ik in het fd over een opmerkelijke dienst op basis van ChatGPT van het Amerikaanse DoNotPay.  Dit bedrijf ontwikkelde een nieuwe app gebruikmakend van vooroordelen van klagende consumenten. De app kan onderhandelen met een chatbot van een klantenservice, zoals voor het verlagen van een factuur of het opzeggen van een abonnement.

De professionele toepasbaarheid van ChatGPT is vooralsnog beperkt. De betrouwbaarheid van de output is ook nog veel te zwak om gegenereerde teksten letterlijk over te kunnen nemen. Onderzoekers kwalificeren ChatGPT als een ‘stochastische digitale papegaai’, een tool die toeval genereert en niet kan redeneren. Voor het domme productiewerk hebben we er een schrijfhulprobot bij gekregen, maar we moeten zelf nog het intelligente werk blijven doen.

In gesprek met een robot

Ga je in gesprek met een chatbot van de klantenservice? Ja, zegt 64 procent van de ondervraagden in een enquête van iBestuur. Zij hebben vertrouwen in kunstmatige intelligentie, ook wel artificial intelligence (AI) genoemd, in de dienstverlening. Een minderheid wijst het contact met een robot af.

Tot voor kort was kunstmatige intelligentie voorbehouden aan de wetenschap of technologische toepassingen. Zo wist supercomputer Deep Blue in 1997 een schaakpartij te winnen van wereldkampioen Kasparov. De laatste jaren is AI bezig aan een wedergeboorte. De technologie is doorgedrongen in onze leefwereld en staat op het punt onze samenleving te veranderen. Organisaties gebruiken in toenemende mate AI om klantervaring te verbeteren. Zij doen dit in de vaste overtuiging dat dit zowel het belang van klanten als de eigen organisatie dient.

Pega deed internationaal onderzoek naar het oordeel van consumenten over kunstmatige intelligentie. De respondenten van het onderzoek zijn verdeeld over hun oordeel over kunstmatige intelligentie. Meer dan een derde zegt dat ze zich comfortabel voelen bij organisaties die AI gebruiken, terwijl iets minder dan een derde zegt dat dit niet het geval is. Dan is er nog een derde die zegt dat ze het gewoon nog niet weten. Sommige consumenten zijn positief en vinden AI veelbelovend. Anderen blijven vasthouden aan een voorkeur voor persoonlijk contact. Over de hele linie blijkt uit het onderzoek dat de meeste consumenten AI niet begrijpen en onwetend zijn hoe dit hun dagelijkse praktijk raakt.

Uit de enquête blijkt dat meer dan 70 procent van de consumenten angst voor kunstmatige intelligentie koesteren. Als we inzoomen op de weerstand tegen kunstmatige intelligentie dan blijkt dit voornamelijk te berusten op angst voor het onbekende. 33 procent is van mening dat een mens hun persoonlijke voorkeuren altijd beter herkent dan een robot. 24 procent vreest dat robots de mensheid kunnen bedreigen. Opmerkelijk is de grote meerderheid van 72 procent van respondenten die zegt te begrijpen wat AI is. Vervolgens kunnen zij slechts een beperkt aantal eigenschappen van AI, zoals spraakherkenning en lerend vermogen, noemen. Hoewel vrijwel alle consumenten dagelijks met AI worden geconfronteerd (bijvoorbeeld via Google zoekopdrachten of het gebruik van Apple’s assistent Siri)  zegt slechts 34 procent ooit via AI te hebben gecommuniceerd.

Over het algemeen ervaren klanten bij digitale dienstverlening op basis van AI weinig toegevoegde waarde. Zij herkennen een robot makkelijk op basis van de voorspelbare interacties. De meeste chatbots zijn vandaag de dag nog niet verfijnd genoeg om in te spelen op context, sentiment of emotie. Daar staat tegenover dat consumenten meer open zouden staan ​​voor AI als het in hun dagelijks leven zou helpen, zoals tijd of geld besparen. Er is voldoende potentieel voor AI om klantenervaring te verbeteren. Daarbij moet een grote kennisachterstand worden overbrugd. Klanten staan positiever tegenover AI in de dienstverlening naar mate zij beter begrijpen wat AI voor hen betekent en de voordelen ervaren.

De enquête onthult ook de sectoren waarin consumenten zich het prettigst voelen bij het gebruik van AI. Online verkoop scoort het hoogst. Klanten zijn gewend aan productaanbevelingen bij online shoppen. Zij zijn meestal tevreden over de aanbevelingen en storen zich niet aan de koopsuggesties die niet aansluiten bij hun wensen.  Toepassing van AI in de gezondheidszorg scoort ook hoog. Consumenten realiseren zich dat AI kan bijdragen aan snelle diagnoses, nauwkeurige behandelingen en goed geïnformeerde patiënten. Het minst vertrouwen hebben de respondenten in toepassing van AI door de overheid. Consumenten vertrouwen autodealers bij gebruik van AI zelfs meer dan de overheid.

Download hier gratis het rapport ‘What consumers really think about AI: A global study’

Robots nemen de wereld niet over

Vind je het verantwoord als Defensie wapens inzet die zonder menselijke tussenkomst hun doelen selecteren? Nee, zegt 87 procent van de ondervraagden in een enquête van iBestuur. Dat is een duidelijke afkeuring van de wapenwedloop die nu gaande is. De Verenigde Staten is namelijk al vergevorderd met het ontwikkelen van wapens die zonder menselijke tussenkomst kunnen opstijgen, landen, doelen selecteren én vernietigen. De Amerikaanse ‘vliegende vleugel’ X-47B moet over twee jaar al paraat zijn voor gevechtsmissies. Het scenario in onderstaande film zou werkelijkheid kunnen worden als we autonome wapens toelaten in onze samenleving.

De ontwikkeling van ‘killer robots’ opent een doos van Pandora. Ruim honderd bedrijven wereldwijd op het terrein van robotica en kunstmatige intelligentie maken zich grote zorgen over de mogelijk catastrofale gevolgen als de ontwikkeling van dodelijke, autonome wapens wordt toegestaan. In een open brief roepen zij regeringsleiders op een internationaal verdrag te steunen dat dodelijke autonome wapens beperkt. Meer dan 20.000 mensen ondersteunen inmiddels de oproep tegen autonome wapens.

Technologie gebaseerd op artificiële intelligentie en robotisering gaat in toenemende mate ons leven beïnvloeden. Dit kan op goede manieren om ons leven makkelijker te maken. Het kan ook een bedreiging gaan vormen. De Netflix-serie ‘Black Mirror toont op surrealistische wijze enkele horrorscenario’s waarin technologische vooruitgang botst met onze menselijke gevoelens. Wat gebeurt er als we de technologie ons volledig gaat beheersen, maar erger nog: als we de  controle over onze slimme uitvindingen kwijtraken? Die ontwikkeling wordt al een eeuwenlang in sciencefictionfilms en -boeken aangekondigd.

Vijftig jaar geleden kwam de baanbrekende sciencefictionfilm 2001: A Space Odyssey uit. In de film gaan vijf reizigers op weg naar Jupiter. Hun ruimteschip wordt bestuurd door boordcomputer HAL die beschikt over menselijke intelligentie en spraakvermogen. De ruimtevaarders beschouwen de computer als zesde bemanningslid. HAL is als enige op de hoogte van het doel van de missie en grijpt tijdens de reis de macht. Uiteindelijk weet één van de bemanningsleden de computer te overwinnen door HAL’s geheugencentrum uit te schakelen.

Ook in het laatste boek van Dan Brown ‘De Oorsprong’ speelt een computer met menselijke eigenschappen de sleutelrol. De alwetende computerhulp luistert naar de naam Winston. Het is een verwijzing naar de geniale strateeg Winston Churchill. Waarschijnlijk verwijst de naam ook naar IBM’s supercomputer Watson. Winston bezit krachtige eigenschappen van een supercomputer en is gelijktijdig onmogelijk van een mens te onderscheiden. De computer is uitgerust met volledig geperfectioneerde kunstmatige intelligentie en slaagt ruimschoots voor de Turing-test. Winston handelt in ‘het belang’ van zijn opdrachtgever, voert zelfstandig taken uit en beslist over leven en dood. De afloop van het boek is voorspelbaar.

We leven in een tijd waarin sciencefiction werkelijkheid wordt. Robots gaan steeds meer taken van mensen overnemen. Dit past in de evolutie van gereedschappen die de mensheid heeft ontwikkeld vanaf het stenen tijdperk. Robots blijven hulpmiddelen en zullen altijd ondergeschikt blijven aan mensen. Het is ook evident dat een robot geen verantwoordelijkheid kan nemen. Dat kunnen alleen de mensen die robots ontwerpen, programmeren en gebruiken. Juridisch gezien is dat nog een complexe puzzel. Nieuwe internationale afspraken, regelgeving en toezicht blijven altijd noodzakelijk om het gebruik van technologische innovaties in goede banen te leiden.

De volledige uitkomsten van de enquête zijn hier terug te vinden.

 

Transparante robotadviseur

Zelfdenkende robots moeten de mensheid een flinke stap voorwaarts brengen. We worden er nu al mee geconfronteerd. De spraak assistent van onze mobiel is daar een goed voorbeeld van. Via stemcommando’s kunnen wij onze smartphone allerlei taken laten uitvoeren. Robots kunnen veel taken van de mens overnemen (zoals het besturen van onze auto) en beïnvloeden ons gedrag zonder dat wij ons daar bewust van zijn.

Robots kunnen reageren op het gedrag van mensen op basis van de digitale sporen die wij achter laten. Via ons online klikgedrag, sociale media, smartphone, activiteiten trackers en apparaten met sensoren produceren wij een grote hoeveelheid data in verschillende verschijningsvormen. Met machine learning kunnen computermodellen op basis van zelflerende algoritmes steeds beter onze persoonlijkheid voorspellen. Dat kan zelfs op basis van simpele Facebook likes. Vanaf 70 likes kent Facebook je beter dan je vrienden.

Drie onderzoekers in de Verenigde Staten ontwikkelden een algoritme waarmee iemands persoonlijkheid kan worden voorspeld op basis van Facebook likes of Twitter berichten. Het algoritme voorspelt de scores op basis van de Meyers-Briggs Type Indicator (MBTI) en de Big Five persoonlijkheidstheorie. Deze Big Five theorie beschrijft iemands persoonlijkheid in de volgende dimensies: extraversie, vriendelijkheid, emotionele stabiliteit, ordelijkheid en openheid. Per dimensie kun je hoog, laag of ergens daar tussenin scoren. Een gedetailleerd overzicht van jouw persoonlijkheid kun je op basis van Facebook of Twitter likes en berichten laten voorspellen met deze Facebook and Twitter Prediction tool.

Ik testte de tool uit. Op basis van 3.232 twitterberichten kreeg ik binnen een paar seconden een uitgebreid rapport over mijn persoonlijkheid. De scores van de Big Five en MBTI zijn vrijwel identiek met de uitslagen van testen die ik bij psychologische testen op basis van vragenlijsten heb gedaan. Met het voorspellen van mijn geslacht heeft het computermodel meer moeite: ‘Your digital footprint is fairly androgynous; it suggests you’re probably Male but you don’t repress your feminine side’. Het voorspellen van mijn leeftijd blijkt ook een moeilijke opgave: ‘Your digital footprint suggests that your online behaviour resembles that of a 25-29 years old’. De modellen pretenderen niet de absolute waarheid te voorspellen; zij rapporteren met een zekere waarschijnlijkheid.

Zolang wij die analyses zelf onder ogen krijgen en kunnen relativeren is er niets aan de hand. Het wordt een ander verhaal als bedrijven en overheden er mee aan de haal gaan. Zo kondigde Facebook CEO Zuckerberg aan dat zijn bedrijf met behulp van Artificiële Intelligentie privéberichten gaat analyseren om terroristische activiteiten op te sporen. Ook denkt Facebook de helpende hand te kunnen bieden bij het voorkomen van zelfmoord onder tieners en bij het tegengaan van pesten op school. Dat klinkt allemaal heel idealistisch, maar inmiddels zijn de data die je via sociale media achterlaat verworden tot handelswaar die bedrijven in staat stelt op basis van persoonlijkheidsanalyse gerichte diensten aan te bieden. Overheden gebruiken persoonlijke data om fraude op te sporen en om misdrijven te voorkomen en op te lossen.

Dat wij niet blind kunnen vertrouwen op ‘zelflerende software’ leerde het experiment van Microsoft met Twitterbot Tay. De bot vergaloppeerde zich in de dialoog met Twittergebruikers en deed allerlei racistische uitspraken. Microsoft heeft daarna het Twitteraccount afgeschermd en de meeste tweets verwijderd. De complexe logica achter algoritmes is vaak nog een ‘black box’ die moeilijk kan worden verklaard. Dit moet veranderen als per 25 mei 2018 de Algemene Verordening Gegevensbescherming (AVG) in werking treedt. De AVG geeft mensen het recht om geïnformeerd te worden over de logica van een advies of besluit van een robot. Bedrijven en overheden moeten transparant worden en hun systemen aanpassen. Softwarebedrijf Pegasystems introduceerde dit jaar als eerste de T-Switch (T van Trust en Transparency) waarmee organisaties controle kunnen uitoefenen op de mate van transparantie van hun Artificiële Intelligentie.