Binnen de lijntjes kleuren

DALL·E 2023-02-25 14.41.56 – kunstmatige intelligentie leert het landschap van Piet Mondriaan binnen de lijntjes te kleuren

Begin dit jaar werd ChatGPT gepresenteerd als een doorbraak van kunstmatige intelligentie, vergelijkbaar met het internet en de smartphone, die onze wereld voorgoed zou veranderen. Ontwikkelaar OpenAI laat zien wat je met rekenkracht en een grote hoeveelheid tekstdata kunt doen. Hun chatbot produceert na iedere vraag razendsnel coherente tekst en lijkt zorgvuldig getraind om gebruikers te behagen met politiek correcte antwoorden.

ChatGPT kan statistisch voorspellen welke woorden en zinnen logisch achter elkaar horen en verschaft daardoor het meest waarschijnlijke antwoord. Als ik vraag naar mijn levensloop, dan is het antwoord: “Jan Willem Boissevain (1923-1944) was een Nederlandse verzetsstrijder tijdens de Tweede Wereldoorlog. Op 1 oktober 1944 werd Boissevain samen met zeven andere verzetsstrijders gefusilleerd op de Waalsdorpervlakte.” Mijn naam is weliswaar uniek, maar wordt hier verward met die van Gideon Willem Boissevain. Dan nog, kloppen zijn geboorte- en overlijdensjaar niet. Informatie die toch makkelijk op internet te vinden is. Als ik een simpel Snip en Snap raadseltje voorleg “Het is de zoon van mijn vader, maar het is niet mijn broer.” dan krijg ik een fout antwoord: “Het is uw neef”. Als ik antwoord met de oplossing, dan word ik in het gelijk gesteld en beleefd gecomplimenteerd.

Erg betrouwbaar en intelligent is ChatGPT dus niet, maar het is wel opvallend goed opgevoed. OpenAI heeft maatregelen genomen om problemen met ongepaste antwoorden te beperken. Keniaanse microworkers worden ingezet om de teksten, die de chatbot gebruikt om de antwoorden te componeren, op te schonen. Een chatbot die racistische en seksistische taal uitslaat is namelijk de nachtmerrie van iedere chatdienstaanbieder. Zo moest Microsoft zeven jaar geleden hun Twitterbot Tay in allerijl offline halen nadat de bot, in minder dan 24 uur na introductie, racistische, genocidale en vrouwonvriendelijke berichten naar gebruikers begon te sturen. Microsoft heeft recent ook beperkingen moeten opleggen aan het gebruik van BingGPT, nadat deze nieuwe AI-gedreven chat- en zoekdienst door gebruikers was betrapt op fouten en ongepaste antwoorden.

We spreken van kunstmatige intelligentie wanneer een machine een voorspellende taak sneller, goedkoper en accurater kan uitvoeren dan waar een mens toe in staat is. Sneller en goedkoper zijn robots zeker, maar niet per definitie accurater. Dat ligt niet primair aan de robot, maar aan de data waarop die is getraind. Die data zijn niet altijd representatief en kunnen menselijke vooroordelen bevatten. Zo moest een internationaal e-commercebedrijf een zelfontwikkelde tool voor het beoordelen van sollicitaties schrappen, nadat gebleken was dat deze onder meer vooroordelen had tegen aanmeldingen van vrouwen. Dit werd veroorzaakt door de data waarmee de tool was getraind, waarbij de meeste sollicitaties afkomstig waren van mannen.

Vooroordelen komen ook voor in de tekstdata waarop ChatGPT is getraind, en kunnen daarom ook voorkomen in antwoorden die de chatbot geeft. Die vooroordelen in de data vormen een beperking bij toepassing van ChatGPT, maar bieden soms voordelen. Zo las ik in het fd over een opmerkelijke dienst op basis van ChatGPT van het Amerikaanse DoNotPay.  Dit bedrijf ontwikkelde een nieuwe app gebruikmakend van vooroordelen van klagende consumenten. De app kan onderhandelen met een chatbot van een klantenservice, zoals voor het verlagen van een factuur of het opzeggen van een abonnement.

De professionele toepasbaarheid van ChatGPT is vooralsnog beperkt. De betrouwbaarheid van de output is ook nog veel te zwak om gegenereerde teksten letterlijk over te kunnen nemen. Onderzoekers kwalificeren ChatGPT als een ‘stochastische digitale papegaai’, een tool die toeval genereert en niet kan redeneren. Voor het domme productiewerk hebben we er een schrijfhulprobot bij gekregen, maar we moeten zelf nog het intelligente werk blijven doen.

Vertrouwen in AI

Met de groei van kunstmatige intelligentie (AI) in de dienstverlening neemt ook de aandacht voor ethische kwesties toe. Consumenten willen weten met wie zij in gesprek zijn en op welke gronden voor hen wordt besloten. Het ontbreekt veelvuldig aan transparantie en vooroordelen lijken een belangrijke rol te vervullen bij AI-systemen die worden getraind met data die door mensen zijn geproduceerd.

Bedrijven gebruiken veelvuldig AI voor één-op-één marketing. Zij beogen daarmee de klantbeleving te optimaliseren door het sturen van boodschappen die tijdig, persoonlijk en relevant zijn voor de ontvanger. Daarbij moet de juiste balans worden gevonden tussen het klantbelang en het commerciële belang van de aanbieder. Daar gaat het dan meestal mis: de context klopt meestal wel, maar als consument ben je meestal niet gebaat bij een ongevraagd commercieel advies. Zo ontving ik een week na mijn terugkeer van een citytrip in Barcelona een aanbieding van dezelfde luchtvaartmaatschappij voor voordelige vluchten naar Barcelona. Dat is een merkwaardig bericht, want de kans dat je als toerist twee keer kort achter elkaar dezelfde stad bezoekt lijkt mij minimaal.

Veel bonter maakte verhuurmaatschappij Airbnb het voor mij deze maand. De avond voorafgaand aan mijn vertrek naar La Bresse voor een fietsvakantie in de Vogezen ontving ik per sms het bericht: “Je verhuurder heeft je reservering geannuleerd. We hebben € teruggestort naar je account.” Een uur na dit bericht ontving ik een mail van Airbnb met de volgende aanhef: “Reistip: reserveer je reis naar La Bresse ten minste 2 maanden van tevoren.” Blijkbaar loopt de operatie (boeken en betalen) en de marketing (gebaseerd op klikgedrag op hun website) volledig gescheiden bij Airbnb. Daar heb ik als consument natuurlijk geen boodschap aan. Uiteraard ga ik dus ook niet opnieuw boeken bij een verhuurbedrijf dat mijn vakantie in de war stuurt, terwijl ik het punt sta te vertrekken, zonder een pasklaar alternatief te bieden.

Het onderzoeksbureau Savanta vroeg 5.000 consumenten wereldwijd naar hun mening over AI en daarmee verbonden ethisch gedrag. Uit het onderzoek dat Savanta uitvoerde in opdracht van Pegasystems bleek dat consumenten nog weinig vertrouwen hebben in AI en de voordelen daarvan niet inzien. Minder dan 30 procent ​​geeft aan dat zij zich prettig voelen bij bedrijven die AI gebruiken. Meer dan de helft (53 procent) zegt dat AI vooroordelen meeneemt in de wijze waarop het beslissingen neemt. Een grote meerderheid van 70 procent spreekt liever met een mens dan met een chatbot in het contact met de klantenservice. Daarnaast geeft 69 procent van de respondenten aan dat zij eerder geneigd zijn de waarheid te vertellen aan een mens dan aan een AI-systeem. 

Respondenten zeggen dan wel AI-systemen te wantrouwen, maar handelen zij daar dan ook naar? In de praktijk laten mensen zich toch nog makkelijk beïnvloeden. Zo vergaarde het nep-profiel van Katie Jones op LinkedIn connecties van hoog niveau in de Amerikaanse politiek en zakenleven. Wie er achter het vriendelijk glimlachende nep-dame zit is niet bekend. Het prachtige CV en zelfs de foto zijn volledig gemaakt door AI. Naar verwachting hebben buitenlandse spionnen vanachter hun computer Katie ingezet als lokaas. Via vriendschapsverzoeken naar duizenden doelwitten konden zij via het nep-profiel infiltreren in een netwerk op topniveau.

Ongemerkt wint de toepassing van AI steeds meer terrein. Bedrijven in de VS zijn wereldwijd exporteur van AI-toepassingen. In China dringen zowel de staat als de platformen van techgiganten Alibaba en Tencent door tot in de haarvaten van mensen in dat land. Europa moet nog een flinke kenniskloof dichten met de VS en China. Daarin kunnen we ons onderscheiden met toepassingen voor maatschappelijke vraagstukken zoals mobiliteit, veiligheid en zorg. Door het terugdringen van de anonimiteit en vergroten van de transparantie bij AI-toepassingen kan het vertrouwen van consumenten worden teruggewonnen. De AI Coalitie presenteert daarvoor een ambitieus position paper met een Nederlandse visie op de toekomst van AI.

Geen overheidsbesluit gebaseerd op foute registratie

Uitkomsten enquête ethische dilemma’s en technologie

Negen op de tien respondenten accepteert niet dat een overheidsbesluit (bijvoorbeeld over een uitkering of een vergunning) gebaseerd is op een foutieve overheidsregistratie. Dat is een van de uitkomsten van een enquête over ethische Dillema’s in relatie tot technologie.

Uitgesproken waren de respondenten ook over de gezichtsherkenning van Facebook. 98 Procent van de ondervraagden accepteert niet dat Facebook (of een vergelijkbaar bedrijf) hun gezicht beschouwt als publieke informatie. Minder uitgesproken was de uitkomst op de vraag of mensen vertrouwen op een slimme pleister die continu de vitale lichaamsfuncties kan meten (45 procent vindt dat prima, 55 procent heeft daar problemen mee). Ook de vraag of mensen de zorg van hun hulpbehoevende moeder toevertrouwen aan een zorgrobot leverde niet al te veel verschil tussen voors en tegens op (42 procent vertrouwt dat de robot wel toe, 57 procent doet dat niet).

Groot verschil was er wel op de vraag of het verantwoord is als het ministerie van Defensie wapens inzet die zonder menselijke tussenkomst hun doelen selecteren. Bijna negen op de tien ondervraagden vindt dat niet verantwoord, iets meer dan 10 procent heeft daar geen bezwaar tegen. Eenzelfde verschil in voors en tegens treffen we aan bij de uitkomst op de vraag of het acceptabel is dat veiligheidsdiensten kwetsbaarheden in software die zij gebruiken in het kader van hun hackbevoegdheid bewust niet melden aan ontwikkelaars (waardoor ook criminelen hun slag kunnen slaan). Iets meer dan 10 procent vindt dat prima, de rest vindt dat niet prima of heeft geen mening.

De volledige uitkomsten van de enquête zijn hier terug te vinden.