
Begin dit jaar werd ChatGPT gepresenteerd als een doorbraak van kunstmatige intelligentie, vergelijkbaar met het internet en de smartphone, die onze wereld voorgoed zou veranderen. Ontwikkelaar OpenAI laat zien wat je met rekenkracht en een grote hoeveelheid tekstdata kunt doen. Hun chatbot produceert na iedere vraag razendsnel coherente tekst en lijkt zorgvuldig getraind om gebruikers te behagen met politiek correcte antwoorden.
ChatGPT kan statistisch voorspellen welke woorden en zinnen logisch achter elkaar horen en verschaft daardoor het meest waarschijnlijke antwoord. Als ik vraag naar mijn levensloop, dan is het antwoord: “Jan Willem Boissevain (1923-1944) was een Nederlandse verzetsstrijder tijdens de Tweede Wereldoorlog. Op 1 oktober 1944 werd Boissevain samen met zeven andere verzetsstrijders gefusilleerd op de Waalsdorpervlakte.” Mijn naam is weliswaar uniek, maar wordt hier verward met die van Gideon Willem Boissevain. Dan nog, kloppen zijn geboorte- en overlijdensjaar niet. Informatie die toch makkelijk op internet te vinden is. Als ik een simpel Snip en Snap raadseltje voorleg “Het is de zoon van mijn vader, maar het is niet mijn broer.” dan krijg ik een fout antwoord: “Het is uw neef”. Als ik antwoord met de oplossing, dan word ik in het gelijk gesteld en beleefd gecomplimenteerd.
Erg betrouwbaar en intelligent is ChatGPT dus niet, maar het is wel opvallend goed opgevoed. OpenAI heeft maatregelen genomen om problemen met ongepaste antwoorden te beperken. Keniaanse microworkers worden ingezet om de teksten, die de chatbot gebruikt om de antwoorden te componeren, op te schonen. Een chatbot die racistische en seksistische taal uitslaat is namelijk de nachtmerrie van iedere chatdienstaanbieder. Zo moest Microsoft zeven jaar geleden hun Twitterbot Tay in allerijl offline halen nadat de bot, in minder dan 24 uur na introductie, racistische, genocidale en vrouwonvriendelijke berichten naar gebruikers begon te sturen. Microsoft heeft recent ook beperkingen moeten opleggen aan het gebruik van BingGPT, nadat deze nieuwe AI-gedreven chat- en zoekdienst door gebruikers was betrapt op fouten en ongepaste antwoorden.
We spreken van kunstmatige intelligentie wanneer een machine een voorspellende taak sneller, goedkoper en accurater kan uitvoeren dan waar een mens toe in staat is. Sneller en goedkoper zijn robots zeker, maar niet per definitie accurater. Dat ligt niet primair aan de robot, maar aan de data waarop die is getraind. Die data zijn niet altijd representatief en kunnen menselijke vooroordelen bevatten. Zo moest een internationaal e-commercebedrijf een zelfontwikkelde tool voor het beoordelen van sollicitaties schrappen, nadat gebleken was dat deze onder meer vooroordelen had tegen aanmeldingen van vrouwen. Dit werd veroorzaakt door de data waarmee de tool was getraind, waarbij de meeste sollicitaties afkomstig waren van mannen.
Vooroordelen komen ook voor in de tekstdata waarop ChatGPT is getraind, en kunnen daarom ook voorkomen in antwoorden die de chatbot geeft. Die vooroordelen in de data vormen een beperking bij toepassing van ChatGPT, maar bieden soms voordelen. Zo las ik in het fd over een opmerkelijke dienst op basis van ChatGPT van het Amerikaanse DoNotPay. Dit bedrijf ontwikkelde een nieuwe app gebruikmakend van vooroordelen van klagende consumenten. De app kan onderhandelen met een chatbot van een klantenservice, zoals voor het verlagen van een factuur of het opzeggen van een abonnement.
De professionele toepasbaarheid van ChatGPT is vooralsnog beperkt. De betrouwbaarheid van de output is ook nog veel te zwak om gegenereerde teksten letterlijk over te kunnen nemen. Onderzoekers kwalificeren ChatGPT als een ‘stochastische digitale papegaai’, een tool die toeval genereert en niet kan redeneren. Voor het domme productiewerk hebben we er een schrijfhulprobot bij gekregen, maar we moeten zelf nog het intelligente werk blijven doen.