Vertrouwen in AI

Met de groei van kunstmatige intelligentie (AI) in de dienstverlening neemt ook de aandacht voor ethische kwesties toe. Consumenten willen weten met wie zij in gesprek zijn en op welke gronden voor hen wordt besloten. Het ontbreekt veelvuldig aan transparantie en vooroordelen lijken een belangrijke rol te vervullen bij AI-systemen die worden getraind met data die door mensen zijn geproduceerd.

Bedrijven gebruiken veelvuldig AI voor één-op-één marketing. Zij beogen daarmee de klantbeleving te optimaliseren door het sturen van boodschappen die tijdig, persoonlijk en relevant zijn voor de ontvanger. Daarbij moet de juiste balans worden gevonden tussen het klantbelang en het commerciële belang van de aanbieder. Daar gaat het dan meestal mis: de context klopt meestal wel, maar als consument ben je meestal niet gebaat bij een ongevraagd commercieel advies. Zo ontving ik een week na mijn terugkeer van een citytrip in Barcelona een aanbieding van dezelfde luchtvaartmaatschappij voor voordelige vluchten naar Barcelona. Dat is een merkwaardig bericht, want de kans dat je als toerist twee keer kort achter elkaar dezelfde stad bezoekt lijkt mij minimaal.

Veel bonter maakte verhuurmaatschappij Airbnb het voor mij deze maand. De avond voorafgaand aan mijn vertrek naar La Bresse voor een fietsvakantie in de Vogezen ontving ik per sms het bericht: “Je verhuurder heeft je reservering geannuleerd. We hebben € teruggestort naar je account.” Een uur na dit bericht ontving ik een mail van Airbnb met de volgende aanhef: “Reistip: reserveer je reis naar La Bresse ten minste 2 maanden van tevoren.” Blijkbaar loopt de operatie (boeken en betalen) en de marketing (gebaseerd op klikgedrag op hun website) volledig gescheiden bij Airbnb. Daar heb ik als consument natuurlijk geen boodschap aan. Uiteraard ga ik dus ook niet opnieuw boeken bij een verhuurbedrijf dat mijn vakantie in de war stuurt, terwijl ik het punt sta te vertrekken, zonder een pasklaar alternatief te bieden.

Het onderzoeksbureau Savanta vroeg 5.000 consumenten wereldwijd naar hun mening over AI en daarmee verbonden ethisch gedrag. Uit het onderzoek dat Savanta uitvoerde in opdracht van Pegasystems bleek dat consumenten nog weinig vertrouwen hebben in AI en de voordelen daarvan niet inzien. Minder dan 30 procent ​​geeft aan dat zij zich prettig voelen bij bedrijven die AI gebruiken. Meer dan de helft (53 procent) zegt dat AI vooroordelen meeneemt in de wijze waarop het beslissingen neemt. Een grote meerderheid van 70 procent spreekt liever met een mens dan met een chatbot in het contact met de klantenservice. Daarnaast geeft 69 procent van de respondenten aan dat zij eerder geneigd zijn de waarheid te vertellen aan een mens dan aan een AI-systeem. 

Respondenten zeggen dan wel AI-systemen te wantrouwen, maar handelen zij daar dan ook naar? In de praktijk laten mensen zich toch nog makkelijk beïnvloeden. Zo vergaarde het nep-profiel van Katie Jones op LinkedIn connecties van hoog niveau in de Amerikaanse politiek en zakenleven. Wie er achter het vriendelijk glimlachende nep-dame zit is niet bekend. Het prachtige CV en zelfs de foto zijn volledig gemaakt door AI. Naar verwachting hebben buitenlandse spionnen vanachter hun computer Katie ingezet als lokaas. Via vriendschapsverzoeken naar duizenden doelwitten konden zij via het nep-profiel infiltreren in een netwerk op topniveau.

Ongemerkt wint de toepassing van AI steeds meer terrein. Bedrijven in de VS zijn wereldwijd exporteur van AI-toepassingen. In China dringen zowel de staat als de platformen van techgiganten Alibaba en Tencent door tot in de haarvaten van mensen in dat land. Europa moet nog een flinke kenniskloof dichten met de VS en China. Daarin kunnen we ons onderscheiden met toepassingen voor maatschappelijke vraagstukken zoals mobiliteit, veiligheid en zorg. Door het terugdringen van de anonimiteit en vergroten van de transparantie bij AI-toepassingen kan het vertrouwen van consumenten worden teruggewonnen. De AI Coalitie presenteert daarvoor een ambitieus position paper met een Nederlandse visie op de toekomst van AI.

Geen overheidsbesluit gebaseerd op foute registratie

Uitkomsten enquête ethische dilemma’s en technologie

Negen op de tien respondenten accepteert niet dat een overheidsbesluit (bijvoorbeeld over een uitkering of een vergunning) gebaseerd is op een foutieve overheidsregistratie. Dat is een van de uitkomsten van een enquête over ethische Dillema’s in relatie tot technologie.

Uitgesproken waren de respondenten ook over de gezichtsherkenning van Facebook. 98 Procent van de ondervraagden accepteert niet dat Facebook (of een vergelijkbaar bedrijf) hun gezicht beschouwt als publieke informatie. Minder uitgesproken was de uitkomst op de vraag of mensen vertrouwen op een slimme pleister die continu de vitale lichaamsfuncties kan meten (45 procent vindt dat prima, 55 procent heeft daar problemen mee). Ook de vraag of mensen de zorg van hun hulpbehoevende moeder toevertrouwen aan een zorgrobot leverde niet al te veel verschil tussen voors en tegens op (42 procent vertrouwt dat de robot wel toe, 57 procent doet dat niet).

Groot verschil was er wel op de vraag of het verantwoord is als het ministerie van Defensie wapens inzet die zonder menselijke tussenkomst hun doelen selecteren. Bijna negen op de tien ondervraagden vindt dat niet verantwoord, iets meer dan 10 procent heeft daar geen bezwaar tegen. Eenzelfde verschil in voors en tegens treffen we aan bij de uitkomst op de vraag of het acceptabel is dat veiligheidsdiensten kwetsbaarheden in software die zij gebruiken in het kader van hun hackbevoegdheid bewust niet melden aan ontwikkelaars (waardoor ook criminelen hun slag kunnen slaan). Iets meer dan 10 procent vindt dat prima, de rest vindt dat niet prima of heeft geen mening.

De volledige uitkomsten van de enquête zijn hier terug te vinden.