Omgaan met computers alsof het mensen zijn?
We kennen ze als moordlustig, of juist als superschattig met hun grote ogen. We gebruiken ze om sms-berichten te schrijven, kook-timers in te stellen, of boos tegen te schreeuwen omdat ze niet luisteren. Ik heb het over robots, chatbots en alle andere vormen van kunstmatige intelligentie. Ze zijn overal, en iedereen weet dat ze steeds vaker zullen opduiken. Maar wat is fictie en wat is echt? Hoe gaan we om met computers en welke gevoelens brengen ze bij ons teweeg?
Afbeelding: https://www.pexels.com/nl-nl/foto/hoge-hoekfoto-van-robot-2599244/.
In 1966 was de eerste chatbot er al: ELIZA (Wiezenbaum, 1966). Je kon ELIZA vragen stellen over hoe je je voelde en ze gaf raad. Net als een echte therapeut, maar dan zonder de wachtlijsten en een factuur achteraf. Er zijn meerdere chatbots gemaakt in die tijd maar wat ELIZA zo opmerkelijk maakte, was hoe mensen op haar reageerden. Haar programmeur wilde niet zozeer een chatbot maken die zich voordeed als een mens, maar wilde vooral laten zien dat mensen geen diepzinnige gesprekken met een computer zouden voeren. Het tegendeel bleek waar. Deelnemers maakten een emotionele connectie met ELIZA en voelden dat de chatbot echt om hen gaf. Dit was het eerste bewijs dat mensen gevoelens konden hebben voor computers, ook al is dat helemaal niet logisch.
Beleefd zijn tegen een computer
In de jaren 90 is er een serie studies uitgevoerd om te onderzoeken of mensen gevoelens voor computers hebben (zie Nass & Moon, 2000 voor een overzicht). Op de Stanford Universiteit werden studenten uitgenodigd om een korte tutorial te volgen op een computer. De computer zelf deed zich voor als leraar en begeleidde de studenten door de taken. Aan het einde van de tutorial werden de studenten getoetst op hoeveel ze hadden geleerd. Daarna vulden ze een evaluatieformulier in over het programma en de zogenaamde leraar De studenten werden hierbij opgesplitst in drie groepen: Groep 1 vulde het evaluatieformulier in op dezelfde computer waarop ze de tutorial hadden gedaan. Groep 2 vulde het evaluatieformulier in op een identieke maar andere computer in een andere kamer, en Groep 3 vulde het formulier in op een stukje papier.
Het is frappant dat studenten positiever waren als ze het formulier invulden op dezelfde computer waarmee ze het programma hadden gevolgd (Groep 1 dus), terwijl Groep 2 en 3 juist minder positief waren. Dachten de studenten soms dat de computer, net als mensen, gevoelens had? Het is onbeleefd om iemand direct te bekritiseren. Maar op een stukje papier, of tegen iemand anders, zijn mensen sneller geneigd om eerlijk te zijn. De auteurs concludeerden dan ook dat de studenten de computers behandelden alsof ze echte mensen waren.
De auteurs vonden dit soort gedrag ook in andere interacties. Als een computer zich bijvoorbeeld voordeed als vrouw, werd ze als liever, behulpzamer, en meer moeder-achtig ervaren, in vergelijking met een ‘mannelijke’ computer. In deze serie onderzoeken communiceerden de studenten met een desktopcomputer, die voornamelijk middels tekst communiceerde. Er was dus geen plaatje, geen stem, en zeker geen animatie. Gewoon een ouderwetse dikke desktop uit de jaren negentig die via tekst duidelijk maakte dat hij/zij een man of vrouw was.
Communicatie met niet-levende entiteiten
Uit deze bevindingen blijkt dat mensen omgaan met computers alsof het echte mensen zijn en dat deze vermenselijking tot de bovenstaande reacties leidt (Reeves & Nass, 1997). De verklaring is te vinden in ons brein. Dat gaat er vanuit dat sociale communicatie alleen mogelijk is met een levende entiteit die emoties kan voelen (Buss, 2015; Carolus et al., 2018), een andere persoon bijvoorbeeld. Het is pas sinds ELIZA dat we opeens sociaal kunnen communiceren met een niet-levende entiteit. En dat is pas zestig jaar geleden, onvoldoende tijd dus voor onze hersenen om zich aan te passen aan deze nieuwe realiteit. Wordt deze vorm van interactie ooit gemeengoed voor de moderne mens? Vast wel, maar zeker niet in de aankomende jaren.
De voorgaande resultaten uit Stanford met ouderwetse desktopcomputers zijn sindsdien ook gevonden als mensen met andere platformen interageren, zoals websites (Karr-Wisniewski & Prietula, 2010) en zelfs met smartphones (Carolus et al., 2019). Zodra iets niet-levends een menselijk kenmerk vertoont, vallen we ervoor. Theoretisch gezien zou je kunnen aannemen dat als we ogen op een steen tekenen, mensen dan ook opeens gevoelens voor die steen gaan krijgen. Want zo simpel en snel werkt het. Het is een automatisme en we kunnen het bijna niet bewust tegengaan (Nass & Moon, 2000).
Robot-hond
Het merendeel van onze sociale interacties met computers is gebaseerd op dit fenomeen van vermenselijking. Het vervangen van mensen door robots brengt hierdoor voor- en nadelen met zich mee. Chatbots worden bijvoorbeeld ingezet om de werkdruk van customer-service verleners te verlagen. Veel mensen die een helpdesk of bedrijf bellen of mailen hebben eenvoudige vragen, die computers makkelijk kunnen beantwoorden. Dit betekent dat medewerkers beschikbaar zijn om de moeilijke vragen te behandelen, de vragen die door een computer niet kunnen worden opgelost. Dit zie je momenteel overal gebeuren. Denk aan de chatbots van Albert Heijn, bol.com, en thuisbezorgd. Er wordt ook veel onderzoek gedaan naar het inzetten van robots voor het verlichten van eenzaamheid bij ouderen, omdat een robot-hond veel minder onderhoud nodig heeft dan een echte hond, maar toch dezelfde sociale steun kan bieden.
Chatbots als therapeut of biechtvader worden ook nog steeds geprogrammeerd (bijvoorbeeld, Woebot; woebothealth.com). Want mensen vinden het prettig om met een computerachtige chatbot te praten omdat deze geen opinie heeft (Nass & Moon, 2000). In deze situaties is het dus fijn dat een chatbot slechts een computer is. Het voelt hierdoor meer vertrouwd. Maar omdat het zo makkelijk is om menselijke kenmerken toe te kennen aan een chatbot, is het heel moeilijk om een chatbot te programmeren die juist niet menselijk overkomt. Onderzoek is gaande op Tilburg Universiteit om te kijken of mensen anders reageren als ze met een chatbot communiceren vergeleken met een persoon. Want als mensen ook terughoudend zijn naar een computer toe omdat deze wordt ervaren als een daadwerkelijk persoon, dan worden belangrijke doelen (zoals eerlijkheid) niet behaald en kunnen mensen evengoed naar een ‘echte’ therapeut.
Trauma
In andere gevallen kan het vermenselijken van robots zelfs extreem nadelig zijn. Denk bijvoorbeeld aan robots die worden ingezet bij het ontmantelen van bommen om menselijke slachtoffers te voorkomen. Vanwege de emotionele relatie die de bomexperts maken met de robot ontstaat er alsnog een trauma als de robot wordt opgeblazen (Carpenter, 2013). Er is veel doorlopend onderzoek naar het ‘martelen’ van robots en hoe mensen daar op reageren. Het resultaat zal niet verbazen: Hoe menselijker de robot eruit ziet, hoe minder graag we de robot willen martelen. Er is zelfs een studie die laat zien dat mensen net zomin een menselijke robot zouden opofferen als een daadwerkelijk persoon (Nijssen et al., 2019). Sterker nog, deelnemers gaven aan dat ze in sommige situaties liever een echte persoon zouden opofferen om de robot te kunnen redden (Nijssen et al., 2019).
Dit is een probleem. Als het idee van kunstmatige intelligentie is om mensen te vervangen, dan moeten we ze soms dus ook kunnen zien als de ‘tools’ die ze zijn. Een metaal hoesje rondom een computer met draden en een accu. Meer niet. En soms houdt een ‘tool’ in dat je ze moet opofferen, zoals de bomrobot. Als mensen daar vervolgens trauma’s aan overhouden, dan is de robot misschien toch niet de beste oplossing.
Tot slot
Robots, chatbots en andere vormen van kunstmatige intelligentie worden reeds toegepast in diverse facetten van ons leven, met verschillende doeleinden. Het aandachtspunt dat ontstaat is dat we kunstmatige intelligentie gaan zien als een ander levend wezen, met eigen emoties en uiteindelijk misschien wel eigen rechten. Moeten we dat wel altijd willen?
REFERENTIES
Buss, D. (2015). Evolutionary Psychology: The new science of the mind. Psychology Press.
Carolus, A., Schmidt, C., Schneider, F., Mayr, J., & Muench, R. (2018). Are People Polite to Smartphones? How Evaluations of Smartphones Depend on Who Is Asking. In HCI (pp. 500–511). Springer International Publishing. https://doi.org/10.1007/978-3-319-91244-8
Carolus, A., Muench, R., Schmidt, C., & Schneider, F. (2019). Impertinent mobiles - Effects of politeness and impoliteness in human- smartphone interaction. Computers in Human Behavior, 93 (January 2018), 290–300. https://doi.org/10.1016/j.chb.2018.12.030
Carpenter, J. (2013). Just doesn’t look right: Exploring the impact of humanoid robot integration into explosive ordnance disposal teams. In R. Luppicini (Ed.), Handbook of research on technoself: Identity in a technological society (pp. 609-636). Hershey, PA: Information Science Publishing. https://doi.org/10.4018/978-1- 4666-2211-1
Karr-wisniewski, P., & Prietula, M. (2010). Computers in Human Behavior CASA , WASA, and the dimensions of us. Computers in Human Behavior, 26(6), 1761–1771. https://doi.org/10.1016/j.chb.2010.07.003
Nass, C., & Moon, Y. (2000). Machines and Mindlessness: Social Responses to Computers. Journal of Social Issues, 56(1), 81–103. https://doi.org/10.1111/0022-4537.00153
Nijssen, S. R. R., Müller, B. C. N., van Baaren, R. B., & Paulus, M. (2019). Saving the robot or the human? Robots who feel deserve moral care. Social Cognition, 37(1), 41–56. https://doi.org/10.1521/soco.2019.37.1.41
Reeves, B., & Nass, C. (1997). The Media Equation: How people treat computers, television, and new media like real people and places. New York, NY: Association for Computing Machinery.
Weizenbaum, J.: ELIZA—A Computer Program For the Study of Natural Language Communication Between Man And Machine. Commun. ACM. 26, 23–28 (1983). https://doi.org/10.1145/357980.357991.