Waarom we soms denken dat robots pijn kunnen ervaren

Op 1 augustus 2015 werd de Canadese liftende robot hitchBOT onthoofd aangetroffen in een park in Philadelphia. Voor zijn onfortuinlijke ondergang had de robot met succes tienduizenden kilometers afgelegd door Canada, Duitsland en Nederland. De vernietiging van de robot werd uitvoerig gerapporteerd door de media en veel mensen uitten via Facebook en Twitter hun woede en verdriet over de “pijn” en “het leed” dat de robot was aangedaan. Maar denken we nou écht dat robots pijn ervaren? Hoewel je misschien meteen denkt dat dit niet het geval is, laat onderzoek zien dat mensen in deze situaties tóch geneigd zijn om te denken dat dit zo is. 

Afbeelding via Rawpixel

Waarom dit gebeurt, wordt uitgelegd door psychologen Gray en Wegner (2012), die uitvoerig onderzoek deden naar moraliteit. Zij stellen in hun theorie dat ons begrip van moraliteit en morele daden, zoals bijvoorbeeld diefstaf of moord, bestaat uit een interactie tussen twee mensen: iemand die de actie uitvoert (een dader of een held) en iemand die de actie ondergaat (een slachtoffer). 

Daarnaast worden, volgens de theorie, helden en daders sterk geassocieerd met het vermogen om bewust keuzes te maken, waardoor zij verantwoordelijk kunnen worden gesteld voor hun gedrag. Vaak worden (gevangenis)straffen dan ook deels bepaald door de mate waarin daders ‘wilsbekwaam’ zijn, oftewel, in hoeverre daders zich bewust zijn van hun keuzes en de gevolgen van hun daden. Zo houden we peuters bijvoorbeeld minder verantwoordelijk voor dezelfde daad dan een volwassene (Gray & Wegner, 2009). Slachtoffers associëren we juist sterk met het vermogen om verdriet of pijn te ervaren.

Hoe verklaart dit nu waarom we soms denken dat robots pijn kunnen ervaren? Volgens Grey en Wegner (2012) is de associatie in ons brein tussen slachtoffers die pijn lijden en wilsbekwame daders zó sterk, dat ons brein het één niet zonder het ander kan zien. Wanneer zich een situatie voordoet waarin veel leed is veroorzaakt, gaan we dus automatisch op zoek naar een dader, ook wanneer deze er eigenlijk niet is. Dit is bijvoorbeeld het geval bij natuurrampen of het plotselinge overlijden van beroemdheden. 

Aan de andere kant hebben we, wanneer we het gevoel hebben dat iemand iets doet wat niet door de beugel kan, de neiging om een (pijn) lijdend slachtoffer waar te nemen, ook wanneer deze er in eerste instantie niet is. Daarnaast associëren we slachtoffers, zoals gezegd, automatisch sterk met het vermogen om pijn te voelen, ook wanneer zij dit eigenlijk niet kunnen. Wanneer een robot, zoals hitchBOT, dus het “slachtoffer” wordt van een immorele daad, zullen we automatisch geneigd zijn om de robot te associëren met het vermogen om pijn te ervaren. Dit fenomeen wordt ook wel het harm-made mind effect genoemd (Ward et al., 2013)

Het harm-made mind effect is in verschillende onderzoeken aangetoond. Zo kreeg een groep deelnemers in een serie experimenten teksten te lezen waarin een comapatiënt, een overleden persoon, of een robot opzettelijk door iemand werd gestoken met een mes. Deze deelnemers waren het achteraf meer eens met de stelling dat deze “slachtoffers” pijn kunnen ervaren, dan deelnemers die teksten lazen waarin de comapatiënt, overleden persoon of robot niet tot slachtoffer werden gemaakt (Ward et al., 2013). 

Zelfs de suggestie dat een robot slachtoffer zou kúnnen zijn, is al genoeg om het harm-made mind effect op te wekken. Zo vond onderzoek dat mensen die werden blootgesteld aan een virtueel gezicht met een hoofdwond het meer eens waren met de stelling dat de afgebeelde gezichten pijn konden ervaren, dan mensen die werden blootgesteld aan hetzelfde virtuele gezicht zónder hoofdwond (Küster & Swiderska, 2020; Swiderska & Küster, 2018). 

We zijn dus af en toe daadwerkelijk geneigd om te denken dat robots pijn kunnen ervaren. Betekent dit nu dat we binnenkort allemaal staan te demonstreren voor robotrechten? Waarschijnlijk niet. Het harm-made mind effect treedt automatisch en vaak onbewust op. Wanneer we onze hersenen langer de tijd geven om over de situatie na te denken, zal de automatische reactie gecorrigeerd worden. Zo zien mensen bijvoorbeeld meer slachtoffers in immorele scenario’s zonder direct slachtoffer (zoals het verminken van een al overleden persoon) wanneer zij onder tijdsdruk staan, dan wanneer men de tijd krijgt om over een antwoord na te denken (Gray et al., 2014).

Het harm-made mind effect, de automatische associatie tussen slachtoffers en daders, pijn veroorzaken en pijn lijden, zal echter altijd blijven. We kunnen er niks aan doen; zo zijn we nu eenmaal “geprogrammeerd”.

Referenties

Gray, K., & Wegner, D. M. (2009). Moral typecasting: divergent perceptions of moral agents and moral patients. Journal of Personality and Social Psychology, 96(3), 505-520. https://doi.org/10.1037/a0013748

Gray, K., & Wegner, D. M. (2012). Morality takes two: Dyadic morality and mind perception. In M. Mikulincer & P. R. Shaver (Eds.), Herzliya series on personality and social psychology. The social psychology of morality: Exploring the causes of good and evil. American Psychological Association. https://doi.org/10.1037/13091-006

Gray, K., Schein, C., & Ward, A. F. (2014). The myth of harmless wrongs in moral cognition: Automatic dyadic completion from sin to suffering. Journal of Experimental Psychology: General, 143(4), 1600-1615. https://doi.org/10.1037/a0036149

Küster, D., & Swiderska, A. (2020). Seeing the mind of robots: Harm augments mind perception but benevolent intentions reduce dehumanisation of artificial entities in visual vignettes. International Journal of Psychology. https://doi.org/10.1002/ijop.12715  

Swiderska, A., & Küster, D. (2018). Avatars in pain: visible harm enhances mind perception in humans and robots. Perception, 47(12), 1139-1152.