Behavioral economics for AI-augmented scenarios

No Thumbnail Available

Files

URL

Journal Title

Journal ISSN

Volume Title

Perustieteiden korkeakoulu | Bachelor's thesis
Electronic archive copy is available locally at the Harald Herlin Learning Centre. The staff of Aalto University has access to the electronic bachelor's theses by logging into Aaltodoc with their personal Aalto user ID. Read more about the availability of the bachelor's theses.

Date

2024-09-16

Department

Major/Subject

Teknillinen psykologia

Mcode

SCI3163

Degree programme

Teknistieteellinen kandidaattiohjelma

Language

en

Pages

33

Series

Abstract

The applications of Artificial Intelligence (AI) are becoming increasingly prominent in the society. Therefore, it is valuable to develop a broader understanding of human decision-making in AI-augmented scenarios. For instance, independent AI agents and other advanced AI applications, such as digital assistants are becoming ubiquitous. A deep understanding of human-AI interactions is important in order to ensure that the development of AI-driven society takes into account the possible challenges that might arise from this new field of interaction. This bachelor’s thesis is a literature review exploring how humans cooperate and how these cooperative traits transition to human-AI strategic interactions. The concepts are studied using the methods of behavioral economics and game theory that have shown good results in predicting human decision-making in strategic interactions. The goal of the thesis is to inspect how human behavior changes in AI-augmented scenarios. Real-life strategic interactions can be represented with game theoretic scenarios called economic games. A common variation of these games are social dilemmas that enable researchers to study various motivations behind economic decision-making. In empirical studies on economic games, mathematical models that take into account people's preferences for fairness and cooperation tend to outperform predictions focused solely on self-interested motivations. Typically these models compare decisions by assigning utilities for different actions based on individual's social preferences and material rewards in the scenario. Examining these models is useful, because they provide insight into humans’ internal decision-making processes. The thesis concludes that in AI-augmented strategic interactions, the current social preference models are unable to predict cooperation accurately. Instead, people seem to exploit benevolent AI agents. However, social preferences tend to persist when individuals are informed that there is another human beneficiary who receives the payoffs gained by the AI. This also seems to translate to settings where humans are interacting with other AI-augmented people. Even with no human beneficiary, cooperation can be elicited by introducing cultural or emotional expressions for the AI agents. Based on the reviewed literature, the thesis presents a framework to evaluate human decision-making in strategic interactions, which also considers scenarios involving non-human agents.

Tekoälyn sovellutukset ovat integroitumassa yhä laajemmin osaksi yhteiskuntaa. Tämän seurauksena osoittautuu tärkeäksi ymmärtää ihmisten käyttäytymistä tekoälyn kanssa vuorovaikutettaessa. Esimerkiksi itseajavat autot ja edistyneet generatiivisen tekoälyn sovellukset, kuten keskustelubotit valtaavat yleistä kuvaa tulevaisuudesta. Syvällisellä ymmärryksellä ihmisen ja tekoälyn vuorovaikutuksesta voidaan parantaa yhteiskunnan turvallisuutta ja soveltaa tekoälyn kehitystä ihmisystävällisemmän tulevaisuuden takaamiseksi. Tämä kandidaatintyö käsittelee kirjallisuuskatsauksen kautta ihmisten välisen yhteistyön juurisyitä strategisessa vuorovaikutuksessa sekä tekoälyelementtien tuomaa muutosta yhteistyön esiintymiseen. Työssä tutkitaan erityisesti behavioristisen peliteorian menetelmiä, sillä aiempi tutkimus käyttäytymistaloustieteen alalla on osoittanut niiden olevan erinomainen tapa luoda ennusteita ihmisten päätöksenteolle monimutkaisissakin tilanteissa. Työn tavoite on tarkastella, miten asenteet tekoälytoimijoita tai muita tekoälytyökaluja käyttäviä ihmisiä kohtaan vaikuttavat yhteistyön esiintymiseen strategisissa vuorovaikutustilanteissa. Ihmisten välisen yhteistyön mallintamiseen on kehitetty peliteoreettisia skenaarioita, jotka mallintavat yksinkertaistetusti toimijoiden välisiä tosielämän strategisia vuorovaikutustilanteita. Tyypillisiä asetelmia ovat ns. sosiaaliset dilemmat, joiden avulla voidaan tutkia erilaisia valintojen taustalla vaikuttavia motiiveja. Vaihtelevat tilanteet tarjoavat tietoa ihmisten sisäisistä motiiveista eri tavoin. Esimerkiksi niin kutsutussa metsästyspelissä (engl. Stag hunt) osapuolten päätöksentekoon vaikuttavat kateus tai epäluottamus pelaajien välillä. Sen sijaan luottamuspeleissä (engl. Trust games) jälkimmäisen pelaajan päätös yhteistyön tekemisestä kertoo hänen motiiveistaan yhteisen hyvän ja itsekkyyden painottamisen välillä. Empiirisissä tutkimuksissa matemaattiset mallit, jotka ottavat huomioon yksilöiden sosiaaliset mieltymykset esimerkiksi epätasa-arvon välttämisen suhteen ovat osoittautuneet ennustekyvyltään tehokkaammiksi kuin puhtaasti aineellisia palkintoja huomioivat ennusteet. Mallien tarkastelu on hyödyllistä, sillä ne tarjoavat tietoa ihmisen sisäisistä päätöksentekoprosesseista. Työssä todetaan, että sosiaalisten mieltymysten mallit eivät nykyisellään kykene ennustamaan yhteistyön esiintymistä tekoälyätoimijoiden kanssa vuorovaikutettaessa. Sen sijaan ihmisten havaitaan usein hyväksikäyttävän yhteistyökykyisiä tekoälytoimijoita. Toisaalta yhteistyöhalukkuus vaikuttaa kuitenkin riippuvan myös tekoälyn implementointiin liittyvistä seikoista. Perinteisten yhteistyöhön vaikuttavien elementtien lisäksi tekoälyn kanssa vuorovaikutettaessa esimerkiksi ihmisedunsaajan implikointi tai tunneilmaisuja välittävän avatarin käyttö tekoälytoimijan yhteydessä todetaan lisäävän sosiaalisia mieltymyksiä. Alan tutkimustietoon perustuen työssä esitellään viitekehys, jonka avulla yhteistyön esiintymistä voidaan arvioida niin ihmisten kuin tekoälytoimijoidenkin kanssa vuorovaikutettaessa.

Description

Supervisor

Savioja, Lauri

Thesis advisor

Welsch, Robin

Keywords

artificial intelligence, behavioral economics, game theory, strategic interaction

Other note

Citation