在人工智能和機器人從未來技術(shù)逐漸成為現(xiàn)實
在《經(jīng)濟心理學(xué)雜志》上發(fā)表的一項研究中,科學(xué)家們探討了人們是否會像信任同類一樣信任機器人。在人工智能和機器人從未來技術(shù)逐漸成為現(xiàn)實的當(dāng)下,理解這些交互非常重要。
研究結(jié)果表明,人們對機器人的信任程度和對人類自身相似,但是,在日?;又?,人們的情緒反應(yīng)卻會表現(xiàn)得復(fù)雜一些,會因伴侶模式的不同而不同。
論文標題為Trust in humans and robots: Economically similar but emotionally different(對人類和機器人的信任:經(jīng)濟上相似,但情感上不同),查普曼大學(xué)的Eric Schniter博士和Timothy Shields博士以及蒙特利爾大學(xué)的Daniel Sznycer博士領(lǐng)導(dǎo)了這項研究。
在實驗中,研究人員使用了一個匿名信任游戲——由某個人決定將10美元送給一個對象,而對象分別是人、機器人以及會將所得轉(zhuǎn)交給另一個人類的機器人。
在贈予活動中,受贈人可以回贈一筆錢給贈予人。機器人則通過編程程序,模仿先前觀察到的人類受托人的贈予——回贈行為。在互動之后,參與者對各種積的和消的情緒進行評價。
眾所周知,在這樣的信托游戲中,大多數(shù)人類都會做出雙贏決定,而對于機器人的行為,大多數(shù)人則無法判斷。
這樣的實驗設(shè)計允許研究人員對器人信任度的2個重要方面做出判斷——與人類相比,人類對機器人的信任程度如何,以及人類在與機器人互動后的情感反應(yīng)模式如何?
實驗表明,人們對人類和機器人的信任程度是相似的。如果人類盲目信任或拒絕給機器人生銹,我們就不會發(fā)現(xiàn)這種情況。如果我們認為,人們擴大信任的唯一目的是改善他人的福利,那么這也不是結(jié)果,因為信任一個機器人并不能改善另一個人的福利。
這一結(jié)果與這樣一種觀點是一致的,即人們?yōu)榱私疱X收益和發(fā)現(xiàn)有關(guān)人類行為傾向的信息而擴大信任。通過與機器人的信任互動,參與者了解了人類之間的合作精神。
實驗結(jié)果顯示,們對人類和機器人的信任程度是相似的,并且實驗過程可以排除人類盲目信任以及盲目不信任的情況,同時也排除了人類信任機器人,是為了改善別的人類狀況的可能。
但是在互動導(dǎo)致的情感反應(yīng)上,人類對機器人和同類是不同的。在試驗中,如果受贈人是人類,贈予人在沒能獲得回報時會更加憤怒。同樣,當(dāng)受贈人是人類時,回贈行為更能激發(fā)贈予人的感激之情。
此外,參與者的情緒對不同類型的機器人有細微差別。他們報告,在面對機器人轉(zhuǎn)增的受贈人行為時,各種情緒都比單獨面對機器人行為時更強烈。
這項研究意義重大,互動情緒不僅僅是一種感覺,它們會反過來影響互動行為。更具體地說,社會情感,如內(nèi)疚、感激、憤怒和驕傲,會影響我們?nèi)绾螌Υ?,也會影響他人如何在基于信任的互動中對待我們?/p>
在未來,像駕駛這種場合將產(chǎn)生復(fù)雜的互動行為。一些用于送貨或取貨的汽車可能會發(fā)展成無人駕駛,其他汽車則可能還是有人駕駛。類似的交互作用發(fā)生在自動或機器人登記代理、銀行出納員、外科醫(yī)生等。
根據(jù)實驗結(jié)果,當(dāng)互動對象是人類同類時,維持和同一位合作者的伙伴關(guān)系會更加鞏固,因為人類比機器人更能引起感激。相反地,當(dāng)互動對相是機器人時,與不同機器人的合作關(guān)系可能更穩(wěn)定,因為機器人引起的憤怒比人類少。