多元文化经历提升人类对机器人的利他行为及心智知觉的中介作用*
1引言,1机器人是否可能拥有道德地位?,2人类对机器人利他行为的影响因素,3多元文化经历提高人类对机器人的利他行为,4多元文化经历促进人类对机器人利他行为的心理机制——心智知觉的中介作用,5多元文化
滕 玥 张昊天3 赵偲琪 彭凯平 胡晓檬(1 中国人民大学心理学系,北京 100872) (2 中国人民大学哲学与认知科学跨学科交叉平台,北京 100872)(3 武汉大学哲学学院心理学系,武汉 430072) (4 清华大学心理学系,北京 100084)
1 引言
人工智能革命浪潮正在席卷全球,然而心理学与人工智能交叉地带的基础研究和成果转化亟需积累更多理论指引和科学支撑。人工智能时代的机器人应用已然成为人类社会不可或缺的组成部分。从最贴近人们日常生活的扫地机器人、服务型机器人,到执行高风险与高心智能力任务的军事机器人、医学诊断机器人等,机器人的普及程度和对人类社会的重大影响日渐增加。尽管人工智能在技术和应用上的迅猛发展大大提升了解决现实问题的效率与质量,但也不可避免地带来了复杂的道德伦理问题。专攻认知科学与人工智能的哲学家Klincewicz (2016)认为,今时今日的人们想要过上“道德生活”的难度远高于古人所处的年代,这是因为我们从祖先那里继承的道德理论与道德实践已经与快速更新迭代的科技生活脱节,无法满足当代社会所出现的新的道德问题,这就是所谓的“道德滞后”(moral lag)现象(丁晓军 等,2020)。因此,心理学家应当前瞻性的探索人工智能给人类社会带来的道德伦理问题,并与哲学、社会学、工程师、人工智能产业等开展合作进行对话性的研究,以期更好的发挥人工智能的优势,规避可能带来的伦理风险,构建人与人工智能的良好生态关系。
1.1 机器人是否可能拥有道德地位?
人与机器人的交互接触是双向的,机器人在危机管理、军事航空、医疗、教育等领域为人类提供极大的便利(Bigman &Gray,2018)。由此,基于人类固有的互惠利他原则,人们开始呼吁人类也应当关心机器人的权益,甚至赋予机器人类人的道德考量,即给予机器人与人类同等程度的道德关怀和道德权益(Lund et al.,2007)。谷歌工程师 Blake Lemolne 公开呼吁AI 有灵魂有意识,应该享受与人类一样的基本权利,这位工程师甚至打算帮助聊天机器人LaMDA 聘请律师以争取其应有的合法利益,保障其享有法律所赋予“人”的权力。心理学家基于“计算机是社会行动者”(computers are social actors)框架(Nass &Moon,2000),提出人类对机器人的行为是亲社会模式的。也就是说,当人们以亲社会的方式对待人类和机器时,动机和认知过程是类似的,其中包括将机器视为人类,将机器进行社会分类,受到机器的社会影响,以及对机器体验社会情绪,比如共情等(Nielsen et al.,2021) ......
您现在查看是摘要页,全文长 32218 字符。