帝国研究:人类保护AI机器人免受排斥

2024-11-26 13:31来源:本站编辑

在伦敦帝国理工学院的一项研究中,人类对被排除在游戏时间之外的人工智能机器人表现出同情和保护。

研究人员表示,这项使用虚拟球类游戏的研究突显了人类将人工智能代理视为社会存在的倾向——在设计人工智能机器人时应考虑到这一倾向。

这项研究发表在《人类行为与新兴技术》杂志上。

来自帝国理工戴森设计工程学院的首席作者周建南(Jianan Zhou)表示:“这是对人类如何与人工智能互动的独特见解,对人工智能的设计和我们的心理都有令人兴奋的影响。”

人们在访问服务时越来越需要与人工智能虚拟代理进行互动,许多人也将其作为社交互动的伙伴。然而,这些发现表明,开发人员应该避免将代理设计得过于像人类。

同样来自帝国理工戴森设计工程学院的资深作者Nejra van Zalk博士说:“关于人类是否将人工智能虚拟代理视为社会存在,一项虽小但越来越多的研究显示了相互矛盾的结果。”这就提出了一个重要的问题,即人们如何感知这些代理并与之互动。

“我们的研究结果表明,参与者倾向于将人工智能虚拟代理视为社会存在,因为如果他们觉得人工智能被排除在外,他们会试图将它们纳入投球游戏。这在人与人之间的互动中很常见,我们的参与者也表现出了同样的倾向,即使他们知道自己是在向虚拟代理扔球。有趣的是,这种影响在年龄较大的参与者中更为明显。”

人们不喜欢被排斥——即使是对人工智能

对不公平感同身受并采取纠正措施是大多数人似乎天生就会做的事情。先前不涉及人工智能的研究发现,人们倾向于通过更频繁地向被排斥的目标扔球来补偿他们,人们也倾向于不喜欢排斥行为的肇事者,同时对目标感到偏爱和同情。

为了进行这项研究,研究人员观察了244名人类参与者,当他们看到一个人工智能虚拟代理在一个名为“赛博球”的游戏中被另一个人排除在外时,他们是如何反应的。在这个游戏中,玩家在屏幕上相互传递一个虚拟球。参与者的年龄在18岁到62岁之间。

在一些游戏中,非参与者向bot扔了很多次球,而在另一些游戏中,非参与者通过只向参与者扔球公然排斥bot。

研究人员对参与者进行了观察,并随后对他们的反应进行了调查,以测试他们是否喜欢在球受到不公平对待后把球扔给机器人,以及为什么。

他们发现,大多数时候,参与者都倾向于把球扔给机器人,以此来纠正对机器人的不公平。年龄较大的参与者更容易感觉到不公平。

人类谨慎

研究人员表示,随着人工智能虚拟代理在协作任务中越来越受欢迎,与人类的接触增加可能会增加我们的熟悉度,并触发自动处理。这意味着用户可能会直观地将虚拟代理视为真实的团队成员,并与他们进行社交互动。

他们说,这可能是工作协作的一个优势,但在虚拟代理被用作朋友来取代人际关系,或作为身体或心理健康顾问的情况下,这可能是一个问题。

贾楠说:“通过避免设计过于人性化的代理,开发者可以帮助人们区分虚拟和真实的互动。他们还可以为特定的年龄范围量身定制他们的设计,例如,通过考虑我们不同的人类特征如何影响我们的感知。”

研究人员指出,赛博球可能无法代表人类在现实生活中的互动方式,而现实生活通常是通过与聊天机器人或语音助手进行书面或口头交流。这可能会与一些参与者的用户期望相冲突,并引起陌生感,影响他们在实验中的反应。

因此,他们现在正在设计类似的实验,在实验室或更随意的环境中与代理人进行面对面的对话。通过这种方式,他们可以测试他们的发现可以延伸到什么程度。

左文资讯声明:未经许可,不得转载。