《美国国家科学院院刊》(PNAS)上发表的一项新研究发现,与未经训练的人类生成的消息相比,人工智能生成的消息让接收者感觉更“被听到”,而且人工智能比这些人更擅长检测情绪。 然而,收件人表示,当他们得知一条消息来自人工智能时,他们感觉自己的声音被忽视了。
随着人工智能在日常生活中变得越来越普遍,了解其在满足人类心理需求方面的潜力和局限性变得更加重要。 在快节奏的世界中,随着同理心的减少,许多人发现自己对被倾听和被认可的需求越来越得不到满足。
南加州大学马歇尔商学院的 Yidan Yin、Nan Jia 和 Cheryl J. Wakslak 进行的研究解决了一个关键问题:缺乏人类意识和情感体验的人工智能能否成功地让人们感到被倾听和理解?
“在孤独感日益流行的背景下,我们的很大一部分动机是想看看人工智能是否真的可以帮助人们感到被倾听,”该论文的第一作者、劳埃德·格雷夫创业研究中心的博士后研究员殷一丹(Yidan Yin)说。南加州大学马歇尔。
该团队的研究结果不仅凸显了人工智能增强人类理解和沟通能力的潜力,还提出了关于被倾听的意义的重要概念问题,以及如何最好地利用人工智能的优势来支持人类更大繁荣的实际问题。
在一项实验和随后的后续研究中,“我们发现,虽然与未经训练的人类响应者相比,人工智能在提供情感支持方面表现出更大的潜力,但人工智能响应的贬值对有效部署人工智能的能力构成了关键挑战,”贾南说。 ,战略管理学副教授。
南加州大学马歇尔分校的研究小组调查了人们在收到人工智能或人类的回应后被倾听的感受以及其他相关的感知和情绪。 该调查改变了消息的实际来源和表面消息来源:参与者收到的消息实际上是由人工智能或人类响应者生成的,并且信息表明它是人工智能或人类生成的。
南加州大学马歇尔分校管理与组织学副教授谢丽尔·瓦克斯拉克 (Cheryl Wakslak) 表示:“我们发现,消息的实际来源和假定的消息来源都发挥了作用。” “当人们收到人工智能的信息时,他们会觉得自己的声音比人类的信息更能被听到,但当他们相信信息来自人工智能时,他们就会感觉自己的声音被忽视了。”
人工智能偏见
尹指出,他们的研究“基本上发现了对人工智能的偏见。它很有用,但他们不喜欢它。”
Wakslak 补充道,人们对人工智能的看法必然会发生变化,“当然,这些影响可能会随着时间的推移而改变,但我们发现的有趣的事情之一是,我们观察到的两种影响在幅度上相当相似。而获得对于人工智能消息,当消息被识别为来自人工智能时,会出现类似程度的响应偏差,导致这两种效应基本上相互抵消。”
个人进一步报告了一种“恐怖谷”反应——当意识到同理心反应源自人工智能时感到不安,突显了人工智能与人类互动所引导的复杂情感景观。
瓦克斯拉克解释说,这项研究调查还询问了参与者对人工智能的总体开放程度,这减轻了一些影响。
“对人工智能持更积极态度的人不会表现出那么多的反应惩罚,这很有趣,因为随着时间的推移,人们会对人工智能产生更积极的态度吗?” 她摆出姿势。 “这还有待观察……但随着人们对人工智能的熟悉度和经验的增长,看看这将如何发挥作用将会很有趣。”
人工智能提供更好的情感支持
该研究强调了重要的细微差别。 人工智能产生的反应与增加希望和减少痛苦有关,这表明对接收者有积极的情绪影响。 人工智能在提供情感支持方面也表现出了比人类更加严格的方法,并且不会提出压倒性的实际建议。
尹解释说:“具有讽刺意味的是,人工智能更擅长使用情感支持策略,这些策略在之前的研究中已被证明具有同理心和验证性。人类可能会向人工智能学习,因为很多时候,当我们的重要他人抱怨某事时,我们想要提供这种验证,但我们不知道如何有效地做到这一点。”
研究指出人工智能和人类反应的不同优势,而不是人工智能取代人类。 这项先进技术可以成为一种有价值的工具,使人类能够使用人工智能来帮助他们更好地相互理解,并学习如何以提供情感支持并展示理解和验证的方式做出反应。
总体而言,该论文的研究结果对于将人工智能融入更多社会环境具有重要意义。 利用人工智能的功能可能会为社会支持提供一种廉价的可扩展解决方案,特别是对于那些可能无法接触到能为他们提供此类支持的个人的人。 然而,正如研究小组指出的那样,他们的研究结果表明,仔细考虑人工智能的呈现和感知方式至关重要,以便最大限度地发挥其好处并减少任何负面反应。
资讯来源:由a0资讯编译自THECOINREPUBLIC。版权归作者A0资讯所有,未经许可,不得转载