“数字来世”:呼吁采取保障措施,防止人工智能聊天机器人对已故亲人进行不必要的“困扰”

剑桥大学研究人员表示,允许用户与失去亲人进行文本和语音对话的人工智能存在造成心理伤害的风险,甚至会在没有设计安全标准的情况下以数字方式“困扰”那些留下的人。

“Deadbots”或“Griefbots”是人工智能聊天机器人,它们利用死者留下的数字足迹来模拟死者的语言模式和性格特征。 一些公司已经提供这些服务,提供一种全新类型的“事后存在”。

来自剑桥 Leverhulme 智能未来中心的人工智能伦理学家概述了可能作为发展中的“数字来世产业”一部分而出现的平台的三种设计方案,以展示他们称之为“高风险”的人工智能领域中粗心设计的潜在后果”。

这项发表在《哲学与技术》杂志上的研究强调了公司有可能利用死亡机器人以已故亲人的方式秘密向用户宣传产品,或者坚称死去的父母仍然“和你在一起”,从而让孩子们感到痛苦。

当活着的人在死后几乎重新创建时,公司可以使用由此产生的聊天机器人向幸存的家人和朋友发送垃圾邮件,发送未经请求的通知、提醒和有关他们提供的服务的更新——类似于以数字方式“被死的。”

研究人员认为,即使是那些最初从“死亡机器人”中获得安慰的人也可能会因日常互动而精疲力竭,这些互动会成为“压倒性的情感负担”,但如果他们现已去世的亲人签署了一份冗长的协议,他们也可能无力暂停人工智能模拟。与数字善后服务签订合约。

该研究的合著者、剑桥大学勒弗休姆未来中心的研究员卡塔齐娜·诺瓦齐克·巴西斯卡 (Katarzyna Nowaczyk-Basi?ska) 博士表示:“生成式人工智能的快速进步意味着,几乎任何拥有互联网接入和一些基本知识的人都可以复活已故的亲人。”情报(LCFI)。

“人工智能的这个领域是一个道德雷区。例如,重要的是要优先考虑死者的尊严,并确保这一点不会受到数字善后服务的经济动机的侵犯。

“与此同时,一个人可能会留下人工智能模拟作为告别礼物,送给那些不准备以这种方式处理悲伤的亲人。数据捐赠者和与人工智能来世服务互动的人的权利都应该得到同等保障”。

提供用人工智能重现死者并收取少量费用的平台已经存在,例如“Project December”,它在开发自己的系统之前开始利用 GPT 模型,以及包括“HereAfter”在内的应用程序。 类似的服务也开始在中国出现。

新论文中的一个潜在场景是“MaNana”:一种对话式人工智能服务,允许人们在未经“数据捐赠者”(已故祖父母)同意的情况下创建一个模拟已故祖母的死亡机器人。

假设的场景是,一个成年孙子最初对该技术印象深刻并感到安慰,一旦“高级试用”结束,他就开始收到广告。 例如,聊天机器人建议用死者的声音和风格从食品配送服务中订购。

这位亲戚觉得他们不尊重祖母的记忆,并希望以一种有意义的方式关闭死亡机器人——这是服务提供商没有考虑到的。

共同作者、同样来自剑桥大学 LCFI 的 Tomasz Hollanek 博士表示:“人们可能会通过此类模拟建立强烈的情感纽带,这将使他们特别容易受到操纵。”

“应该考虑以有尊严的方式让死亡机器人退休的方法甚至仪式。例如,这可能意味着某种形式的数字葬礼,或取决于社会背景的其他类型的仪式。”

“我们建议设计协议,防止死机器人以不尊重的方式被利用,例如用于广告或在社交媒体上活跃。”

虽然 Hollanek 和 Nowaczyk-Basi?ska 表示,再创造服务的设计者应该在通过之前积极寻求数据捐赠者的同意,但他们认为,基于未经同意的捐赠者而禁止死亡机器人是不可行的。

他们建议,设计过程应该为那些希望“复活”亲人的人提供一系列提示,例如“你是否曾与X谈论过他们希望如何被记住?”,因此逝者的尊严是突出的在deadbot开发中。

论文中的另一个场景是一家名为“Paren’t”的虚构公司,它强调了一位身患绝症的妇女留下一个死亡机器人来帮助她八岁的儿子度过悲伤的过程的例子。

虽然死亡机器人最初是作为一种治疗辅助手段,但人工智能在适应孩子的需求时开始产生令人困惑的反应,例如描绘即将发生的面对面接触。

研究人员建议对死亡机器人进行年龄限制,并呼吁“有意义的透明度”,以确保用户始终意识到他们正在与人工智能互动。 例如,这些可能类似于当前对可能导致癫痫发作的内容的警告。

该研究探索的最后一个场景——一家名为“Stay”的虚构公司——展示了一位老年人秘密地致力于自己的死机器人并支付二十年的订阅费,希望这能安慰他们的成年子女并让他们的孩子能够安心地工作。孙子们认识他们。

死亡后,该服务开始启动。一名成年子女没有参与,并收到了一系列以已故父母的声音发送的电子邮件。 另一个人这样做了,但最终精神疲惫,并对死亡机器人的命运感到内疚。 然而,暂停死亡机器人将违反其母公司与服务公司签署的合约条款。

霍拉内克说:“至关重要的是,数字来世服务不仅要考虑他们重新创造的人的权利和同意,还要考虑那些必须与模拟互动的人的权利和同意。”

“如果人们因人工智能对失去亲人的精确再现而受到不必要的数字困扰,这些服务就有可能给人们带来巨大的痛苦。潜在的心理影响,特别是在已经很困难的时期,可能是毁灭性的。”

研究人员呼吁设计团队优先考虑选择退出协议,允许潜在用户以提供情感封闭的方式终止与死亡机器人的关系。

Nowaczyk-Basińska 补充道:“我们现在需要开始思考如何减轻数字永生带来的社会和心理风险,因为这项技术已经存在。”

资讯来源:由a0资讯编译自THECOINREPUBLIC。版权归作者A0资讯所有,未经许可,不得转载

上一篇 2024年 5月 31日
下一篇 2024年 5月 31日

相关推荐