随着人工智能的不断发展,一个重大问题出现了:“幻觉”。 这些是人工智能生成的输出,没有现实基础。 幻觉可以是任何事情,从小错误到彻头彻尾的怪异和捏造的信息。 这个问题让很多人怀疑他们是否可以信任人工智能系统。 如果人工智能可以生成不准确甚至完全捏造的主张,并使其听起来像准确信息一样可信,那么我们如何才能依靠它来完成关键任务呢?
研究人员正在探索各种方法来应对幻觉的挑战,包括使用经过验证的信息的大型数据集来训练人工智能系统区分事实和虚构。 但一些专家认为,完全消除幻觉的可能性也需要扼杀使人工智能如此有价值的创造力。
由于人工智能在医疗保健、金融和媒体等领域发挥着越来越重要的作用,因此风险很高。 这一探索的成功可能会对人工智能的未来及其在我们日常生活中的应用产生深远的影响。
为什么人工智能会产生幻觉
像 ChatGPT 这样的生成式人工智能系统有时会产生“幻觉”,即不基于真实事实的输出,因为这些系统创建文本的方式不同。 在生成响应时,人工智能本质上是根据前面的单词来预测可能的下一个单词。 (这是很多 更复杂 与手机键盘建议下一个单词的方式不同,但它是建立在相同的原理之上的。)它会不断地逐字逐句地这样做,以构建完整的句子和段落。
币安大学计算机和信息科学教授 Chris Callison-Burch 告诉 Freethink,问题在于某些单词跟随其他单词的概率并不是确保结果句子真实的可靠方法。 人工智能可能会将听起来合理但不准确的单词串在一起。
“一旦你让模型变得更加确定……你就会破坏质量。”
玛丽亚·苏卡列娃
ChatGPT 在基础数学方面的困难凸显了其文本生成方法的局限性。 例如,当被要求将训练数据中遇到的两个数字相加时,例如“二加二”,它可以正确回答“四”。 然而,这是因为它给“二加二等于”短语后面的“四”这个词赋予了很高的概率,而不是因为它理解数字和加法的数学概念。
这个例子展示了系统对训练数据模式的依赖如何导致需要真正推理的任务失败,即使是简单的算术也是如此。
“但是,如果你取两个以前从未见过的非常长的数字,它只会生成一个任意的彩票号码,”卡里森-伯奇说。 “这说明 ChatGPT 和类似的语言学习模型 (LLM) 使用的这种自回归生成使得执行各种基于事实或符号推理变得困难。”
因果人工智能
消除幻觉是一项艰巨的挑战,因为它们是聊天机器人工作方式的自然组成部分。 事实上,文本生成的多变且略微随机的性质是这些新型人工智能聊天机器人质量如此出色的部分原因。
“一旦你让模型变得更加确定,基本上你就强迫它预测最有可能的单词,你就大大限制了幻觉,但你会破坏质量,因为模型总是会生成相同的文本,”人工智能专家玛丽亚·苏卡雷娃(Maria Sukhareva)西门子在接受采访时说道。
卡里森-伯奇指出,虽然使用法学硕士不太可能产生幻觉,但已经开发出有效的技术来降低幻觉的发生率。 一种有前途的方法称为 “检索增强一代”。 该系统不再仅仅依赖人工智能现有的训练数据和用户提供的上下文,而是可以在维基百科或其他网页上搜索相关信息。 然后,它使用这些(可能更真实的)信息来生成更准确的摘要或响应。
“这些人工智能应用程序依赖的知识源可能包含不准确或过时的信息。”
利兰·哈森
减少幻觉的另一种方法是使用“因果人工智能”,它允许人工智能通过改变变量并从多个角度检查问题来测试不同的场景。
UserExperience.ai 的创始人托尼·费尔南德斯 (Tony Fernandes) 告诉 Freethink,“正确设置数据并为合理的结果建立护栏,可以防止幻觉曝光。” “然而,最终的答案是,无论人工智能过程多么复杂,人类都需要继续参与并提供监督。”
帮助减少人工智能错误的公司 Aporia 的领导者 Liran Hason 表示,要阻止人工智能编造谎言,我们应该学习网络安全界如何制造防火墙来阻止黑客的数据入侵。 关键在于实施人工智能护栏——旨在实时过滤和纠正人工智能输出的主动措施。 这些护栏充当第一道防线,识别和纠正幻觉并阻止潜在的恶意攻击。
“完全消除幻觉具有挑战性,因为这些人工智能应用程序依赖的知识源可能包含不准确或过时的信息,”他补充道。
对创造力的影响
当谈到人工智能生成的内容时,幻觉可能是一把双刃剑。 卡里森-伯奇说,在准确性至关重要的情况下,例如诊断医疗状况、提供财务建议或总结新闻事件,这些与现实的偏差可能会产生问题,甚至有害。
然而,在写作、艺术或诗歌等创造性追求领域,人工智能幻觉可能是一种有价值的工具。 事实上,他们偏离现有的事实信息并冒险进入想象可以推动创作过程,从而产生新颖和创新的想法。
“例如,如果我想模仿自己的创意写作风格,我可以检索我过去写过的故事的例子,然后让法学硕士以类似的风格跟进,”他补充道。
“当谈到人工智能模型时,我们可以两者兼得。”
凯尔·卡尔森
人工智能系统中的幻觉和创造力之间的联系与我们在人类想象力中看到的相似。 就像人们经常通过让思维超越现实的界限来提出创意一样,产生最具创新性和原创性输出的人工智能模型也往往更容易偶尔产生不基于现实世界事实的内容Domino 数据实验室人工智能战略主管 Kjell Carlsson 在接受采访时指出。
“对于人工智能模型和人类来说,显然有时为了防止伤害而这样做是非常合理的,”他补充道。 “然而,当谈到人工智能模型时,我们可以两者兼得。 我们可以而且应该消除给定人工智能应用程序层面的幻觉,因为要使其被采用并产生影响,它必须尽可能地按照预期运行。 然而,我们也可以消除这些限制,提供更少的背景,并使用这些人工智能模型来促进我们自己的创造性思维。”
资讯来源:由a0资讯编译自THECOINREPUBLIC。版权归作者A0资讯所有,未经许可,不得转载