当AI提示导致版权侵权时,谁来买单?

生成式人工智能因其 转变创造力的潜力,特别是通过降低 内容创作的障碍。 虽然 生成式人工智能工具的创造潜力 人们经常强调,这些工具的流行引发了有关知识产权和版权保护的问题。

ChatGPT 等生成式 AI 工具由 基础人工智能模型,或人工智能模型 经过大量数据训练。 生成式人工智能是 受训于 从互联网上抓取的文本或图像中获取的数十亿条数据。

生成式人工智能使用非常强大的机器学习方法,例如 深度学习迁移学习 如此庞大的数据存储库,以了解这些数据之间的关系 – 例如,哪些单词往往跟在其他单词后面。 这使得生成式人工智能能够执行广泛的任务 模仿认知和推理

一个问题是人工智能工具的输出可以是 与受版权保护的材料非常相似。 撇开生成模型的训练方式不谈,生成人工智能的广泛使用带来的挑战是,当生成人工智能的输出侵犯版权保护时,个人和公司如何承担责任。

研究人员记者 提出了一种可能性,即通过选择性提示策略,人们最终可能会创建违反版权法的文本、图像或视频。 通常,生成式人工智能工具会输出图像、文本或视频,但 不提供任何有关潜在侵权的警告。 这就提出了如何确保生成式人工智能工具的用户不会在不知不觉中侵犯版权保护的问题。

生成式人工智能公司提出的法律论点是,在受版权保护的作品上训练的人工智能并不侵犯版权 因为这些模型没有复制训练数据; 相反,它们旨在学习文字元素和图像(如单词和像素)之间的关联。 包括 Stability AI(图像生成器 Stable Diffusion 的制造商)在内的人工智能公司认为,根据特定文本提示提供的输出图像 不太可能是势均力敌的比赛 对于训练数据中的任何特定图像。

生成式人工智能工具的开发者认为,提示不会复制训练数据,这应该可以保护他们免受侵犯版权的指控。 不过,一些审计研究表明, 生成式人工智能的最终用户 可以发出 导致侵犯版权的提示 通过创作作品 与受版权保护的内容非常相似

认定侵权需要 检测密切相似 风格相似的作品的表现元素与该艺术家特定作品的原创表达之间的关系。 研究人员表明,诸如此类的方法 训练数据提取攻击,其中涉及选择性提示策略,以及 可提取的记忆,它欺骗生成式人工智能系统揭示训练数据,可以恢复个人训练示例,范围从个人照片到商标公司徽标。

审计研究,例如一项 由计算机科学家 Gary Marcus 和艺术家 Reid Southern 进行 提供了几个例子,可以清楚地看出视觉生成人工智能模型生成侵犯版权保护的图像的程度。 《纽约时报》提供了类似的图像比较,显示生成式人工智能工具如何 可能违反版权保护

如何建造护栏

法律学者将保护版权侵权的防护措施称为人工智能工具的挑战 “史努比问题””。 受版权保护的作品对相似性的保护程度越高(例如,卡通人物史努比),与复制特定图像相比,生成式人工智能工具就越有可能复制它。

计算机视觉研究人员 长期以来一直在努力解决这个问题 如何检测版权侵权,例如伪造的徽标或 受专利保护的图像。 研究人员还研究了如何 标志检测有助于识别假冒产品。 这些方法有助于检测侵犯版权的行为。 方法 确定内容来源和真实性 也可能有帮助。

在模型训练方面,人工智能研究人员提出了制作方法 生成式人工智能模型忘记学习 受版权保护的数据。 一些人工智能公司,例如 Anthropic已宣布承诺 不使用客户生成的数据来训练高级模型,例如 Anthropic 的大型语言模型 Claude。 人工智能安全的方法,例如 红队 – 试图迫使人工智能工具行为不当 – 或确保模型训练过程 降低相似度 生成式人工智能的输出和受版权保护的材料之间的关系也可能有所帮助。

监管的作用

人类创作者知道要拒绝制作侵犯版权的内容的请求。 人工智能公司能否为生成式人工智能建立类似的护栏?

没有既定的方法可以将此类护栏构建到生成人工智能中,也没有任何方法 用户可以查阅的公共工具或数据库 以确定侵犯版权。 即使有这样的工具,它们也可能会给用户带来过重的负担 无论是用户还是内容提供商

鉴于不能指望天真的用户学习并遵循最佳实践来避免侵犯受版权保护的材料,政策制定者和监管机构可以发挥作用。 可能需要结合法律和监管指南来确保版权安全的最佳实践。

例如,构建生成式人工智能模型的公司可以 使用过滤或限制模型输出 以限制版权侵权。 同样,监管干预可能是必要的,以确保生成式人工智能模型的构建者 构建数据集并训练模型 以降低其产品的产出侵犯创作者版权的风险的方式。

声明:以上内容采集自FREETHINK,作品版权归原创作者所有内容均以传递信息为目的,不代表本站同意其观点,不作为任何投资指导。币圈有风险,投资需谨慎

资讯来源:由a0资讯编译自THECOINREPUBLIC。版权归作者A0资讯所有,未经许可,不得转载

上一篇 2024年 5月 31日
下一篇 2024年 5月 31日

相关推荐