OpenAI 利用其 AI 工具破坏国际影响力行动

OpenAI 利用其 AI 工具破坏国际影响力行动

OpenAI 今天在一篇博客文章中透露,它在过去三个月中发现并阻止了五起试图操纵舆论或影响政治结果的秘密影响行动。

据称,OpenAI 破坏的影响力活动来自俄罗斯、中国、伊朗,令人惊讶的是,还有以色列,尽管以色列的活动与一家公司有关,而不是政府。这些活动涉及多项任务,包括生成各种语言的内容、创建虚假的社交媒体资料和进行研究。

影响力运动的关键在于利用各种传播手段生成内容,试图操纵舆论或政治结果。但影响力运动使用 OpenAI 工具(如 ChatGPT)的方式多种多样,这很有趣。

在 OpenAI 详述的第一次活动中,一项来自俄罗斯的行动被称为“Bad Grammar”,幕后人员使用 OpenAI 模型来调试运行 Telegram 机器人的代码,并使用 ChatGPT 用俄语和英语创建简短的政治评测,随后发布到 Telegram 上。

俄罗斯的第二个项目名为 Doppelganger,它使用 OpenAI 模型生成英语、法语、德语、意大利语和波兰语评测,这些评测发布在 X 和(奇怪的是)笑话网站 9GAG 上。目前尚不清楚你能在一个发布搞笑表情包的网站上开展什么样的影响力活动,但俄罗斯人似乎出于未知原因看到了它的价值。

第三个活动据称来自中国,被称为 Spamoflague,它使用 OpenAI 模型研究公共社交媒体活动,然后生成中文、英文、日文和韩文文本。这些文本随后发布在 X、Medium 和 Blogspot 上。该活动还使用 OpenAI 工具调试代码并管理数据库和网站。

第四项活动是伊朗的“国际虚拟媒体联盟”行动,该行动使用开放人工智能模型生成和翻译长篇文章、标题和网站标签,然后发布在网站上。

最终的行动被追溯到一家名为 STOIC 的以色列公司,根据其网站,该公司为政党、各部委和市政当局提供持续、实时的监控、数据分析和管理服务。该公司使用 OpenAI 工具生成文章和评测,发布在 Instagram、Facebook、X 和与该公司相关的网站上。

这些组织发布的内容涉及各种问题,但毫不奇怪,很多都与地缘政治问题有关,包括俄罗斯入侵乌克兰、加沙冲突、印度选举以及欧洲和美国的政治

OpenAI 在博文中指出:“检测和阻止诸如隐蔽影响行动之类的多平台滥用行为可能具有挑战性,因为我们并不总是知道我们的产品生成的内容是如何分发的。”“但我们致力于利用生成 AI 的力量,大规模发现和减轻这种滥用行为。”

照片:Focal Foto/Flickr

资讯来源:由0x资讯编译自SILICONANGLE。版权归作者Duncan Riley所有,未经许可,不得转载

资讯来源:由a0资讯编译自THECOINREPUBLIC。版权归作者A0资讯所有,未经许可,不得转载

上一篇 2024年 5月 31日
下一篇 2024年 5月 31日

相关推荐