Meta 的 AI 主管 Yann LeCun 表示,现在开始担心人类级别的智能 AI 系统(通常称为 AGI)还为时过早。
另请阅读:进一步了解 AGI 推测
LeCun 周一在 X 上发文称:“目前,我们甚至还没有想到任何与人类水平相当的智能系统的设计。所以现在担心还为时过早。而且现在对其进行监管以防止‘生存风险’还为时过早。”
LeCun 称人工智能不会变得危险
许多专家认为,AGI 距离成为现实还有几十年甚至几个世纪的时间。然而,这已引起各国政府的担忧,因为专家警告称,这种模式可能会威胁人类的生存。
另请阅读:谷歌、OpenAI 和其他 13 家公司承诺不部署有风险的 AI 模型
LeCun 认为,人工智能系统并不是“某种突然出现并变得危险的自然现象”。他说,人类有能力让人工智能变得安全,因为我们就是人工智能的创造者。
人工智能并不是某种突然出现并变得危险的自然现象。
*我们*设计它,*我们*建造它。我可以想象涡轮喷气发动机发生严重故障的数千种情形。
然而,在涡轮喷气发动机广泛应用之前,我们设法使其具有极高的可靠性。……— Yann LeCun (@ylecun) 2024 年 5 月 27 日
“我能想象到涡轮喷气发动机出现严重故障的数千种情况。然而,我们在涡轮喷气发动机广泛部署之前就设法使其变得极其可靠,”LeCun 补充道。“对于人工智能来说,问题也类似。”
Meta 的 AI 负责人称法学硕士无法达到人类智能
上周,LeCun 还表示,ChatGPT、Gemini 等流行 AI 聊天机器人所采用的大型语言模型无法达到人类智能。
另请阅读:OpenAI 的 ChatGPT-4o 可以表达感觉和情绪
在接受《福布斯》采访时,LeCun 表示,法学硕士“对逻辑的理解有限”,因为它们必须经过训练,而且其表现只能取决于输入的数据。他进一步指出,法学硕士“本质上是不安全的”,希望构建人类水平的人工智能系统的研究人员需要考虑其他模型类型。
OpenAI 和 Meta 确认有意开发 AGI
ChatGPT 制造商 OpenAI 计划创建这种强大的模型。今年 5 月,联合创始人 Sam Altman 表示,无论付出多大代价,他们都会制造 AGI。
“无论我们每年烧掉 5 亿美元还是 50 亿美元,或者每年烧掉 500 亿美元,我都不在乎,我真的不在乎。只要我们能想办法付账,我们就会创造 AGI。这会很昂贵。”
萨姆·奥尔特曼
Meta 也开始努力实现人类级别的智能。今年 1 月,马克·扎克伯格承认 Meta 的“长期愿景是打造通用智能,负责任地开源,并让其广泛可用,让每个人都能受益。”
Ibiam Wayas 的 Cryptopolitan 报道
资讯来源:由a0资讯编译自THECOINREPUBLIC。版权归作者A0资讯所有,未经许可,不得转载