人工智能模型的开发是一个被忽视的气候罪魁祸首。 哥本哈根大学的计算机科学家编写了一本用于设计人工智能模型的食谱书,该模型在不影响性能的情况下使用更少的能源。 他们认为,在设计和训练人工智能模型时,模型的能源消耗和碳足迹应该是一个固定的标准。
谷歌搜索、与 Siri 交谈、要求 ChatGPT 完成某件事或在任何意义上使用人工智能都需要花费大量精力,这一事实已逐渐成为常识。 一项研究估计,到 2027 年,人工智能服务器消耗的能源将与阿根廷或瑞典一样多。 事实上,据估计,一次 ChatGPT 提示平均消耗的能量相当于 40 部手机的电量。 但哥本哈根大学计算机科学研究人员指出,研究界和业界尚未将开发节能、对气候更加友好的人工智能模型作为重点。
“如今,开发人员主要专注于构建在结果准确性方面有效的人工智能模型。这就像说汽车是有效的,因为它可以让你快速到达目的地,而不考虑它使用的燃料量。结果,人工智能模型在能源消耗方面往往效率低下。”计算机科学系助理教授 Raghavendra Selvan 说道,他的研究着眼于减少人工智能碳足迹的可能性。
但这项新研究(他和计算机科学系学生 Pedram Bakhtiarifard 是该研究的两位作者)表明,在不影响人工智能模型精度的情况下控制大量二氧化碳排放是很容易的。 这样做需要在人工智能模型的设计和训练阶段牢记气候成本。
“如果你从一开始就建立一个节能的模型,你就可以减少模型‘生命周期’每个阶段的碳足迹。这适用于模型的训练,这是一个特别耗能的过程,通常需要数周或数月的时间,以及其应用,”Selvan 说。
人工智能行业的食谱
在他们的研究中,研究人员计算了训练超过 400,000 个成交量积神经网络类型的 AI 模型需要多少能量——这是在没有实际训练所有这些模型的情况下完成的。 除其他外,成交量积神经网络还用于分析医学图像、语言翻译以及物体和面部识别——您可能从智能手机上的相机应用程序中了解到这一功能。
根据计算结果,研究人员提出了一系列人工智能模型的基准,这些模型使用更少的能量来解决给定的任务,但表现水平大致相同。 研究表明,通过选择其他类型的模型或通过调整模型,在训练和部署阶段可以实现70-80%的节能,而性能仅下跌1%或更少。 据研究人员称,这是一个保守的估计。
“将我们的结果视为人工智能专业人士的一本食谱。这些食谱不仅描述了不同算法的性能,还描述了它们的能源效率。通过在模型设计中将一种成分与另一种成分交易所,人们可以因此,现在,从业者可以根据性能和能耗来选择他们想要的模型,而无需先训练每个模型。”Pedram Bakhtiarifard 说道,他继续说道:
“通常情况下,在找到被认为最适合解决特定任务的模型之前,需要对许多模型进行训练。这使得人工智能的开发极其耗能。因此,选择正确的模型对气候更加友好从一开始就选择一个在训练阶段不会消耗太多电量的系统。”
研究人员强调,在某些领域,例如自动驾驶汽车或某些医学领域,模型精度对于安全至关重要。 在这里,重要的是不要在性能上妥协。 然而,这不应成为其他领域追求高能源效率的阻碍。
“人工智能具有惊人的潜力。但如果我们要确保可持续和负责任的人工智能发展,我们需要一种更全面的方法,不仅要考虑到模型性能,还要考虑到气候影响。在这里,我们表明有可能找到更好的方法当为不同的任务开发人工智能模型时,能源效率应该是一个固定的标准——就像许多其他行业的标准一样,”Raghavendra Selvan 总结道。
这项工作中汇总的“食谱书”可作为开源数据集供其他研究人员进行实验。 所有这 423,000 个架构的信息都发布在 Github 上,人工智能从业者可以使用简单的 Python 脚本访问这些信息。
UCPH 研究人员估计了在该数据中心化训练 429,000 个称为成交量积神经网络的 AI 子类型模型需要多少能量。 除此之外,它们还用于对象检测、语言翻译和医学图像分析。
据估计,仅训练该研究所关注的 429,000 个神经网络就需要 263,000 千瓦时。 这相当于丹麦公民平均 46 年消耗的能源量。 一台计算机需要大约 100 年才能完成训练。 这项工作的作者实际上并没有自己训练这些模型,而是使用另一个人工智能模型来估计这些模型,从而节省了 99% 的能源。
训练人工智能模型会消耗大量能源,从而排放大量二氧化碳。 这是由于训练模型时执行的密集计算,通常在功能强大的计算机上运行。 对于大型模型尤其如此,例如 ChatGPT 背后的语言模型。 人工智能任务通常在数据中心处理,需要大量电力来保持计算机运行和冷却。 这些中心的能源可能依赖化石燃料,从而影响其碳足迹。
资讯来源:由a0资讯编译自THECOINREPUBLIC。版权归作者A0资讯所有,未经许可,不得转载