BitEnergy AI开发新技术,大幅降低AI模型能源消耗

| 分类: AI情报 | 热度: 34 ℃

随着人工智能(AI)技术的飞速发展,其能源消耗问题日益引起关注。尽管行业巨头如 Nvidia、微软和 OpenAI 对此问题相对淡化,但一家名为 BitEnergy AI 的公司声称已经找到了显著降低 AI 能耗的方法,同时不牺牲准确性和速度。

问题背景

AI 模型的训练和推理过程需要大量的计算资源,特别是浮点运算。这些运算在处理非常大或非常小的数字时非常耗能。例如,OpenAI 的 ChatGPT 每天消耗的电力相当于 18,000 个美国家庭的用电量(每天 564 兆瓦时)。据剑桥替代金融中心的分析师预测,到 2027 年,AI 行业的年能耗可能达到 85 到 134 太瓦时。

L-Mul 技术

BitEnergy AI 的研究人员开发了一种名为 线性复杂度乘法(L-Mul) 的技术,通过用更简单的整数加法近似复杂的浮点乘法来显著降低 AI 的能耗。具体来说,L-Mul 算法在以下几个方面表现突出:

  1. 能耗降低:测试结果显示,L-Mul 可以将张量乘法的能耗降低高达 95%,点积的能耗降低 80%。
  2. 性能提升:该算法不仅减少了能耗,还提供了成比例的性能提升,超过了当前的 8 位计算标准,实现了更精确的位级计算。
  3. 准确性保持:在涵盖自然语言处理和机器视觉等多种 AI 任务的测试中,L-Mul 仅导致了 0.07% 的性能下降,这是一个微不足道的权衡。

技术应用

L-Mul 技术特别适用于基于 Transformer 的模型,如 GPT。这些模型的关键部分——注意力机制——通常是能耗密集型的,而 L-Mul 可以无缝集成到这些系统中。测试表明,即使是像 Llama 和 Mistral 这样的流行 AI 模型,在某些任务上也表现出更高的准确性。

实施挑战

尽管 L-Mul 技术前景广阔,但目前仍面临一些实施挑战:

  1. 专用硬件需求:L-Mul 目前需要专用硬件,而现有的现代 AI 处理器尚未优化以利用该技术。
  2. 市场阻力:特别是 Nvidia 这样的行业领导者,已经在市场上占据了主导地位,可能会抵制采用更节能的硬件。

未来发展

为了克服这些挑战,BitEnergy AI 正在制定开发专用硬件和编程 API 的计划,以在合理的时间内实现更节能的 AI 系统。此外,该研究的预印本已发布在罗格斯大学的“arXiv”图书馆,供学术界和工业界参考和验证。

声明: 猎游人 每天为你带来最新的游戏和硬件打折情报,帮你精心挑选值得玩的游戏,让您的钱花的更值!本站信息大部分来自于网友爆料,如果您发现了优质的游戏或好的价格,不妨爆料给我们吧(谢绝任何商业爆料)!

0条评论

Hi,您需要填写昵称和邮箱!
姓名 (必填)
邮箱 (必填)
网站

暂时木有评论