随着人工智能(AI)技术的飞速发展,其能源消耗问题日益引起关注。尽管行业巨头如 Nvidia、微软和 OpenAI 对此问题相对淡化,但一家名为 BitEnergy AI 的公司声称已经找到了显著降低 AI 能耗的方法,同时不牺牲准确性和速度。
问题背景
AI 模型的训练和推理过程需要大量的计算资源,特别是浮点运算。这些运算在处理非常大或非常小的数字时非常耗能。例如,OpenAI 的 ChatGPT 每天消耗的电力相当于 18,000 个美国家庭的用电量(每天 564 兆瓦时)。据剑桥替代金融中心的分析师预测,到 2027 年,AI 行业的年能耗可能达到 85 到 134 太瓦时。
L-Mul 技术
BitEnergy AI 的研究人员开发了一种名为 线性复杂度乘法(L-Mul) 的技术,通过用更简单的整数加法近似复杂的浮点乘法来显著降低 AI 的能耗。具体来说,L-Mul 算法在以下几个方面表现突出:
- 能耗降低:测试结果显示,L-Mul 可以将张量乘法的能耗降低高达 95%,点积的能耗降低 80%。
- 性能提升:该算法不仅减少了能耗,还提供了成比例的性能提升,超过了当前的 8 位计算标准,实现了更精确的位级计算。
- 准确性保持:在涵盖自然语言处理和机器视觉等多种 AI 任务的测试中,L-Mul 仅导致了 0.07% 的性能下降,这是一个微不足道的权衡。
技术应用
L-Mul 技术特别适用于基于 Transformer 的模型,如 GPT。这些模型的关键部分——注意力机制——通常是能耗密集型的,而 L-Mul 可以无缝集成到这些系统中。测试表明,即使是像 Llama 和 Mistral 这样的流行 AI 模型,在某些任务上也表现出更高的准确性。
实施挑战
尽管 L-Mul 技术前景广阔,但目前仍面临一些实施挑战:
- 专用硬件需求:L-Mul 目前需要专用硬件,而现有的现代 AI 处理器尚未优化以利用该技术。
- 市场阻力:特别是 Nvidia 这样的行业领导者,已经在市场上占据了主导地位,可能会抵制采用更节能的硬件。
未来发展
为了克服这些挑战,BitEnergy AI 正在制定开发专用硬件和编程 API 的计划,以在合理的时间内实现更节能的 AI 系统。此外,该研究的预印本已发布在罗格斯大学的“arXiv”图书馆,供学术界和工业界参考和验证。
0条评论