在本周四,人工智能(AI)托管平台 Hugging Face 迎来了一个重要的里程碑:AI模型数量首次超过了100万个!这些AI模型,通常基于神经网络构建,能够通过数据训练来执行特定任务或做出预测。
Hugging Face 起初只是一个聊天机器人应用,自2020年转型为AI模型的开源中心后,现在为全球的开发者和研究人员提供了一系列强大的工具。
海量模型,多样化应用
从大型语言模型(LLMs)到为特定任务定制的小型专业化模型,Hugging Face 托管了众多知名AI模型,如 "Llama, Gemma, Phi" 等,数量高达近百万其他模型。
Hugging Face 的CEO Clément Delangue 指出,这种多样性源于定制化的需求。“我们相信,为你的特定用例、领域、语言、硬件和限制条件定制的小型专业化模型会有更好的表现。”
指数级增长
随着AI研究和开发在整个技术行业的加速,Hugging Face 上的模型数量也在短短几年内呈指数级增长。产品经理Caleb Fahlgren分享了平台每月创建模型数量的增长图表,并指出:“模型的增长速度非常快,而且这个月还没结束。”
微调的力量
Hugging Face 的模型数量之所以如此之多,源于平台的协作性质和微调现有模型以执行特定任务的做法。微调意味着在现有模型的基础上进行额外训练,以添加新概念并改变其输出方式。
顶尖模型
按下载量排序,Hugging Face 模型列表揭示了哪些AI模型最受欢迎。排在首位的是麻省理工学院的Audio Spectrogram Transformer,其次是谷歌的BERT,以及其他几个实用的模型。
无论模型或任务如何,Hugging Face 持续增长。Delandgue表示:“今天在HF上每10秒就会创建一个新的存储库(模型、数据集或空间)。我们为此做好了准备!”
0条评论