打开网易新闻 查看更多图片

指数增长促成 Hugging Face 上线 100 万个AI模型

Hugging Face 引用社区驱动的定制作为多样化AI模型激增的动力。上周四,AI托管平台 Hugging Face 首次突破 100 万个AI模型上线,标志着机器学习领域迅速扩张的一个里程碑。

AI模型是一个计算机程序(通常使用神经网络)通过数据训练来执行特定任务或进行预测。该平台最初于2016年作为聊天机器人应用程序,之后在2020年转型为AI模型的开放源代码中心,现在为开发人员和研究人员提供了广泛的工具。机器学习领域代表的远不止像ChatGPT这样的大型语言模型(LLM)。

Hugging Face CEO Clément Delangue 在一篇文章中写道,他的公司托管了许多知名的AI模型,比如“Llama, Gemma, Phi, Flux, Mistral, Starcoder, Qwen, Stable diffusion, Grok, Whisper, Olmo, Command, Zephyr, OpenELM, Jamba, Yi”,还有“999,984个其他模型”。

Delangue 提到,产生这么多模型的原因在于定制。他写道:“与‘一模型统治一切’的谬论相反,为您的用例、您的领域、您的语言、您的硬件以及通常您的约束专门定制优化的较小专业模型更好。事实上,很少有人意识到的一点是,Hugging Face 上几乎有与组织私下构建AI专门用例的模型数量一样多。”

打开网易新闻 查看更多图片

Hugging Face 转型为一家主要的AI平台,紧随着科技行业中人工智能研究和开发的加速步伐。在短短几年内,该网站上托管的模型数量随着对该领域的兴趣迅速增长。Hugging Face 产品工程师 Caleb Fahlgren 发布了一个图表,显示了该平台上每个月创建的模型数量(和其他图表的链接),并表示:“模型每个月呈指数增长,而且九月还没结束。”

精细调整的力量 正如Delangue 上面提到的,该平台上模型的数量之所以如此之多,源于平台的协作性质和对现有模型进行特定任务的精细调整的实践。精细调整意味着采用现有模型,并进行额外的训练,以将新概念加入其神经网络并改变其输出方式。来自世界各地的开发人员和研究人员贡献了他们的成果,从而形成了一个庞大的生态系统。例如,该平台托管了 Meta 的多个版本的开放权重 Llama 模型,它们代表了原始基础模型的不同精细调整版本,每个版本都针对特定应用进行了优化。

Hugging Face 的知识库包含了各种任务的模型。浏览其模型页面可以看到,其中包括图像到文本、视觉问题回答和文档问题回答等类别。在“计算机视觉”类别中,有深度估计、目标检测和图像生成等子类别。还包括自然语言处理任务,如文本分类和问题回答,以及音频、表格和强化学习(RL)模型。

打开网易新闻 查看更多图片

将模型按“下载次数最多”排序,Hugging Face 模型列表显示了人们认为最有用的AI模型的趋势。在榜首的是麻省理工学院的 Audio Spectrogram Transformer,下载次数高达 1.63 亿,它可以对音频内容进行分类,如语音、音乐和环境声音。其次是来自谷歌的 BERT,下载次数达到 5420 万,这是一种AI语言模型,通过预测掩码词和句子关系来学习理解英语,从而可以协助各种语言任务。

排名前五的AI模型还包括 All-MiniLM-L6-v2(将句子和段落映射到 384 维密集向量表示,对语义搜索很有用)、Vision Transformer(将图像处理为一系列补丁,以进行图像分类)和 OpenAI 的 CLIP(连接图像和文本,使用自然语言对视觉内容进行分类或描述)。

无论是模型还是任务,该平台都在不断增长。Delangue 写道:“今天,Hugging Face 上每 10 秒就会创建一个新的知识库(模型、数据集或空间)。最终,模型的数量会和代码知识库一样多,我们会一直陪伴着它!”

关注【黑客联盟】带你走进神秘的黑客世界