打开网易新闻 查看更多图片

做难而正确的事。

作者|刘杨楠

编辑|栗子

一年,12亿,同比增长200%——这是商汤生成式AI业务2023年的成绩单。

3月26日,商汤披露了2023年全年财报。年报显示,商汤全年实现营收34亿元,毛利润15亿元,毛利率44%。

其中,生成式AI业务收入达12亿元,同比增长200%。该业务是商汤成立十年以来,以最快速度从无到有、超过10亿收入体量的新业务。生成式AI也被商汤明确为三大核心业务板块之一(生成式AI、传统AI和智能汽车)。

“生成式AI对商汤来说不仅是技术领域的变革性创新,更成为公司的核心业务。商汤生成式AI业务的增长,得益于各行各业对大模型的训练和推理的广泛需求,这预示着中国硬科技投资的新周期正式开启。”商汤科技董事长兼CEO徐立在年报中表示。

对于商汤这种体量的企业而言,要全力掉转车头押注一项新业务并非易事,除了要接受来自客户的考验,更要面临广大投资人的审视。尽管如此,商汤的生成式AI业务依然在一年内实现了3位数增长。

1.步步为营,踩准趋势节拍

2023年,各家大模型厂商使出浑身解数,全力在“百模大战”中保持领先。

商汤也不例外。

2023年4月10日,商汤发布基础大模型“日日新SenseNova”。同时,商汤一口气推出3款生成式AI产品,分别是对标ChatGPT的大语言模型“商量SenseChat”,对标Midjourney的AI文生图创作平台“秒画SenseMirage”以及AI数字人视频生成平台“如影SenseAvatar”。

如今回看,商汤的大模型产品布局颇有预见性。

发布会现场,商汤科技董事长兼CEO徐立将“日日新”比作大模型超市。“我们的大模型超市里,更多不同能力的大模型会源源不断地产生,更多的生产可能性会持续涌现。”

“大模型超市”背后,实则是一种以用户需求为导向的产品思维。无论个人还是企业,核心需求都是用大模型解决问题。用户的核心关注点是模型“好不好用”,而非参数够不够大。

现阶段,单一模型能力还不够强大,还没有出现“万金油”模型,用户往往会选择不同功能特性的模型,针对性解决相应的问题。而单一模态的“文生文”模型很难充分满足用户需求,很多场景都要求模型有多模态能力,这也决定了多模态是大势所趋。但在一年前,大多数人的注意力都聚焦在单一模态的文本模型上,多模态还在聚光灯外。

不过,多模态虽然更贴近现实需求,但从技术角度来看,多模态模型的训练无疑难度更高,会消耗更大的存储和计算,不同模态数据之间的关联和对齐也是一个很复杂的问题。

从这一点出发,商汤做多模态是有一定优势的。多年来,商汤在感知智能领域的积累让其能够规模化地给视频数据打标签;“秒画”的技术架构也与OpenAI发布的Sora高度重合,这足以体现商汤在技术上的前瞻性。

以往的技术积累也促使商汤能更快地面向用户推出一系列产品,同时不断迭代模型。今年2月,商汤推出“日日新4.0”,已经能与GPT-4相媲美。此次年报还透露,“日日新5.0”预计在今年4月发布,性能将全面达到GPT-4 Turbo多模态能力全面对标GPT-4V。

在国外大幅领先的情况下,商汤还能紧咬国际先进水平,迅速迭代自身技术与产品,离不开商汤过去十年在感知智能时代的积累。

首先是丰富的人才储备。

商汤搭建了一个豪华的人才队伍,目前有40多位教授和250多名博士,以及800多位技术研发人员。同时,商汤还与香港中文大学、浙江大学、上海交通大学等顶尖大学建立了联合实验室。自2014年成立以来,商汤科技在AI领域拥有8000多项专利申请,并在全球计算机视觉顶级会议上发表了600多篇论文。

如果说人才是软实力,那么算力就是企业入局大模型市场必需的门票。

大模型时代,高性能算力成为稀缺资源,英伟达H100/A100一度一卡难求,算力国产替代的需求越来越迫切。更重要的是,算力国产替代不仅在于单卡GPU层面,更在于千卡甚至万卡互联的前提下,如何让整个算力集群高效计算,且保持稳定。

早年间,商汤在算力方面已经提前做了很多布局。

2018年起,商汤每年便以数十亿元投入SenseCore大装置。2020年夏季,商汤开始建设临港AIDC;2022年1月24日,商汤科技人工智能计算中心(简称“商汤AIDC”)正式启动运营——从开工建设到主体结构封顶,仅用时168天。

这种光烧钱,但短期内难见到收益的布局,起初也让商汤受到不少质疑。毕竟,ChatGPT发布前,AI还是“小模型”的天下,商汤的大装置显得有些“不合时宜”。

但今天,商汤多年的投入终于有了结果。2023年年报显示,商汤的研发开支由2022年的40亿元下降13.7%至2023年的34.7亿元。核心原因就是商汤将GPU使用从第三方转移到自己的AIDC,服务器运营及云服务费用减少。

长远来看,在大模型时代,SenseCore商汤大装置将逐渐成为不可或缺的基础设施。

目前,SenseCore商汤大装置的人工智能计算中心(AIDC)已经成为亚洲最大的人工智能计算中心之一。商汤管理的算力已实现全国联网的统一调度,总运营算力达到12000petaFLOPS,上线GPU数量达到45000张。

不过,算力的国产替代,从来不只是能买多少张卡的问题,更大的难题还在于如何构建一个软件生态,让算力硬件的性能充分释放出来。

在训练侧,商汤目前最大实现了万卡级超大集群互联,保持90%的加速效率。在训练稳定性上,商汤可实现超30天稳定训练不间断,出现训练间断时的诊断恢复时长也优化到了半小时以内。

在推理侧,商汤在过去一年将推理服务的性价比提升了3倍,且增加了对华为昇腾、寒武纪等主流国产芯片的适配,以全国产的技术栈支持大模型的训练、微调和推理。

这些能力的提升,得益于商汤此前联合开发的DeepLink开放计算体系。DeepLink有300多个标准化算子接口,对于英伟达CUDA支持的AI大模型计算需求,DeepLink覆盖率能达到99.5%以上。

“大模型+大装置”已经成为商汤生成式AI业务的两大核心驱动力,二者相辅相成。

一方面,大装置提供的强大、稳定的算力是大模型高效训练和快速迭代,以及大模型大规模落地应用的基础;另一方面,大模型在各个场景的落地应用将催生更多算力需求,由此促进了大装置能力的进一步扩展和优化。

2.大模型时代,什么才是有效的商业模式?

面对商业化这道必答题,各家都在“摸着石头过河”。

过去一年,很多大厂都选择了所谓的MaaS模式,模型即服务。MaaS成立的基础是一个通用的大模型底座和充沛的算力资源,加之大厂多年形成的平台效应,都决定了MaaS注定是大厂的游戏。微软Azure、阿里云、华为云、腾讯云、百度云等云计算大厂,都率先推出MaaS服务。

作为AI 1.0时代的科技巨头,商汤也选择了MaaS模式。商汤面向行业伙伴提供涵盖自动化数据标注、自定义大模型训练、模型增量训练、模型推理部署、开发效率提升等多种服务。

有了商业模式后,从大模型技术特点出发,智能涌现能力和屡遭诟病的“幻觉”问题催生了两种截然不同的落地思路——

一种是让大模型更准确,在具体场景中生成精确表达,协助人类解决实际问题。这种情况下,拥有更多结构化、标准化、高质量数据集的场景更适合大模型落地。金融、医疗、办公等行业便成为很多大模型厂商的落地首选。

另一种是让大模型更发散,基于自然语言的交互模式,激发大模型的智能涌现,让大模型更“像人”,从而解决人类情感陪伴方面的需求。

2023年年报显示,商汤大模型在上述两个方向均收获了很多头部客户。

金融行业,商汤通过精选模型的检索增强生成(RAG)技术,强化模型的金融知识储备,从而减轻“幻觉”。中国银行、招商银行、中国工商银行、上海银行等机构均已采用日日新大模型。

医疗领域,商汤推出多模态大模型“商量·大医”。该模型能够提供医疗知识问答服务,具备CT、MR和病理等多种医学图像的识别能力。目前,上海交通大学医学院附属新华医院、瑞金医院以及郑州大学第一附属医院等机构均已应用“商量·大医”。

企业Copilot助手领域,商汤已经与金山办公、海通证券、招商局集团等头部客户达成合作。在SuperClue代码评测中,商汤的模型位于首位,在上千题的数据分析测试对中精度超过GPT-4。

拟人交互领域,商汤客户构建的to C聊天应用次日留存率已超过60%,可对标Character.AI,单客户对话轮次最长超过2000轮。

此外,商汤也十分看重智能终端的布局。“我们相信2024年是端侧大模型应用的爆发之年。”商汤在2023年年报中写道。商汤的7B模型在高通最新款芯片上实现了16 token/s的推理速度。目前,商汤已经与小米、荣耀等手机厂商合作,共同研发AI手机的创新功能。

大模型竞赛如此激烈,所有人都在抢夺客户注意力,为什么商汤能够在一年之内,让这些大客户愿意为之买单?

事实上,商汤在AI 1.0时代已经积累了大量优质客户,并积累了大量to B的落地经验。

财报显示,生成式AI业务中超过70%的客户在过去12个月内是商汤的新客户,剩下的30%的存量客户客单价也收获约50%的增速。截至最新,商汤订单金额超过千万元人民币的客户数已达到数十家。

这些客户在AI 2.0时代也面临全新一轮的业务升级,而此前与商汤多年的合作也促使其迅速转换为生成式AI客户,并进一步为商汤背书,吸引更多客户选择商汤。

3.中国式大模型自主发展路在何方?

春节后,Sora、Devin、Figure不断刷新人们的感官和认知。商汤基于“日日新Sensenova”大语言模型打造了AI Native生产力系列工具——「小浣熊家族」,推出代码小浣熊和办公小浣熊两位成员,为十余万用户提供数亿次智能辅助服务。

其中,代码小浣熊是基于商汤大语言模型的软件智能研发助手,覆盖软件需求分析、架构设计、代码编写、软件测试等环节,满足用户代码编写、编程学习等各类需求;可支持Python、Java、JavaScript、C++、Go、SQL等90+主流编程语言和VS Code、IntelliJ IDEA等主流IDE。在实际应用中,代码小浣熊可帮助开发者提升编程效率超50%。

打开网易新闻 查看更多图片
代码小浣熊演示页面

办公小浣熊则是基于商汤大语言模型的大模型原生数据分析产品,它可以通过用户的自然语言输入,结合商汤大模型的能力,自动将数据转化为有意义的分析和可视化结果。其底层技术商汤日日新·商量语言大模型-数据分析版本,在数据分析场景下的数据测试集(1000+题目)中以85.71%的正确率超过GPT-4。

办公小浣熊演示页面

回看商汤的十年,几乎每一步都走得并不容易,但每一步都在为今天打下基础。

从搭建顶尖人才团队;到不顾外界质疑,提前押注大模型路线,并投入重金建设SenseCore商汤大装置;再到坚定to B的商业路线,深入产业,用AI赋能各行各业——商汤已经步步为营,闯出了一条中国式大模型自主发展之路。

站在当下的时间点上,商汤的成绩颇具历史意义。今天,AI已经成为第四次工业革命的主题,国家对人工智能也表现出前所未有的重视。

2024全国两会上,政府工作报告首次提出“人工智能+”行动,并将“大力推进现代化产业体系建设,加快发展新质生产力”列为重要任务。

为何要如此强调“新质生产力”?

中国企业数字化转型虽然已经推进多年,但技术落后、人才匮乏、数据孤岛等痛点仍普遍存在——大企业业务线复杂,难以确定转型切入点;一些中小企业也仍在面临不想转、不敢转、不会转的窘境。

而生成式AI的出现,给企业提供了一个新动能。据Gartner预测,到2025年,70%的企业机构将把如何可持续、道德地使用AI列为其首要关注的问题。

然而,当前的AI工具似乎更像“玩具”,而非“工具”。“目前AI能解决的问题在10%以下,生产链路上能够带来的突破可能还很有限。”徐立表示。

在此背景下,徐立给出了一套商汤对“新质生产力”的理解体系。他将AI模型的能力分为三层——

1,知识层,即将世界知识灌输到大模型能力中。通俗来讲,就是“你问我答”,通过语言交互让大模型解答疑问。

2,推理/演绎层,即有了世界知识之后,通过AI的推理能力,推理出更多可能性。

3,执行层,即如何跟这个世界互动反馈。某种意义上,执行层就是具身智能的大脑,未来与物理世界的硬件结合将会释放出广大的能量。

未来,三层能力层层递进,且互为支撑,将成为商汤继续在大模型时代践行“苟日新,日日新,又日新”的行动原则,将AI的能力带入社会经济的神经末梢。

正如商汤科技创始人、计算机人工智能科学家汤晓鸥教授生前所言:

“并不存在AI这个行业,只有AI+行业,强调AI需要与传统产业合作,这种关系是结合与赋能,而不是颠覆,其价值在于帮助传统产业提高生产效率,解放生产力。”

(封面图由商汤“秒画”生成)