作者 | 《财经》新媒体 撰稿人 舒志娟/文 王婧雅/编辑

一块钱能买到什么?5月15日,2024 季春季火山引擎Force原动力大会上,火山引擎总裁谭待给出了一个出乎意料的答案。用户用一块钱可以购买到豆包主力模型的125万tokens,相当于约200万个汉字,相当于三本《三国演义》的文字量。

豆包大模型实现低定价策略的背后,是技术能力的支撑和市场需求的推动。据了解,豆包大模型产品矩阵包括通用模型的pro版与lite版、语音识别模型,以及多个针对特定领域的专业模型,并已正式对外开放。通过这一系列布局,将推动AI走向大众化,让更多企业和个人能够轻松接触并应用AI技术。

在业内看来,当前的市场环境下,云厂商在大模型领域的竞争焦点已经从单纯的模型训练规模转向更为深入的能力迭代和与下游合作伙伴的连接深度。这一转变正推动大模型加速融入产业核心,行业也从最初的探索阶段步入实践的中场战斗。在这一过程中,企业的运营效率和创新能力将得到不断提升,从而推动企业智能化转型升级的加速实现。

低价加速AI走向大众化

目前,大模型应用发展仍处于早期阶段。QuestMobile数据显示,截至今年3月,虽然基于大模型的AIGC行业用户量已达到7380万,并实现了同比增长8倍,但这仍然仅占移动互联网用户的6%。

在谭待看来,降低成本是推动大模型快进到“价值创造阶段”的一个关键因素。

从国内外模型价格的对比来看,国内大模型的价格比GPT-4已经便宜了70%。特别是豆包Pro 32k模型,其定价为0.0008元/千tokens,比行业价格降低了99.3%。另一款豆包Pro 128k模型定价为0.0005元/千tokens,与行业相比降低了95.8%。

这是怎样的概念?在自然语言处理领域,token代表文本中最小的语义单元。按已有惯例,大约1—1.8个汉字等于1个token,而在英文文本中约是3—4个字母。在商业计算中,千Tokens是大模型主要计费单元。

以《三国演义》为例,这部75万字的作品,在火山引擎仅需1块钱可买3“本”文字处理量,而一套完整8本《哈利波特》中文版(共274万字)仅需1.5元,并且还有余额。对于个人用户而言,200万汉字的处理量,基本上可以满足其一生的需求。

超低价格的豆包大模型使得企业能以更低的成本使用AI大模型,从而有更多的机会进行试错和验证。谭待认为,如果企业运用大模型的价格门槛是1万元,那么很多企业会选择持续观望,而如果价格降低到100元,很多企业就会敢于尝试。降低价格门槛将鼓励更多的企业进行尝试,这无疑对整个大模型的生态和未来发展都是一件好事。

技术能力成降低成本关键

豆包大模型的定价策略一出,引发行业热议。市场不禁产生疑惑,豆包超低定价的底气源于何处?

对此,谭待表示,豆包大模型能够实现低价策略,主要得益于技术能力的支撑和市场需求的持续推动。他指出,模型结构和训练方法的不断改进,以及混合专家模型(MoE)等先进技术的应用,都为优化推理成本提供了有效手段。此外,随着大模型调用量的增加,工程层面的优化也为降低推理成本创造了更大的空间。相较于传统的单机推理,分布式推理不仅提高了大模型的处理能力,还显著降低了推理成本。

谭待进一步解释说,豆包大模型每天处理高达1200亿Tokens文本、生成3000万张图片,通过智能的任务调度和错峰处理,大幅提升了资源利用率并优化了整体成本。

为了满足市场的多样化需求,“豆包大模型家族”推出了多款产品,包括通用模型的pro和lite版本、语音识别模型、语音合成模型以及文生图模型等,形成了大模型产品矩阵。其中,豆包通用模型lite版本为中小企业提供了更为经济的选择,其千tokens成本相较于pro版本节省了高达84%。

在推动企业数据消费的普惠性和便捷性方面,火山引擎智能数据洞察DataWind还发布了AI助手ChatBI。这款助手通过自然语言交互生成指标,支持图表制作、数据查询和深度数据分析等多种功能,并支持IM交互和多端应用,从而大幅降低了数据消费的门槛并提升了数据使用效率。

不过,企业在实现大模型技术落地的过程中仍面临诸多挑战。模型效果是核心考量因素之一,只有性能卓越的基础大模型才能有效应对各种复杂问题。同时,落地难度也不容忽视。为了简化大模型在不同场景中的实施过程,企业需要更多的工具、插件、平台和应用来提供支持。

为此,火山引擎推出了联网插件、知识库插件和内容插件等多种工具来增强模型的功能和用户体验。通过这些插件,大模型在提供信息时不再仅限于干巴巴的文本,而是能够结合如抖音视频等丰富的内容,为用户提供更加生动、多样的反馈。

谭待明确表示,字节跳动的降价策略并非建立在亏损的基础上,而是得益于技术的可实现性。他强调,未来还有更多成本降低的手段有待探索。在谈及市场竞争时,谭待认为,目前的大模型市场尚处于发展初期,市场规模和潜力仍在不断壮大。在这个百家争鸣的市场环境中,各方应共同努力推动应用落地和成本降低,从而让更多人受益。因此,在他看来,当前市场上并不存在激烈的竞争关系。

开启商业化助力企业转型升级

面对越来越卷的竞争环境,科技公司正在“百模大战”中寻找突破口。随着技术的不断迭代,他们更迫切地关注如何把AI能力利用起来,让其在业务上可以再上一个新的台阶。因此,科技公司纷纷寻求与产业的深度融合,以提升自身竞争力。其中,快速落地应用场景成为竞争的关键。

目前,包括字节跳动等在内的科技企业已经开始将大模型技术引入到全线产品中,尤其是在与TO B端紧密相关的领域,如AI智能客服、AI智能营销等方面,这些将成为未来行业竞争的主要战场。

据字节跳动产品和战略副总裁朱骏透露,豆包上已有超过800万个智能体被创建,月度活跃用户达到2600万。对内,豆包大模型已经接入抖音、番茄小说、飞书、巨量引擎等字节跳动内部50余个业务。对外,火山引擎也在与企业客户进行合作。

招商银行通过火山引擎,建立了大模型应用场景及高性能基础设施,改造现有系统和产品,催生以AI为核心的智能体应用;蒙牛集团通过火山引擎构建了AI营养专家、AI育婴师、AI数据分析师、产品创新助手、热点创意助手等智能体矩阵,提升前端消费者体验的同时,助力后端运营人员决策。

与此同时,火山引擎与OPPO、vivo、荣耀、小米、三星、华硕宣布成立智能终端大模型联盟,并与一汽、吉利、长城、广汽、智己等汽车厂商联合成立汽车大模型生态联盟,提升全场景AI体验。

然而,大模型商业化的落地仍面临挑战,如应用场景的开放力度和逻辑思维的强化等。

朱骏指出,豆包的设计原则首先就是“拟人化”。为了让产品更拟人化,豆包团队在大模型的ASR和超自然的TTS音色上下了不少功夫,尽量做到类似和真人对话的感觉。他以“五一”假期举例,豆包可以像“朋友”一样陪伴他去旅行。在旅途中,豆包不仅可以根据恐龙博物馆、自贡井盐的形成提供了详细讲解,而且豆包还会根据相关述求,不仅解答了问题,还同时推过来一个抖音视频——让他直观地掌握相关技巧。

不过,朱骏表示,大模型的在商业化落地时虽然存在一些不足,但是在快速演进,每隔三个月、半年都会发生很大的变化。时至今日,其准确性已有大幅提升,错误感知已明显降低。当与搜索引擎相结合以增强知识时,大模型已达到了实际应用的水平。未来,大模型仍有巨大的提升空间。