打开网易新闻 查看更多图片

我们到底需要怎样的生成式AI?一边是各大科技巨头纷纷推出自身的大模型产品,开启疯狂卷参数模式,另一边,随着对大模型能力认知逐渐深入,开始有越来越多的企业关注大模型相关应用在B端的落地。

今年以来,垂直于细微场景的轻量化、小参数模型开始涌现,可以说,各大厂商纷纷推出大模型产品形成“百模大战”的局势仅是序章,现在才真正进入“战役”——如何更好地在行业侧落地大模型产品。

一年间,从50亿到120亿

《北京市人工智能行业大模型创新应用白皮书(2023年)》中显示,截至2023年10月,中国10亿参数规模以上的大模型厂商及高校院所共计254家,分布于20余个省市/地区。商业咨询机构爱分析的报告称,2023年中国大模型市场规模约为50亿元,预计到2024年这一数字将达到120亿元。

而随着时间的推移,大模型在行业侧的价值也将得以逐步显现,据市场研究机构预测,到2025年,全球生成式AI市场规模将达到100亿美元以上。其中,企业级生成式AI市场将占据相当大的份额,成为最大的应用领域之一。

根据《2023年全球 AI 采用指数》报告显示,全球范围内,大约有42% 的受访企业已在业务中积极部署AI。与此同时,报告显示,企业级AI应用中,中国企业稳居第一阵营。这其中,有近一半的中国企业表示已经在积极采用AI,85%的中国企业表示未来2-3年会加速AI的采用,63%的中国企业还表示正在积极探索生成式AI。

历史总是惊人的相似,回看云计算时代,虽然在技术上,中国企业的各项云技术或许不是世界第一,但论丰富的应用场景和落地执行能力,中国在云计算时代绝对是遥遥领先。而这一次,当大模型的风吹向了各行各业,相信在行业大模型应用落地过程中,中国也将成为行业大模型应用落地的“主力军”。

在神州数码副总裁、CTO李刚看来,虽然现阶段,中国企业开放的大模型产品相较于国际一流水平仍存在一些差距,但随着开源模型技术的飞速发展,再加上企业自身对于知识、数据的治理方式不断地优化,模型技术本身差距对企业部署的影响微乎其微,“在90%的企业场景下,开源模型的组合是足以满足用户需求的。”

与此同时,李刚对钛媒体APP表示,中国企业用户对于新技术的接受度很高,会主动尝试接纳新技术,“这对于大模型在行业侧的落地而言,是一个非常大的优势。”

从技术到落地,三大问题需要注意

从现阶段应用来看,目前仍处于发展的初期阶段,李刚也为企业用户在应用过程中提供了几点建议。

首先,企业需要不断扩展自身视野,用AI赋能业务创新,“思想上的转变与对AI的接纳是企业拥抱AI大模型的第一步。”李刚如是说。

其次,企业需要提升自身对AI大模型的系统化认知。李刚告诉钛媒体APP,随着ChatGPT以“超级应用”的形式出现后,虽然人人对AI大模型都有了一定认知,但是这种认知是碎片化的,“这次AI大模型的出现,彻底颠覆了人们以往对AI的认知,”李刚指出,“认知需要从碎片化变成体系化、系统化,这样才能避免企业在应用AI的过程中遇到一些问题。”

再次,企业需要对自身应用大模型的业务场景进行优先级排序。有一些细微的场景相较于大场景反而更有价值,“但是有一些微小的场景大家未必看得到。”李刚说。

与此同时,李刚强调,现阶段企业应用大模型时,需要注意的是任务级的场景,而不是岗位级的场景,“任务场景可能只是一个员工岗位职责的工作内容的一部分,企业从这些细微的场景入手,反而更容易产生更大的价值。”

通过一个个细微场景的落地,应用成熟后,再加之这些场景的累积,并通过搭建一个完善的框架,AI大模型可以完成更为复杂的任务,“也正是通过小场景不断验证、不断积累经验和数据,并通过逐步的‘拼装’,才能叠加出更大的场景,甚至可能出现一些超级应用。”李刚表示,而这也是神州数码推出神州问学平台背后的思考,“我们需要一个平台,将这些AI的能力积累在平台上,然后在平台上继续拼装,形成更复杂的工具,或着具备更强大能力的AI模型。”

企业更倾向于平台化、私有化

正如李刚所述,技术上的差异已经不足以影响应用的落地,而在应用场景的丰富度上,中国有着天然的优势,从目前的企业侧应用来看,包括金融、医疗、法律咨询、教培等偏服务型的行业有望率先有较成熟的生成式AI落地。

IBM 大中华区董事长、总经理陈旭东曾公开表示,企业级AI应用相较于消费侧,有着更广泛的需求和潜力,“IBM认为生成式AI在包括HR、财务和供应链流程自动化、IT开发和运维的智能化,以及企业资产管理、数据安全等方方面面均有着大展拳脚的机会。”陈旭东强调。

不过目前来看,虽然各行业企业都在积极拥抱AI大模型带来的红利,但是在这个过程中,有一个因素是大家首要关心的——安全。

当下数据已经成为个人、企业,乃至国家的重要资产/资源,数据安全已经上升为关乎国家安全的层面。据IBM Security 发布的《2023年数据泄露成本报告》中显示,仅数据泄露一项,2023年全球数据泄露的平均成本达到 445 万美元,创该报告有史以来最高记录,较过去 3 年均值增长了 15%。

而AI大模型的训练,尤其是行业大模型的训练,需要企业提供大量的私域数据,这样训练出的模型才能具备赋能行业的能力。

随着大模型相关产品的落地,数据安全面临的威胁也势必将越来越大。IEEE调研显示,2024年将会出现其他更具威胁的网络安全问题,包括勒索软件攻击(2024年为37%,高于2023年的30%)、网络钓鱼攻击(2024年为35%,高于2023年的25%)以及内部威胁(2024年为26%,高于2023年的19%)。

显然,伴随着AI大模型的发展,数据安全也面临着更大的挑战。企业在部署AI大模型相关产品时,如何确保企业数据不会泄露,甚至被竞争对手利用,是当下企业对于应用生成式AI赋能业务有所担忧的核心问题之一。

从现阶段应用来看,企业在部署AI大模型时,绝大多数选择本地化部署。拿神州问学平台举例,李刚告诉钛媒体APP,神州问学产品本身支持多云部署的环境,“在给用户演示时,我们将demo放在云上,方便展示平台能力,在部署的过程中,用户则选择在自己可控的环境进行部署。”李刚指出。

并且,无论是采用商业化模型,还是开源模型,经过微调、预训练等操作后产出的模型,用户通过本地化部署,可以确保基本的隐私安全。无独有偶,浪潮云总经理颜亮曾告诉钛媒体APP,在应用行业大模型产品的过程中,企业更倾向于本地部署,同时要具备可靠的一定的安全能力,对企业的数据形成有效的保护,“数据安全问题是企业选择大模型产品过程中,首要考虑的问题。”颜亮强调。

除此之外,企业需要采取一系列的安全措施和技术手段,如加强数据加密和访问控制、建立安全审计和监控机制、采用对抗性防御技术提升模型的稳健性、完善隐私保护政策和机制等。在李刚看来,企业内部也需要一套完善的知识可访问权限机制,确保员工内部安全合规的使用数据。

确保安全,企业接下来需要考虑的就是大模型的使用难度和使用成本。

从目前企业利用AI赋能的方式划分,大致可以分为三类——嵌入软件、API调用和企业级AI平台。嵌入软件的方式,因为其差异化能力不足,适配场景能力也较弱,所以并不适合企业使用。而采用API调用和平台的形式,既能满足企业当下对AI技术的需求,又具备长远的发展潜力,可以说是当下企业利用AI赋能业务的不二之选。

而神州数码所打造的神州问学平台,就是一个类似PaaS的平台,提供丰富的开源模型供企业选择的同时,又兼具了本地化部署的能力,以最具性价比的方式,输出最强大的模型能力,是这个平台最大的优势。“同时,神州数码会与企业IT部门合作,共同探索落地场景,以及搭建AI平台,将技术门槛降到最低的同时,也让使用成本变得更低,真正做到大模型普惠。”李刚如是说。

让大模型易落地,更普惠已经是当下各方关注的焦点。无独有偶,浪潮云首席技术官孙思清也曾对钛媒体APP表示,从大模型服务供应商角度出发,服务商需要具备一定的基础模型能力,其次要具备充实的算力资源能力,最后还要具备大模型引擎的能力。“基于分布式云架构开发的大模型产品将成为行业大模型落地的重要渠道。”孙思清强调。

在这方面,浪潮云采用分布式的架构可以在模型的预训练环节采用集中式的方式,在交付的时候,通过本地化的能力,结合本地数据,更好地保护企业隐私,即满足了企业对于安全合规的需求,又将模型的能力最大化地激发出来。

不过一切尚处于探索阶段,李刚在与钛媒体APP的沟通中也指出,虽然ChatGPT的横空出世,让人们觉得AI技术这次“终于”来了,但技术本身尚未成熟,仍处于发展阶段,“等到AI技术真正在企业侧应用成熟之后,企业使用AI技术就像今天使用云计算技术一般时,才是AI技术真正改变我们生产力的时候。”李刚指出。

2024年会有越来越多的行业大模型的应用落地,在大模型能力加持下实现真正降本增效的路径也将更加清晰。(本文首发于钛媒体APP,作者|张申宇,编辑丨盖虹达)