我们中国的人工智能在一个方面上遥遥领先美国,那就是我们搞人工智能大模型公司的数量遥遥领先美国。

据统计,截止2023年底,我国已经有了8万家大模型企业了,甚至还开启了轰轰烈烈的千模大战。

然而美国搞大模型呢,就是那么几家数得过来的几家巨头,像谷歌、OpenAI、马斯克的X 、亚马逊和Mate,再加上几个前沿的学术机构,比如斯坦福的SQuAD、麻省理工的GENIF、伯克利的BAIR。

但是你别看这些美国大模型的数量少,却诞生了可以复现诺贝尔奖化学反应的AI 化学家Coscientist,还诞生了可以成为AI 机器人控制专家的斯坦福李飞飞教授搞的VIMA。

而我们国内只要一有模型开发布会,就喊着秒杀了GPT4,却没真的见过国内这些秒杀GPT4的大模型,在国际哪个期刊上做到了什么能够提升生产力和科研方面的应用。总之,榜单排名没输过,而且总是在我们感受不到的地方遥遥领先。但是你如果真的深度多方位的使用比对过,你就会体会到这些模型跟GPT 的差距,它不是一星半点。造成这种情况的主要原因,我们展开来讨论。

第一,就是大模型的这个训练算力我们跟不上,这种要求高精度的算力,你像H100、A100,还有英伟达新搞的那个GH200。他们要求能够大量的并行运算,然后显存高,位宽也要高的GPU,这就是美国制裁我们国家最严厉的。

虽然我们国家像百度、腾讯、字节这些大厂也通过不同渠道购买了不少H100,但是和实际用来超越Gpt4的数量相比远远不够,而训练Gpt4这种模型起码都得万卡起。

可是美国的企业就没有这方面的限制,Open AI 前段时间甚至还号称要把1000万颗GPU连在一起去训练超级大模型。Meta?的扎克伯格刚刚还跟英伟达签了35万张H100芯片的采购订单,这几乎是我们国内大厂保有量的总和。签完合同后的小扎还号称,这个Meta 训练出来的通用人工智能模型也将开源。

而且不光是训练大模型的这些我们的高级算力跟不上,甚至连精度低一些,用来运行大模型的这些算力,你就比如英伟达针对中国存储的这个H20中国阉割版显卡,还有RTX3090、4090之类的低端GPU,我们在算力跟数量上也差的很远。

第二,比算力短缺更要命的是训练AI 的算法跟数据,我们差距很大。这个差距还不像芯片差距那么一目了然,但其实更加的严重。

当下所有的主流大模型的母体算法叫Transformer ,就是这个Open AI的首席科学家ChatGPT之父伊利亚,十年前和他的老师Jeoffrey hinton 一起发明(是由Google团队在2017年提出)。

打个比方,训练大模型和教孩子其实差不多,孩子他本身的记忆力再强、反应再快,你天天让他在牛圈里放牛,然后教他伪科学,再指鹿为马,最后这孩子学出来大概也是个傻子。

而训练顶级大模型的参数量,像Open AI 的被爆料已经接近10万亿级别了。在这种庞大的数据集下,你的数据和你处理数据的算法,最直接的决定了大模型每一次训练的性能跟质量。

第三,国内大模型公司,大多都是套壳LLaMA等开源模型的“投机公司”。这跟我们前几年新能源补贴的时候,新能源公司扎堆式注册一个意思。

你像llama2的开源,不只是把模型免费给你用这么简单,他还把他这个模型的训练的过程和训练模型的底层数据全部开源了,所以少数有点良心的公司,就把人家开源的训练数据替换或者增加一部分自己的,跟着流程重新训练一遍,然后号称独立自主。但是绝大多数的那些投机公司,甚至就只是给大模型做了个非常简单的微调,给他改了个名字而已。

所以去年10月份,李开复旗下“零一万物”的大模型就被阿里的大神贾扬清爆锤是换壳模型。总之除了百度,阿里等少数几家国内公司外,很少国内有从大模型数据的底层开始研发的,但是为什么这些模型公司一个个开发布会的时候,却能丢出一大堆测试报告榜单成绩,说自己这项成绩那项能力已经远远超越GPT4了呢?

一个叫做Catch me if you can 的论文说的很清楚,这些大模型是如何刷榜作弊的。简单来说,就是榜单考题泄露,作弊的大模型公司提前拿考题训练大模型,那这样分数就自然高了呗。

但其实最可悲的还不是说这些公司自欺欺人,可悲的是我们国内明明AI 的算力资源、政策资源、人才资源都没有美国那么充足,但是大部分都被这些只想吃政策跟资本豆腐的投机者给浪费了。

其实我们大模型暂时搞不过美国,根本不要紧。因为,第一,美国就没几家在搞呀。第二,全世界大部分的国家也都不搞大模型,至多就是基于开源的大模型,微调个专用的模型。

事实上基于大模型开发商业应用才是效益最大的,而且日后最占据话语权的,也是这些有能力把AI 商业化落地应用的人。

像百度的李彦宏,Open AI 的山姆奥特曼,包括马斯克,贝索斯都在不同场合上表达过类似的观点,就是叫大家不要去卷大模型了,应该去卷AI 应用,在AI 时代才值钱。而他们这些巨头这么说,不是怕别人搞大模型,超过他们。人家根本不怕,大模型的这个门票,根本就不是小公司买得起的。而是因为他们真的看好AI 应用的价值,希望开发者们都去他们的平台开发应用,然后给他们贡献技术跟价值。

就像GPT4,继去年11月份发布会大降价以后,又再次腰斩级别的降价,甚至还加了多个AI 协同工作的能力。这个功能呢,就是可以让你在聊天中通过艾特不同功能的AI 应用让他们一起给你干活。这就等于你低价雇佣了好多人,同一时间帮你做着不同的事情。

这对于做电商、做生意天下第一的中国人来说,本来是个千载难逢的大利好啊。所以我们最大的隐患不是什么硬件跟大模型暂时落后于美国,而是这个资源错配导致浪费了发展的黄金时期,然后被国外的那些本来被我们的电商公司跟跨境公司已经打趴下的人,用AI 方面应用的优势弯道超车。

因为如果大模型应用员工化,会导致我们的人口优势、人民勤劳勇敢的优势逐渐贬值。比如我之前说的那个GPTS 的Mention 功能,它可以让不同的模型一起工作,那就等于一个美国人指挥一堆AI 干原来3个甚至10个人的工作。

所以美国在应用方面的优势会加速拉大,他们在科研、生产、教育、芯片和大模型方方面面的优势,甚至会形成螺旋加速指数发展。

所以 在当下不光是我们的国家,我们每个人、每个公司都更应该看清楚社会未来发展的必然趋势,要更重视AI 应用的构建 , 不要 傻乎乎的 等着你的竞争对手先去发展,而自己不做任何AI 应用的尝试, 那你的未来起码蒙上了一层阴影,甚至会被时代所淘汰。