克雷西 发自 凹非寺
量子位 | 公众号 QbitAI

Mac用户,终于不用羡慕N卡玩家有专属大模型Chat with RTX了!

大神推出的新框架,让苹果电脑也跑起了本地大模型,而且只要两行代码就能完成部署。

打开网易新闻 查看更多图片

仿照Chat with RTX,框架的名字就叫Chat with MLX(MLX是苹果机器学习框架),由一名OpenAI前员工打造。

黄院士的框架里有的功能,例如本地文档总结、YouTube视频分析,Chat with MLX里也都有。

而且包括中文在内共有11种可用语言,自带支持的开源大模型多达七种。

打开网易新闻 查看更多图片

体验过的用户表示,虽然计算量负担对苹果设备可能大了点,但是新手也很容易上手,Chat with MLX真的是个好东西。

打开网易新闻 查看更多图片

那么,Chat with MLX的实际效果究竟怎么样呢?

用MacBook部署本地大模型

Chat with MLX已经集成到了pip命令中,所以在有pip的条件下,只需要一行代码就能完成安装:

  • pip install chat-with-mlx

打开网易新闻 查看更多图片

安装完成后,在终端中输入chat-with-mlx并按回车,就会自动完成初始化并弹出网页(第一次启动及下载模型时需要连接到Hugging Face服务器)。

打开网易新闻 查看更多图片

△Chat with MLX实测效果

将这个页面向下翻,选择想用的模型和语言后点击Load Model,系统就会自动下载模型信息并加载。

注意如果中途需要更换模型,需要先将前面的模型Unload再选择新模型。

其他模型只要Hugging Face上有并且兼容MLX框架,也可以手工添加,方法可以到GitHub页中了解。

打开网易新闻 查看更多图片

如果要使用自有数据,需要先选择类型(文件或YouTube视频),然后上传文件或填写视频链接,并点击Start Indexing建立索引。

按照开发者的说法,只要不点击Stop,再次上传新文件后数据是累加的。

当然,也可以不传数据,直接当成普通大模型来用。

打开网易新闻 查看更多图片

为了避免推理时间过长,我们选择了规模较小的Quyen-SE来进行测试。

(Quyen-SE基于阿里的通义千问改造而成,Chat with MLX的作者也参与了研发工作。)

首先看看模型不加定制数据的速度,在M1芯片的MacBook上,这个0.5B的模型表现是这样的,可以说比较流畅。

打开网易新闻 查看更多图片

但在宣传中,Chat with MLX的主要卖点,还是本地RAG检索。

为了确保素材文档在模型的训练数据中不存在,小编从箱底翻出了自己不公开上网的本科毕业论文。

我们询问了论文中不同位置的细节,一共根据文章内容给Chat with MLX设计了十个问题。

其中有七个回答是正确(符合文意)的,不过速度和纯生成相比要略慢一些。

打开网易新闻 查看更多图片

测试中我们还发现,模型还有一定的几率会把提示词吐出来,不过触发条件似乎没有什么规律。

但可以看出,为了提高模型的表现,作者已经把给小费这种新兴的提示词技巧都招呼上了。

打开网易新闻 查看更多图片

整体感受下来,可能是受制于算力原因,在苹果设备上部署本地大模型,效果无法和英伟达的Chat with RTX相媲美。

同时,在GitHub上,也有许多用户反馈各种各样的安装失败问题,作者也都进行了回复或跟进,并把程序重新更新了一遍。

打开网易新闻 查看更多图片

但无论如何,选择本地化部署,数据的安全性可能是更为重要的考量因素;而且从中可以看出,本地化、专属化的大模型,已经开始出现向消费级产品普及的趋势。

用网友的话说,升级AI PC的时间到了。

打开网易新闻 查看更多图片

GitHub:
https://github.com/qnguyen3/chat-with-mlx