Mac 用户,终于不用羡慕 N 卡玩家有专属大模型 Chat with RTX 了!大神推出的新框架,让苹果电脑也跑起了本地大模型,而且只要两行代码就能完成部署。

Mac 专属大模型框架来了:两行代码部署,能聊本地数据还支持中文-编程之家

仿照 Chat with RTX,框架的名字就叫 Chat with MLX(MLX 是苹果机器学习框架),由一名 OpenAI 前员工打造。

黄院士的框架里有的功能,例如本地文档总结、YouTube 视频分析,Chat with MLX 里也都有。

而且包括中文在内共有 11 种可用语言,自带支持的开源大模型多达七种。

Mac 专属大模型框架来了:两行代码部署,能聊本地数据还支持中文-编程之家

体验过的用户表示,虽然计算量负担对苹果设备可能大了点,但是新手也很容易上手,Chat with MLX 真的是个好东西。

Mac 专属大模型框架来了:两行代码部署,能聊本地数据还支持中文-编程之家

那么,Chat with MLX 的实际效果究竟怎么样呢?

用 MacBook 部署本地大模型

Chat with MLX 已经集成到了 pip 命令中,所以在有 pip 的条件下,只需要一行代码就能完成安装:

pip install chat-with-mlx

Mac 专属大模型框架来了:两行代码部署,能聊本地数据还支持中文-编程之家

安装完成后,在终端中输入 chat-with-mlx 并按回车,就会自动完成初始化并弹出网页(第一次启动及下载模型时需要连接到 Hugging Face 服务器)。

Mac 专属大模型框架来了:两行代码部署,能聊本地数据还支持中文-编程之家

▲ Chat with MLX 实测效果

将这个页面向下翻,选择想用的模型和语言后点击 Load Model,系统就会自动下载模型信息并加载。

注意如果中途需要更换模型,需要先将前面的模型 Unload 再选择新模型。

其他模型只要 Hugging Face 上有并且兼容 MLX 框架,也可以手工添加,方法可以到 GitHub 页中了解。

Mac 专属大模型框架来了:两行代码部署,能聊本地数据还支持中文-编程之家

如果要使用自有数据,需要先选择类型(文件或 YouTube 视频),然后上传文件或填写视频链接,并点击 Start Indexing 建立索引。

按照开发者的说法,只要不点击 Stop,再次上传新文件后数据是累加的。当然,也可以不传数据,直接当成普通大模型来用。

Mac 专属大模型框架来了:两行代码部署,能聊本地数据还支持中文-编程之家

为了避免推理时间过长,我们选择了规模较小的 Quyen-SE 来进行测试。

(Quyen-SE 基于阿里的通义千问改造而成,Chat with MLX 的作者也参与了研发工作。)

首先看看模型不加定制数据的速度,在 M1 芯片的 MacBook 上,这个 0.5B 的模型表现是这样的,可以说比较流畅。

Mac 专属大模型框架来了:两行代码部署,能聊本地数据还支持中文-编程之家

但在宣传中,Chat with MLX 的主要卖点,还是本地 RAG 检索。为了确保素材文档在模型的训练数据中不存在,小编从箱底翻出了自己不公开上网的本科毕业论文。

我们询问了论文中不同位置的细节,一共根据文章内容给 Chat with MLX 设计了十个问题。

其中有七个回答是正确(符合文意)的,不过速度和纯生成相比要略慢一些。

Mac 专属大模型框架来了:两行代码部署,能聊本地数据还支持中文-编程之家

测试中我们还发现,模型还有一定的几率会把提示词吐出来,不过触发条件似乎没有什么规律。

但可以看出,为了提高模型的表现,作者已经把给小费这种新兴的提示词技巧都招呼上了。

Mac 专属大模型框架来了:两行代码部署,能聊本地数据还支持中文-编程之家

整体感受下来,可能是受制于算力原因,在苹果设备上部署本地大模型,效果无法和英伟达的 Chat with RTX 相媲美。

同时,在 GitHub 上,也有许多用户反馈各种各样的安装失败问题,作者也都进行了回复或跟进,并把程序重新更新了一遍。

Mac 专属大模型框架来了:两行代码部署,能聊本地数据还支持中文-编程之家

但无论如何,选择本地化部署,数据的安全性可能是更为重要的考量因素;而且从中可以看出,本地化、专属化的大模型,已经开始出现向消费级产品普及的趋势。

用网友的话说,升级 AI PC 的时间到了。

Mac 专属大模型框架来了:两行代码部署,能聊本地数据还支持中文-编程之家

GitHub:

  • https://github.com/qnguyen3/chat-with-mlx

本文来自微信公众号:量子位 (ID:QbitAI),作者:克雷西