Ollama现在支持Apple M5芯片的硬件加速,如果安装了32GB RAM。

Ollama现在支持Apple M5芯片的硬件加速,如果安装了32GB RAM。

15 software

Ollama 是一款用于本地运行 AI 模型的应用程序,现在在 Mac M5 芯片上更快了

概览
- 新版本:Ollama 0.19
- 支持操作系统:Windows、macOS、Linux
- 硬件加速:仅适用于 Apple M5(M5 Pro、M5 Max)芯片
- 内存要求:至少 32 GB 的统一 RAM

变化内容
Ollama 允许用户在自己的电脑上直接下载和运行 AI 模型。与 ChatGPT 等云服务不同,这里不需要持续联网。

从 0.19 版开始,开发者添加了对 Apple MLX(机器学习框架)的支持,以及统一内存架构(Unified Memory Architecture)。这使得新款 Apple M5 芯片上的模型运行更快,首次生成 token 的时间缩短,总体生成速度提升。

工作原理
- 神经加速器:Ollama 调用 M5 芯片内部的专用神经网络模块,使 token 输出更迅速。
- 模型:无论是个人 AI 代理(如 OpenClaw)还是大型系统(OpenCode、Anthropic Claude Code、OpenAI Codex 等),都能获得加速效果。

限制
1. 加速仅适用于 Apple M5 芯片(M5 Pro/Max)。
2. 电脑必须配备至少 32 GB 的统一内存,否则无法启用加速。

因此,如果你拥有搭载 M5 芯片且具备足够 RAM 的 Mac,你可以显著提升本地 AI 应用 Ollama 的性能。

评论 (0)

分享你的想法——请保持礼貌并围绕主题。

暂无评论。留下评论,分享你的观点!

要发表评论,请先登录。

登录后发表评论