00:00 / 00:31
连播
清屏
智能
倍速
点赞55
00:00 / 00:34
连播
清屏
智能
倍速
点赞0
Mac上微调大模型?改一行代码,和Unsloth无缝切换 这个项目叫 mlx-tune。做微调的同学应该都知道 Unsloth,速度快、省显存。问题是它依赖 Triton,Mac 上跑不了。所以之前 Mac 用户要么花钱开云 GPU,要么用 mlx-lm 原生 API,到了云端还得重写代码。mlx-tune 的思路非常直接:把 MLX 包装成 Unsloth 的 API。你在 Mac 上写好训练脚本,把 from mlx_tune 改成 from unsloth,直接就能在 CUDA 集群上跑。本地验证想法,云端跑生产,代码完全一样。这才是真正解决问题的设计。 它支持的训练方法全得离谱。语言模型这块,SFT、DPO、GRPO、持续预训练全都有。多模态更夸张。视觉模型支持 Gemma 4、Qwen 2.5 这些主流 VLM。TTS 支持五个模型,你可以在 Mac 上本地做声音克隆。STT 支持 Whisper 等五个语音识别模型。连 OCR 和 Embedding 微调都能做。一个社区项目做到这个程度,确实离谱。 上手很简单。pip install mlx-tune 装好,加载模型、配 LoRA、跑训练,几行代码搞定。训练完还能直接导出 GGUF 格式,丢给 Ollama 就能用。 我觉得 mlx-tune 最牛的地方在于,它真正解决了 Mac 用户微调的痛点。兼容 Unsloth 生态,不用学新 API。当然速度肯定比不上 A100,这是物理定律。但对于验证想法、小数据集实验,Mac 上秒级迭代的体验太舒服了。如果你有 Apple Silicon 的 Mac,又想玩微调,强烈推荐试试。
00:00 / 02:05
连播
清屏
智能
倍速
点赞15
00:00 / 07:04
连播
清屏
智能
倍速
点赞1
00:00 / 00:38
连播
清屏
智能
倍速
点赞7
00:00 / 04:24
连播
清屏
智能
倍速
点赞187
00:00 / 01:59
连播
清屏
智能
倍速
点赞1039
00:00 / 00:32
连播
清屏
智能
倍速
点赞1
00:00 / 02:49
连播
清屏
智能
倍速
点赞2