首页 资讯 下载 教程 Skills 社群

OpenClaw 在 Apple Silicon 启用本地 MLX 语音

什么是 MLX

MLX 是 Apple 专为 Apple Silicon(M1/M2/M3/M4)芯片优化的机器学习框架,类似于 PyTorch 但针对 Apple 统一内存架构进行了深度优化。

OpenClaw v2026.4.10 引入了实验性的 MLX 语音支持,让 Talk Mode 可以完全在本地运行:

  • 隐私优先:语音永不离开设备
  • 离线可用:无网络也能用
  • 零 API 成本:不消耗第三方语音 API 配额
  • 低延迟:本地推理减少网络往返

适用环境

硬件要求

  • 必须是 Apple Silicon Mac:M1/M2/M3/M4 系列芯片
  • 不支持 Intel Mac:MLX 仅支持 Apple Silicon
  • 内存推荐 16GB+:8GB 也能跑但性能受限
  • 存储空间:模型文件约 1-3GB

软件要求

  • macOS 14(Sonoma)或更高版本
  • OpenClaw v2026.4.10 或更高版本
  • Python 3.10+ (用于 MLX 运行时)

安装步骤

1. 安装 MLX

# 创建虚拟环境(可选但推荐)
python3 -m venv ~/.openclaw/mlx-env
source ~/.openclaw/mlx-env/bin/activate

# 安装 MLX 和语音相关包
pip install mlx mlx-whisper mlx-tts

2. 下载语音模型

语音识别(STT)

# Whisper Large v3(推荐)
openclaw mlx download whisper-large-v3

# 或更小的模型(速度优先)
openclaw mlx download whisper-base

语音合成(TTS)

# 默认 TTS 模型
openclaw mlx download tts-default

# 中文优化模型
openclaw mlx download tts-chinese

3. 配置 OpenClaw

# config.yaml
voice:
  enabled: true
  
  # 启用本地 MLX
  stt:
    provider: "mlx"
    model: "whisper-large-v3"
    
  tts:
    provider: "mlx"
    model: "tts-default"
    
  # Talk Mode 设置
  talkMode:
    wakeWord: "嘿龙虾"  # 唤醒词
    enabled: true

4. 启动 Talk Mode

openclaw talk start

或在 macOS 菜单栏点击 OpenClaw 图标 → Talk Mode。

性能调优

模型选择策略

模型 大小 速度 准确度 适合
whisper-base 140MB 极快 一般 实时对话
whisper-medium 1.5GB 良好 平衡场景
whisper-large-v3 3GB 中等 极佳 准确性优先

M 芯片对比

芯片 Whisper Large 推理 TTS 合成
M1 8GB 2-3x 实时 1.5x 实时
M2 16GB 4-5x 实时 2-3x 实时
M3 Pro 36GB 6-8x 实时 3-4x 实时
M4 Max 64GB 10x+ 实时 5x+ 实时

"Nx 实时"指的是 N 倍于真实播放速度。

内存优化

如果遇到内存压力:

voice:
  stt:
    provider: "mlx"
    model: "whisper-medium"  # 用更小模型
    quantization: "int4"      # 4-bit 量化

INT4 量化可以减少 75% 内存占用,速度甚至更快,准确度略降。

与云端方案对比

维度 MLX 本地 OpenAI Whisper API ElevenLabs
延迟 低(本地) 中(API) 中(API)
隐私 完全 API 看到内容 API 看到内容
成本 一次性硬件 按使用付费 订阅
离线 可用 不可用 不可用
准确度 良好-极佳 极佳 极佳
设置复杂度 简单 简单

实际使用体验

中文识别

# 测试中文识别
openclaw voice test-stt --lang zh

实测在 M2 Pro 上:

  • 普通话识别准确度:98%+
  • 带口音识别:90%+
  • 实时延迟:< 1 秒

中文合成

openclaw voice test-tts --text "你好,我是 OpenClaw 助手"

中文合成质量取决于模型,建议下载 tts-chinese

故障排查

MLX 未安装

openclaw doctor voice

会提示安装步骤。

模型加载失败

# 重新下载模型
openclaw mlx download whisper-large-v3 --force

# 查看模型存储位置
openclaw mlx list

性能问题

# 监控 MLX 资源使用
openclaw mlx stats

# 切换到更小模型
openclaw config set voice.stt.model whisper-medium

麦克风权限

确保 OpenClaw 有麦克风权限:

系统设置 → 隐私与安全性 → 麦克风 → 启用 OpenClaw

与其他语音方案配合

智能切换

voice:
  stt:
    provider: "auto"
    fallbackChain:
      - mlx                    # 优先本地
      - openai-whisper          # 云端备份
    fallbackOn:
      - networkDown
      - mlxUnavailable

场景化路由

voice:
  routing:
    sensitive:
      provider: "mlx"          # 敏感内容本地处理
    public:
      provider: "openai-whisper"  # 公开内容用云端

注意事项

  • MLX 语音是实验性功能,可能有 Bug
  • 仅支持 Apple Silicon Mac
  • 首次加载模型需要时间,后续加载会快很多
  • TTS 中文合成质量目前不如 ElevenLabs,但持续改进中
  • 模型文件占用磁盘空间较大,注意空间管理
  • M1 8GB 设备运行较大模型可能影响其他应用
  • 建议长时间不用时通过 openclaw mlx unload 释放内存