首页 资讯 下载 教程 Skills 社群

Voice Transcribe

语音 搜索与效率工具

安装命令

npx clawhub@latest install voice-transcribe

安装说明

1
确认环境

确保已安装 Node.js 22+ 和 OpenClaw。在终端运行 openclaw --version 确认 OpenClaw 正常工作。

2
执行安装

在终端中运行上方安装命令,ClawHub 会自动下载并安装 Voice Transcribe 到 ~/.openclaw/skills/ 目录。

3
验证安装

运行 openclaw skills list 查看已安装技能列表,确认 Voice Transcribe 已出现在列表中。

4
配置参数(可选)

根据下方介绍中的配置说明,在 ~/.config/openclaw/openclaw.json5 中添加技能的配置项。

手动安装方式:将 Skill 文件夹复制到 ~/.openclaw/skills/ 或项目目录下的 skills/ 文件夹,确保文件夹中包含 SKILL.md 文件。
多语言识别 说话人分离 会议纪要

详细介绍

Voice Transcribe 为 OpenClaw 提供语音转文字能力,支持多种音频格式和识别引擎,可处理频道中的语音消息或上传的音频文件。

核心功能

  • 多语言识别:支持中文、英文、日文等 50+ 语言,自动检测语言
  • 说话人分离(Diarization):自动区分不同说话人,标注「说话人 A / B / C」
  • 时间戳标注:为每段文字添加精确时间戳
  • 会议纪要生成:长音频自动生成结构化会议纪要,提取要点和待办事项
  • 多引擎后端:支持 Whisper(本地)、阿里云语音识别、Google Speech-to-Text

安装

clawhub install voice-transcribe

配置参数

{
  skills: {
    "voice-transcribe": {
      engine: "whisper",        // whisper | aliyun | google
      model: "large-v3",       // Whisper 模型大小
      language: "auto",        // 语言代码或 auto
      diarization: true,       // 说话人分离
      timestamps: true         // 时间戳标注
    }
  }
}

使用场景

  • 频道中的语音消息自动转文字回复
  • 上传会议录音生成纪要
  • 播客/视频音频提取字幕
  • 多语言语音翻译(配合翻译 Skill)

注意事项

  • Whisper 引擎在本地运行,首次使用需下载模型(large-v3 约 3GB)
  • 阿里云和 Google 引擎需配置对应 API Key
  • 音频时长超过 30 分钟建议使用云端引擎,本地处理较慢