Audio / Voice Notes(音频/语音笔记)— 2026-01-17
工作内容
- Media understanding(媒体理解)(音频):如果启用了音频理解(或自动检测),OpenClaw:
- 定位第一个音频附件(本地路径或 URL)并在需要时下载。
- 在发送到每个模型条目之前强制执行 maxBytes。
- 按顺序运行第一个符合条件的模型条目(provider 或 CLI)。
- 如果失败或跳过(大小/超时),它会尝试下一个条目。
- 成功时,它将 Body 替换为 [Audio] 块并设置 {{Transcript}}。
- Command parsing(命令解析):当转录成功时,CommandBody/RawBody 设置为转录文本,因此斜杠命令仍然有效。
- Verbose logging(详细日志):在 --verbose 中,我们记录转录运行时间和替换 body 的时间。
Auto-detection(自动检测)(默认)
如果你未配置模型且 tools.media.audio.enabled 未设置为 false,OpenClaw 会按以下顺序自动检测并在第一个有效选项处停止:
- Local CLIs(本地 CLI)(如果已安装)
- sherpa-onnx-offline(需要 SHERPA_ONNX_MODEL_DIR 与 encoder/decoder/joiner/tokens)
- whisper-cli(来自 whisper-cpp;使用 WHISPER_CPP_MODEL 或捆绑的 tiny 模型)
- whisper(Python CLI;自动下载模型)
- Gemini CLI(gemini)使用 read_many_files
- Provider keys(提供者密钥)(OpenAI → Groq → Deepgram → Google)
要禁用自动检测,请设置 tools.media.audio.enabled: false。 要自定义,请设置 tools.media.audio.models。 注意:二进制检测在 macOS/Linux/Windows 上是尽力而为的;确保 CLI 在 PATH 上(我们展开 ~),或使用完整命令路径设置显式 CLI 模型。
配置示例
Provider + CLI fallback(Provider + CLI 回退)(OpenAI + Whisper CLI)
{
tools: {
media: {
audio: {
enabled: true,
maxBytes: 20971520,
models: [
{ provider: "openai", model: "gpt-4o-mini-transcribe" },
{
type: "cli",
command: "whisper",
args: ["--model", "base", "{{MediaPath}}"],
timeoutSeconds: 45
}
]
}
}
}
}
Provider-only with scope gating(仅 Provider 带范围门控)
{
tools: {
media: {
audio: {
enabled: true,
scope: {
default: "allow",
rules: [
{ action: "deny", match: { chatType: "group" } }
]
},
models: [
{ provider: "openai", model: "gpt-4o-mini-transcribe" }
]
}
}
}
}
Provider-only(仅 Provider)(Deepgram)
{
tools: {
media: {
audio: {
enabled: true,
models: [{ provider: "deepgram", model: "nova-3" }]
}
}
}
}
注意事项和限制
- Provider 身份验证遵循标准模型身份验证顺序(auth profiles、env vars、models.providers.*.apiKey)。
- 当使用 provider: "deepgram" 时,Deepgram 获取 DEEPGRAM_API_KEY。
- Deepgram 设置详情:Deepgram (audio transcription)。
- 音频 providers 可以通过 tools.media.audio 覆盖 baseUrl、headers 和 providerOptions。
- 默认大小上限为 20MB(tools.media.audio.maxBytes)。超大音频会跳过该模型并尝试下一个条目。
- 音频的默认 maxChars 是未设置(完整转录)。设置 tools.media.audio.maxChars 或每个条目的 maxChars 以修剪输出。
- OpenAI 自动默认为 gpt-4o-mini-transcribe;设置 model: "gpt-4o-transcribe" 以获得更高的准确性。
- 使用 tools.media.audio.attachments 处理多个语音笔记(mode: "all" + maxAttachments)。
- 转录文本可作为 {{Transcript}} 供模板使用。
- CLI stdout 有上限(5MB);保持 CLI 输出简洁。
注意事项
- Scope 规则使用首次匹配获胜。chatType 标准化为 direct、group 或 room。
- 确保你的 CLI 退出 0 并打印纯文本;JSON 需要通过 jq -r .text 进行处理。
- 保持超时合理(timeoutSeconds,默认 60s)以避免阻塞回复队列。