本机麦克风真·实时转写。把每一段对话、每一次口述、每一个灵感闪念,变成可搜可读的文字。
AI 之所以能放大组织能力,前提是组织有可读的判断、决策、流程语料。 会议、1on1、复盘里的每一句话,过去都被空气吃掉了。 这个 skill 解决"留下来"那一步,整理与 SOP 是你下一个 skill 的起点。
边说边出字、原音同步归档、停录后 AI 直接读文字稿做摘要。无需事后导出再上传。
whisper-stream 滑窗 10 秒、步进 1.5 秒。第一段约 3 秒后出字,之后基本与你说话同步。在 Obsidian / VS Code 打开 transcript.md 自动刷新。
默认走 whisper.cpp + ggml-large-v3(2.9 GB),M 系列芯片实测可实时。低配机自动降级 medium,命令行可手动指定。
transcript.md 是主稿,并行 ffmpeg 录 mp3 @ 32kbps(约 14 MB / 小时,归档成本可忽略)。文件名带时间戳和场景,长期可搜。
"AI 一定是杠杆。—— lipro 一号位 AI 工作坊 · 晴空分享
取决于你自己的业务认知是否清晰。"
macOS(Apple Silicon)。首次会装 brew + ffmpeg + whisper-cpp + 模型,后续秒启动。
34 KB,没有依赖,秒下完。模型 2.9 GB 留给 install.sh 时下,走 hf-mirror.com 比官方快 10 倍。
$ curl -O https://allinlance.com/skills/live-transcribe-v1.0.zip $ unzip live-transcribe-v1.0.zip $ cd live-transcribe-v1.0
装依赖 + 下模型 + 复制脚本到 ~/.local/share/,全程约 3-5 分钟(主要在下模型)。
$ bash install.sh
装到一半会问你:Claude Code 还是 Codex?两边都装了 SKILL / AGENTS.md 模板,重启工具说「开始录音」就能触发。第一次会弹 macOS 麦克风授权,去「系统设置 → 隐私与安全 → 麦克风」放行。
这是个"本机麦克风"工具,不是万能录音器。先看清边界再装。
whisper-cli -f xxx.mp3{session}/stream.err,去系统设置放行 Terminal / iTerm。audio.mp3 文件大小是否在长(每秒几 KB)。0 字节 = 没录进去。export LIVE_TRANSCRIBE_HOME=~/Documents/MyVault/recordings。...stream.sh 灵感 测试 zh medium。~/Recordings/live-transcribe/{session}。所有产物都在里面,没散文件。录音是底层基础设施。你今天装的,是未来所有 skill 的起点。 把会议 / 1on1 / 灵感都录起来,让 AI 替你提取 SOP、抽行动项、整理决策 —— 那才是你独有的资产。