根据我的搜索,找到了多个 Kokoro 量化版本 可以下载:
🔢 Kokoro 量化版本下载指引
📊 量化版本对比
| 版本 | 格式 | 大小 | 下载链接 |
|---|---|---|---|
| FP32 原版 | fp32 | ~350MB | GitHub Releases |
| FP16 半精度 | fp16 | ~169MB | thewh1teagle/kokoro-onnx |
| INT8 量化 | int8 | ~103MB | 见下方 |
| Q8 量化 | q8 | ~100MB | kokoro-js |
方式一:thewh1teagle/kokoro-onnx (推荐)
这个项目提供了 fp16 量化版本,体积更小,性能更好:
# FP16 版本 (~169MB) - 推荐用于移动设备
wget https://github.com/thewh1teagle/kokoro-onnx/releases/download/v1.0/kokoro-v1.0.fp16.onnx
# FP32 版本 (~310MB)
wget https://github.com/thewh1teagle/kokoro-onnx/releases/download/v1.0/kokoro-v1.0.onnx
GitHub Releases 页面: https://github.com/thewh1teagle/kokoro-onnx/releases
方式二:NeuML/kokoro-fp16-onnx (HuggingFace)
HuggingFace 上的 fp16 量化版本:
# 使用 huggingface-cli 下载
huggingface-cli download NeuML/kokoro-fp16-onnx --local-dir ./kokoro-fp16
# 或使用 Python
from huggingface_hub import snapshot_download
snapshot_download("NeuML/kokoro-fp16-onnx", local_dir="./kokoro-fp16")
HuggingFace 链接: https://huggingface.co/NeuML/kokoro-fp16-onnx
方式三:kokoro-js npm 包 (浏览器专用)
适用于浏览器端,支持多种量化格式:
npm install kokoro-js
使用示例:
import {
KokoroTTS } from 'kokoro-js';
// 选择量化精度
const tts = await KokoroTTS.from_pretrained(
'onnx-community/Kokoro-82M-v1.0-ONNX',
{
dtype: 'q8' // 可选: 'fp32', 'fp16', 'q8', 'q4'
}
);
// 生成语音
const audio = await tts.generate('Hello world!', {
voice: 'af_sky' });
方式四:INT8 量化版本 (最小体积)
根据 sherpa-onnx 的 Issue #2374,INT8 版本体积约 103MB:
sherpa-onnx 官方 INT8 版本
sherpa-onnx 提供了 kokoro.int8 版本,可在移动端使用:
# 如果 sherpa-onnx 有 int8 版本发布,可从以下链接下载
# 注意:具体链接需要查看最新 releases
wget https://github.com/k2-fsa/sherpa-onnx/releases/download/tts-models/kokoro-en-v0_19.int8.tar.bz2
iPhone 15 性能对比 (来自 Issue)
| 模型 | 包大小 | 性能 |
|---|---|---|
| kokoro (fp32) | 319 MB | 基准 |
| kokoro.int8 | 103 MB | 略低于预期 |
方式五:AMD NPU 优化版本
针对 AMD Ryzen AI 硬件的 INT8 量化版本:
# 下载 NPU 优化版本
huggingface-cli download magicunicorn/kokoro-npu-quantized --local-dir ./kokoro-npu
包含文件:
kokoro-npu-quantized-int8.onnx(121.9 MB)
HuggingFace 链接: https://huggingface.co/magicunicorn/kokoro-npu-quantized
方式六:onnx-community 量化版本
HuggingFace onnx-community 提供的量化版本,支持多种精度:
# 下载所有量化版本
huggingface-cli download onnx-community/Kokoro-82M-v1.0-ONNX --local-dir ./kokoro-quantized
该仓库包含:
onnx/model_fp16.onnx- FP16 版本onnx/model_q8.onnx- INT8 量化版本onnx/model_q4.onnx- INT4 量化版本
📥 完整下载脚本
#!/bin/bash
# Kokoro 量化版本下载脚本
mkdir -p kokoro-models
cd kokoro-models
echo "=== 下载 FP16 版本 (~169MB) ==="
wget -q --show-progress \
https://github.com/thewh1teagle/kokoro-onnx/releases/download/v1.0/kokoro-v1.0.fp16.onnx
echo "=== 下载 Q8 量化版本 (约100MB) ==="
# 使用 huggingface_hub
pip install huggingface_hub -q
python3 -c "
from huggingface_hub import hf_hub_download
hf_hub_download(
repo_id='onnx-community/Kokoro-82M-v1.0-ONNX',
filename='onnx/model_q8.onnx',
local_dir='.'
)
"
echo "=== 下载完成! ==="
ls -lh *.onnx
🎯 推荐选择
| 使用场景 | 推荐版本 |
|---|---|
| 桌面/服务器 | FP32 或 FP16 |
| 移动设备 (手机) | INT8 / Q8 |
| 浏览器 (WebAssembly) | Q8 或 Q4 |
| AMD Ryzen AI | NPU INT8 优化版 |
| 树莓派/嵌入式 | INT8 |
🔗 汇总链接
| 资源 | 链接 |
|---|---|
| thewh1teagle/kokoro-onnx | https://github.com/thewh1teagle/kokoro-onnx/releases |
| NeuML/kokoro-fp16-onnx | https://huggingface.co/NeuML/kokoro-fp16-onnx |
| onnx-community/Kokoro-82M-ONNX | https://huggingface.co/onnx-community/Kokoro-82M-ONNX |
| onnx-community/Kokoro-82M-v1.0-ONNX | https://huggingface.co/onnx-community/Kokoro-82M-v1.0-ONNX |
| magicunicorn/kokoro-npu-quantized | https://huggingface.co/magicunicorn/kokoro-npu-quantized |
| kokoro-js (npm) | https://www.npmjs.com/package/kokoro-js |