找到了多个 **Kokoro 量化版本** 可以下载

简介: Kokoro语音合成模型提供多种量化版本:FP32(350MB)、FP16(169MB)、INT8/Q8(约100–103MB)、Q4及AMD NPU优化版,适配桌面、移动端、浏览器与嵌入式设备。支持GitHub、HuggingFace、npm多源下载,兼顾体积与性能。

根据我的搜索,找到了多个 Kokoro 量化版本 可以下载:


🔢 Kokoro 量化版本下载指引

📊 量化版本对比

版本 格式 大小 下载链接
FP32 原版 fp32 ~350MB GitHub Releases
FP16 半精度 fp16 ~169MB thewh1teagle/kokoro-onnx
INT8 量化 int8 ~103MB 见下方
Q8 量化 q8 ~100MB kokoro-js

方式一:thewh1teagle/kokoro-onnx (推荐)

这个项目提供了 fp16 量化版本,体积更小,性能更好:

# FP16 版本 (~169MB) - 推荐用于移动设备
wget https://github.com/thewh1teagle/kokoro-onnx/releases/download/v1.0/kokoro-v1.0.fp16.onnx

# FP32 版本 (~310MB)
wget https://github.com/thewh1teagle/kokoro-onnx/releases/download/v1.0/kokoro-v1.0.onnx

GitHub Releases 页面: https://github.com/thewh1teagle/kokoro-onnx/releases


方式二:NeuML/kokoro-fp16-onnx (HuggingFace)

HuggingFace 上的 fp16 量化版本:

# 使用 huggingface-cli 下载
huggingface-cli download NeuML/kokoro-fp16-onnx --local-dir ./kokoro-fp16

# 或使用 Python
from huggingface_hub import snapshot_download
snapshot_download("NeuML/kokoro-fp16-onnx", local_dir="./kokoro-fp16")

HuggingFace 链接: https://huggingface.co/NeuML/kokoro-fp16-onnx


方式三:kokoro-js npm 包 (浏览器专用)

适用于浏览器端,支持多种量化格式:

npm install kokoro-js

使用示例:

import {
    KokoroTTS } from 'kokoro-js';

// 选择量化精度
const tts = await KokoroTTS.from_pretrained(
  'onnx-community/Kokoro-82M-v1.0-ONNX',
  {
    
    dtype: 'q8'  // 可选: 'fp32', 'fp16', 'q8', 'q4'
  }
);

// 生成语音
const audio = await tts.generate('Hello world!', {
    voice: 'af_sky' });

方式四:INT8 量化版本 (最小体积)

根据 sherpa-onnx 的 Issue #2374,INT8 版本体积约 103MB

sherpa-onnx 官方 INT8 版本

sherpa-onnx 提供了 kokoro.int8 版本,可在移动端使用:

# 如果 sherpa-onnx 有 int8 版本发布,可从以下链接下载
# 注意:具体链接需要查看最新 releases
wget https://github.com/k2-fsa/sherpa-onnx/releases/download/tts-models/kokoro-en-v0_19.int8.tar.bz2

iPhone 15 性能对比 (来自 Issue)

模型 包大小 性能
kokoro (fp32) 319 MB 基准
kokoro.int8 103 MB 略低于预期

方式五:AMD NPU 优化版本

针对 AMD Ryzen AI 硬件的 INT8 量化版本:

# 下载 NPU 优化版本
huggingface-cli download magicunicorn/kokoro-npu-quantized --local-dir ./kokoro-npu

包含文件:

  • kokoro-npu-quantized-int8.onnx (121.9 MB)

HuggingFace 链接: https://huggingface.co/magicunicorn/kokoro-npu-quantized


方式六:onnx-community 量化版本

HuggingFace onnx-community 提供的量化版本,支持多种精度:

# 下载所有量化版本
huggingface-cli download onnx-community/Kokoro-82M-v1.0-ONNX --local-dir ./kokoro-quantized

该仓库包含:

  • onnx/model_fp16.onnx - FP16 版本
  • onnx/model_q8.onnx - INT8 量化版本
  • onnx/model_q4.onnx - INT4 量化版本

📥 完整下载脚本

#!/bin/bash
# Kokoro 量化版本下载脚本

mkdir -p kokoro-models
cd kokoro-models

echo "=== 下载 FP16 版本 (~169MB) ==="
wget -q --show-progress \
  https://github.com/thewh1teagle/kokoro-onnx/releases/download/v1.0/kokoro-v1.0.fp16.onnx

echo "=== 下载 Q8 量化版本 (约100MB) ==="
# 使用 huggingface_hub
pip install huggingface_hub -q
python3 -c "
from huggingface_hub import hf_hub_download
hf_hub_download(
    repo_id='onnx-community/Kokoro-82M-v1.0-ONNX',
    filename='onnx/model_q8.onnx',
    local_dir='.'
)
"

echo "=== 下载完成! ==="
ls -lh *.onnx

🎯 推荐选择

使用场景 推荐版本
桌面/服务器 FP32 或 FP16
移动设备 (手机) INT8 / Q8
浏览器 (WebAssembly) Q8 或 Q4
AMD Ryzen AI NPU INT8 优化版
树莓派/嵌入式 INT8

🔗 汇总链接

资源 链接
thewh1teagle/kokoro-onnx https://github.com/thewh1teagle/kokoro-onnx/releases
NeuML/kokoro-fp16-onnx https://huggingface.co/NeuML/kokoro-fp16-onnx
onnx-community/Kokoro-82M-ONNX https://huggingface.co/onnx-community/Kokoro-82M-ONNX
onnx-community/Kokoro-82M-v1.0-ONNX https://huggingface.co/onnx-community/Kokoro-82M-v1.0-ONNX
magicunicorn/kokoro-npu-quantized https://huggingface.co/magicunicorn/kokoro-npu-quantized
kokoro-js (npm) https://www.npmjs.com/package/kokoro-js
相关文章
|
存储 关系型数据库 数据库
Windows安装Postgresql之解压版
Windows安装Postgresql之解压版
1896 0
|
1月前
|
人工智能 JavaScript API
解锁AI协同干活!OpenClaw阿里云/本地零基础部署接入免费API+集成Agent Teams配置及常见问题
2026年,AI Agent的进化方向从“单点执行”转向“团队协作”——OpenClaw(曾用名Clawdbot)借鉴Claude Code的Agent Teams核心逻辑,推出专属“多智能体协同框架”,支持创建由多个AI代理组成的“虚拟团队”,分工协作完成复杂任务。不同于传统单代理模式,Agent Teams让AI代理具备“自我协调、并行工作、互相通信”能力,可同时处理研究、开发、审查等多维度任务,效率提升3-5倍。
1514 7
|
5月前
|
编解码 物联网 API
码上生花:用API链接Qwen-Image系列及衍生LoRA生态模型
Qwen-Image系列开源三月成爆款,凭借中文场景优势与ModelScope平台深度集成,支持文生图、图像编辑及LoRA生态API调用,助力开发者高效创作。
1859 1
|
2月前
|
人工智能 语音技术 云计算
书尖 AI 功能实测|基于阿里云 AI 技术,与微信读书阅读体验对比
本文深度实测阿里云赋能的智能阅读工具“书尖AI”,对比微信读书,客观呈现其1.2亿册书库、双人AI播客听书、2分钟极速解读等核心优势,展现高效轻松的智能阅读新体验。(239字)
|
开发工具 Android开发
Appium之获取app的package和activity以及UI界面定位方法
一、获取APP的package(包名)和activity 在使用android自动化测试工具monkeyrunner和appium中启动应用时,需要填写被测程序的包名和启动的Activity,以下有几种查看应用包名package和入口activity名称的方法: 1.
3428 0
|
XML Java 测试技术
springboot 整合 apache camel实现企业级数据集成和处理
springboot 整合 apache camel实现企业级数据集成和处理
5150 0
springboot 整合 apache camel实现企业级数据集成和处理
|
数据采集 存储 Java
Anaconda安装使用以及Pycharm教程
Anaconda环境基本使用以及与Pycharm集成
2862 0
Anaconda安装使用以及Pycharm教程
|
1月前
|
人工智能 API 数据处理
【最新】OpenClaw阿里云/本地部署保姆级教程+Skills集成+百炼API配置+常见问题解答
2026年3月,OpenClaw(小龙虾AI)的Skills生态已突破1.3万个,涵盖办公自动化、数据处理、联网搜索、AI绘画、定时任务等全场景,成为OpenClaw从“单纯对话”升级为“全能工具”的核心支撑。很多用户部署完OpenClaw后,发现本体只能简单聊天,无法实现自动化办公、数据处理等实用功能,核心原因就是没有正确集成Skills——就像智能手机只装了系统,没装任何应用,无法发挥真正价值。
1392 15