快速开始
本指南将帮助你快速部署并运行 Closed-LLM-VTuber 项目。
本指南部署的配置为 Ollama + sherpa-onnx-asr (SenseVoiceSmall) + edge_tts。如需深入定制,请参考用户指南的相关章节。
如果用 OpenAI Compatible 代替 Ollama,用 groq_whisper_asr 代替 sherpa-onnx-asr (SenseVoiceSmall),那么只需配置 API Key 即可使用,无需下载模型文件,也可以跳过对本地 GPU 的配置。
本项目只推荐使用 Chrome 浏览器。已知 Edge、Safari 等浏览器都存在不同的问题。
如果你位于中国大陆,建议你开启代理后再部署和使用本项目,确保能顺利下载所有资源。
如果你遇到开启代理后本地服务 (ollama、deeplx、gptsovits) 无法访问,但关闭代理后就能访问的问题。请你确保你的代理绕过本地地址 (localhost),或者在所有资源下载完毕后关闭代理再运行本项目。更多信息参考 设置代理绕过 。
Groq Whisper API、OpenAI API 等国外大模型/推理平台 API 一般无法使用香港地区的代理。
如果你更喜欢 Electron 应用 (窗口模式 + 桌宠模式),可以从 Closed-LLM-VTuber-Web Releases 下载对应平台 Electron 客户端,可以在后端服务运行的前提下直接使用。但你有可能会遇到因为没有签名验证而导致的安全警告,具体情况和解决方案请查看 模式介绍
有关前端的更多信息,请参考 前端指南
设备要求
最低要求
本项目的各个组件 (ASR, LLM, TTS, 翻译) 都可以选用 API,你可以把想要在本地运行的组件放在本地,本地跑不动的用 API。
因此,本项目的最低设备要求:
- 电脑
- 树莓派也行
本地运行的推荐设备要求
- M 系列芯片的 mac
- Nvidia GPU
- 比较新的 AMD GPU (支持 ROCm 的话会很棒)
- 别的 GPU
- 或是一个强大到,可以代替 GPU 的 CPU。
本项目支持多种不同的语音识别(ASR),大语言模型(LLM),以及语音合成(TTS) 的后端。请根据你的硬件条件量力而行。如果发现运行速度太慢,请选择小一些的模型或者使用 API。
对于本快速开始文档选择的组件,你需要一个速度正常的 CPU (ASR),一个 Ollama 支持的 GPU (LLM),以及网路链接 (TTS)。
环境准备
安装 Git
- Windows
- macOS
- Linux
# 在命令行中运行
winget install Git.Git
关于 winget
如果你的 Windows 版本较旧 (Windows 11 (21H2 之前)),你的电脑可能没有内置 winget 包管理器。你可以去微软应用商店中搜索并下载 winget。
如果使用 Windows 10 1809 (build 17763) 之前的版本,你的电脑可能不支持 winget。请前往 Git 官网下载 git 安装包进行安装。之后的 ffmpeg 也请自行上网搜索 ffmpeg 的安装指南。
# 如果没有安装 Homebrew,请先运行这个命令进行安装,或者参考 https://brew.sh/zh-cn/ 进行安装
/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"
# 安装 Git
brew install git
# Ubuntu/Debian
sudo apt install git
# CentOS/RHEL
sudo dnf install git
安装 FFmpeg
FFmpeg 是必需的依赖项。没有 FFmpeg 会导致找不到音频文件的错误。
- Windows
- macOS
- Linux
# 在命令行中运行
winget install ffmpeg
# 如果没有安装 Homebrew,请先运行这个命令进行安装,或者参考 https://brew.sh/zh-cn/ 进行安装
/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"
# 安装 ffmpeg
brew install ffmpeg
# Ubuntu/Debian
sudo apt install ffmpeg
# CentOS/RHEL
sudo dnf install ffmpeg
检查 ffmpeg 已经成功安装
在命令行中运行
ffmpeg -version
如果出现类似
ffmpeg version 7.1 Copyright (c) 2000-2024 the FFmpeg developers
...(后面一大串文字)
的文字,说明你安装成功了。
NVIDIA GPU 支持
如果你有 NVIDIA 显卡并希望使用 GPU 运行本地模型,你需要:
- 安装 NVIDIA 显卡驱动
- 安装 CUDA Toolkit (推荐 11.8 或更高版本)
- 安装对应版本的 cuDNN
Windows 安装步骤:
以下路径仅供参考,需要根据版本和实际安装路径进行修改。
-
检查显卡驱动版本
- 右键点击桌面,选择"NVIDIA 控制面板"
- 帮助 -> 系统信息 -> 组件,查看驱动程序版本
- 或访问 NVIDIA 驱动下载页面 下载最新驱动
-
安装 CUDA Toolkit
- 访问 CUDA 版本对应关系 查看驱动版本支持的 CUDA 版本
- 访问 CUDA Toolkit 下载页面 下载对应版本
- 安装完成后将以下路径添加到系统环境变量 PATH 中:
C:\NVIDIA GPU Computing Toolkit\CUDA\v<版本号>\bin
C:\NVIDIA GPU Computing Toolkit\CUDA\v<版本号>\lib\x64
-
安装 cuDNN
- 访问 cuDNN 下载页面(需要注册 NVIDIA 账号)
- 下载与 CUDA 版本匹配的 cuDNN
- 解压后将文件复制到 CUDA 安装目录:
- 将
cuda/bin中的文件复制到C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v<版本号>\bin - 将
cuda/include中的文件复制到C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v<版本号>\include - 将
cuda/lib/x64中的文件复制到C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v<版本号>\lib\x64
- 将
验证安装:
- 检查驱动安装:
nvidia-smi
- 检查 CUDA 安装:
nvcc --version
Python 环境管理
从 v1.0.0 版本开始,我们推荐使用 uv 作为依赖管理工具。