2.1.安装和运行
系统环境要求
Orin板的磁盘空间需要有12GB以上的空间(之所以要这么大空间是因为安装过程会有解压),安装完成后并不会全部占用。
文件准备
每次发布包的文件名不一样,都有时间戳,所以每次执行下述命令需要修改为对应的文件名和目录名。
先从本地电脑上将 tkvoice_release_0.3.25_0324_101621.tar 传到 41.2 的 Orin 板:
scp tkvoice_release_0.3.25_0324_101621.tar nvidia@192.168.41.2:/home/nvidia
然后41.2的Orin上就有如下文件
工作目录/
└── tkvoice_release_0.3.25_0324_101621.tar (安装包)
执行解压:
tar -xvf tkvoice_release_0.3.25_0324_101621.tar tkvoice_release_0.3.25_0324_101621/install.sh
得到如下目录结构:
工作目录/
├── tkvoice_release_0.3.25_0324_101621.tar (安装包)
└── tkvoice_release_0.3.25_0324_101621/
└── install.sh
执行安装
进入目录,执行安装脚本:
cd tkvoice_release_0.3.25_0324_101621
./install.sh
执行 install.sh 的时候会多次要求输入密码,注意看清楚是需要输入 x86 上 ubuntu 用户的密码还是 Orin 板上 nvidia 用户的密码。
注意,安装时,所有Orin板都需要连接公网!!否则会安装失败。
该安装脚本会做以下操作:
- 将 docker_funasr 需要的文件传到 x86上,并在 x86 板上安装 docker, 导入镜像,启动容器运行 Funasr 服务
- 在 orin 板上安装 ollama 服务,导入 qwen2.5_1.5b.tar.gz 大语言模型
- 安装必要的 Python 包,包括 piper-tts, onnxruntime-gpu, websockets
如果install.sh脚本顺利执行成功,则安装tkvoice项目已完成安装。
关于Ollama模型,如果后续想切换到 qwen2.5:3b,可在安装Ollama的机器上执行 ollama pull qwen2.5:3b,该模型将会占用 1.9GB 硬盘空间,本项目会优先使用该模型,如果不存在该模型,本项目会使用内置安装的 qwen2.5:1.5b 模型。
针对无疆,Ollama是安装在 192.168.41.3 上;
针对无界,Ollama是安装在 192.168.41.2 上。
测试运行
先登录到 41.2 的 Orin 板,进入目录:
cd tkvoice_release_0.3.25_0324_101621
然后可用如下命令进行管理:
# 启动服务
./tkvoice.sh start
# 停止服务
./tkvoice.sh stop
# 重启服务
./tkvoice.sh restart
# 查看状态
./tkvoice.sh status
# 查看日志"
tail -f /home/nvidia/tkvoice_release_0.3.25_0324_101621/tkvoice.log
如果到这一步都顺利完成,说明整体流程已通,tkvoice后续的文档可有选择性的浏览,只浏览自己需要的。
卸载
由于本项目占用大量磁盘空间,在紧急需要磁盘空间的时候,可卸载本项目,后续需要的时候再安装回来即可。
执行 uninstall.sh 的时候会多次要求输入密码,注意看清楚是需要输入 x86 上 ubuntu 用户的密码还是 Orin 板上 nvidia 用户的密码。
- 卸载脚本会卸载 Orin 板上的 ollama 和 x86 上的 Funasr 容器和镜像以及 docker 服务,请谨慎使用。
- 执行uninstall.sh 后 ~/tkvoice_release_0.3.25_0324_101621 目录会删除掉,也就是卸载脚本自身也会删除掉,但是 ~/tkvoice_release_0.3.25_0324_101621.tar 文件不会删除
cd ~/tkvoice_release_0.3.25_0324_101621
chmod +x uninstall.sh
./uninstall.sh