-
Notifications
You must be signed in to change notification settings - Fork 4.1k
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
请教一下,如果只想使用TTS功能、克隆,想整合到自己的项目中,应该怎么合并呀?现在哪一种方式运行推理速度最快,并且效果不差 #1784
Comments
直接调API,对接API接口就够了 |
如果你的场景支持独立部署,那么你可以起一个docker,然后走http的api调用。 考虑到代码融合可能和你本地项目有大量的冲突,从可维护性角度来说,第一种独立部署会更好。 推理速度的话:api_v2就可以了,此外如果你想只用底模,只根据不同参考音进行切换,需要改动一下代码将prompt_cache改为一层<参考音,cache>的结构,在切换音色场景可以优化0.2s左右,推理的速度4090基本都是80~100it/s,半精度可以到130it/s。如果还要再快可以考虑onnx改造的。 |
onnx就别想更快了 |
推理4090的话看你别的硬件,快的可以580it/s |
而且要是没记错的话 |
感谢补充,我看到是prompt_sematic设置的时候,引用到了vits模型。prompt模型存储的是参考语音的sematic缓存,代码中仅缓存了上一次参考音的,切换有0.8s的耗时,补充下:我的配置是4090。 |
如果我要多卡的话,需要怎么修改api_2.py |
我想要2000字三秒左右出结果,8张L4能达到吗?需要修改什么代码才能实现 |
直接多开几个,然后自己做一下负载均衡 |
Issue里有,别人测出来的 |
自行尝试compile或者别的方式,然后用linux,CPU也挺重要 |
No description provided.
The text was updated successfully, but these errors were encountered: