Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

Python版のcuda対応に関すること #95

Open
tuna2134 opened this issue Oct 18, 2024 · 5 comments
Open

Python版のcuda対応に関すること #95

tuna2134 opened this issue Oct 18, 2024 · 5 comments
Labels
enhancement New feature or request

Comments

@tuna2134
Copy link
Owner

機能追加の説明
GPUとかで動かしたいって方がいるので、その対応としてdynamicを提案する

メリット
dynamicにすることでcuda以外でも使える

デメリット
ユーザーの負担が増える

@tuna2134 tuna2134 added the enhancement New feature or request label Oct 18, 2024
@Mofa-Xingche
Copy link
Contributor

すみません失礼します
GPUで、もしonnx cudaのstyle ber vits2音声合成をしたら、GPUメモリは.safetensorの音声合成に比べて必要なGPUメモリはどれくらい節約できるとおもいますか?
onnx gpuのメモリ節約効果について

@Googlefan256
Copy link
Collaborator

実際に計測しないことにはわかりませんが、動的にslotを読み込んだりアンロードする負荷は間違いなく低いため、slotの読み込み上限を付けることで結果的に複数モデル扱うときのVRAM節約をすることはできるはずです。

@Googlefan256
Copy link
Collaborator

そこらへんの実装をすることにしました(python版ではなくdocker版に)
同時にGPUに読み込むモデルに上限を付けることでメモリを節約できる機能です。
公式版と比べてGPUとCPU間の転送コストが低いため、高速に行えるはずです。

@Googlefan256
Copy link
Collaborator

そこらへんの実装をすることにしました(python版ではなくdocker版に) 同時にGPUに読み込むモデルに上限を付けることでメモリを節約できる機能です。 公式版と比べてGPUとCPU間の転送コストが低いため、高速に行えるはずです。

python版にも実装できそうです

@Mofa-Xingche
Copy link
Contributor

ありがとうございます。><

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
enhancement New feature or request
Projects
None yet
Development

No branches or pull requests

3 participants