PyTorch2.4.1をCUDA12.4+cuDNN9.4用にソースからビルドしてみましたが
WSL2上で、CUDA12.4.1とcuDNN9.4.0に対応させたPyTorch2.4.1をソースからビルドして、xformersの依存関係として認識させるところまでしてみました。
とりあえず、githubからpytorch2.4.1のリポジトリをクローンして、cmakeでcuda12.4.1、cudnn9.4.0、flashattention、mem eff attention、triton、mkl、cuTENSORなどを有効化してビルドしました。仮想環境に開発版でC++モジュール含めてインストール。
xformersもソースからビルドして、開発版で仮想環境にインストール。python -m xformers.info コマンドでpytorch2.4.1とcuda、tritonが認識されるかを確認。
triton"True"、pytorch.version"2.4.1"、pytorch.cuda"available"、build.cuda_version+build.nvcc_version"1204"+"12.4.131"として、xformersとpytorchを統合出来ているのを確認出来た。
実際にComfyUIで画像生成が出来るかを試してみました。FLUX.1devで画像生成を実行したら、Using pytorch attention in VAEという表記が、Using xformers attention in VAEに変更しているのを確認できました。
エラー表記などもなく普通にFLUX.1devでRTX4060ti 16GBのVRAMでも画像生成出来た。
この記事が気に入ったらサポートをしてみませんか?