見出し画像

PyTorch2.4.1をCUDA12.4+cuDNN9.4用にソースからビルドしてみましたが


 WSL2上で、CUDA12.4.1とcuDNN9.4.0に対応させたPyTorch2.4.1をソースからビルドして、xformersの依存関係として認識させるところまでしてみました。

 
 とりあえず、githubからpytorch2.4.1のリポジトリをクローンして、cmakeでcuda12.4.1、cudnn9.4.0、flashattention、mem eff attention、triton、mkl、cuTENSORなどを有効化してビルドしました。仮想環境に開発版でC++モジュール含めてインストール。

miniconda3,python3.11.10仮想環境でcuda12.4.1,cudnn9.4.0を認識確認しました。


 xformersもソースからビルドして、開発版で仮想環境にインストール。python -m xformers.info コマンドでpytorch2.4.1とcuda、tritonが認識されるかを確認。

 triton"True"、pytorch.version"2.4.1"、pytorch.cuda"available"、build.cuda_version+build.nvcc_version"1204"+"12.4.131"として、xformersとpytorchを統合出来ているのを確認出来た。

 実際にComfyUIで画像生成が出来るかを試してみました。FLUX.1devで画像生成を実行したら、Using pytorch attention in VAEという表記が、Using xformers attention in VAEに変更しているのを確認できました。

 エラー表記などもなく普通にFLUX.1devでRTX4060ti 16GBのVRAMでも画像生成出来た。

この記事が気に入ったらサポートをしてみませんか?