Ubuntu 18.04LTSへのCUDA 11.0環境構築・確認手順
導入
Ubuntu 18.04LTS環境へのCUDA11.0環境構築手順をご説明します。
(Ubuntu 20.04LTSやCUDA10.2環境についても同様の手順で構築できることを確認済みです。)
今回はAWS以外の環境でも環境構築を行うことを想定して、標準的なUbuntu環境へCUDA環境を構築します。
AWSを利用する場合はCUDAやcuDNN等の環境が予め構築されたAWS Deep Learning AMIを利用し、構築の手間を省くこともできます。
AWS Deep Learning AMIを利用する方法についてはこちらの記事を御覧ください。
もしこの記事が役立った場合にはスキを押していただければ幸いです。
導入する環境について
今回は以下のAWS EC2インスタンスにCUDA環境を構築します。
インスタンスタイプ:p2.xlarge
OS:Ubuntu 18.04LTS
CUDA:11.0
Ubuntuのバージョンについては現時点でメジャーと思われる18.04LTSを利用します。
また、CUDAについては現時点の最新バージョンである11.0を利用します。
Ubuntu 20.04LTS環境やCUDA 10.2についても同様の手順にて構築を行えることを確認済みですので、必要に応じて読み替えていただければと思います。
CUDA Toolkitの入手
環境に合った最新のToolkitをnVIDIAのサイトより入手します。
今回は11.0の dev(local) バージョンを利用します。
(以下、選択時のスクリーンショット)
スクリーンショット内の「Installation Instructions」に表示されているコマンド操作をインスタンス上にて実行します。
ドライバが正常にインストールされていることの確認
nvidia-smi(nVIDIAシステム管理インタフェース)コマンドを実行し、ドライバが正常にインストールされていること、GPUデバイスが問題なく認識できていることを確認します。
以下はコマンド実行結果の一例です。
CUDA Toolkitが導入できていることの確認
CUDA Toolkitが正常に導入されていることを確認します。下記の例では /usr/local/cuda-11.0 ディレクトリが作成され、そこへ /usr/local/cuda からシンボリックリンクが貼られていることがわかります。
パスの設定
先ほど確認したCUDA Toolkitへパスを通すため、~/.bashrcに下記を追記します。これによりCUDA開発に利用するnvcc等のコマンドが実行出来るようになります。
追記が完了したら再ログインを行い、上記設定を反映させます。
サンプルプログラムの実行
テストディレクトリを作成し、そこへサンプルプログラムとヘッダファイルを複製した上でコンパイルと実行を行います。
正常に実行されるとデバイス情報が複数行にわたり出力され、最終行に「Result = PASS」の結果を得ます。
(実行に問題がある場合には「Result = FAIL」となります。)
終わりに
以上でUbuntu 18.04LTS環境へのCUDA 11.0環境の構築ができました。
この記事が参考になった、という方は是非スキをお願いいたします。
今後の記事の方向性の参考にいたします。
オルトブリッジ・テクノロジー株式会社では、CUDAやTensorRT等のGPUプログラミングに関する情報を発信しています。
企業向けのCUDAプログラミングの教育事業なども行っておりますので興味のある方は note(at)altbridge-tech.jp までご連絡ください。
この記事が参加している募集
この記事が気に入ったらサポートをしてみませんか?