Real-Time Latent Consistency Model Text to Imageをローカルで試してみた。
こんにちは、たまき(AIに語りかける者)です。
イントロ
相変わらず、AI界隈はスピードが早いですね。最近はこんなやつも出ました。
さっそく試してみようとしましたが
githubは混んでいて使えませんでした。ということでローカルに挑戦。
インストール
こちらの手順にしたがってチャレンジ。
とはいえ、pythonよくわかってない。
まずテキトーにフォルダを作る。で、そこでcmdでコマンドプロンプトを起動。
git clone https://github.com/radames/Real-Time-Latent-Consistency-Model.git
でフォルダにコピー(多分)
python -m venv venv
コレでvenvフォルダが作られる(多分)
source venv/bin/activate
こいつはよくわからない。なんかsourceなんてコマンドはないとかなんとか。
pip3 install -r requirements.txt
コレでインストール始まる。でいろいろダウンロードで時間がかかる。
終わったら
uvicorn "app-txt2img:app" --host 0.0.0.0 --port 7860 --reload
コレでなんか動く。
で、http://0.0.0.0:7860にブラウザアクセスしても何も出ない。
http://127.0.0.1:7860/
ここにアクセスしたらGUIが出た。
そしたら、Startを押してプロンプトを入れると動いた。
試してる動画
多分、Stable Diffusionをローカルで使ってるのでpythonのパスとかが通ってるから動いたんじゃないかな?(しらんけど)
感想
RTX3060でもほぼほぼリアルタイムで画像が変化する。また一歩道具としてAIが使いやすくなる道筋ができた。
今月中にSDのWebUIにも組み込まれるんじゃね?
さすがにpython真面目に勉強します。とりあえずYouTubeで入門動画見まくります。
それではまた。
良ければコーヒー奢ってください。