マガジンのカバー画像

週刊AI神絵師

144
進化の速いAI画像生成についての話題を記録すべく、優良な生成AIに関する記事をバインダーさせていただいております。2022年10月より前の基礎知識は拙書「AIとコラボして神絵師に…
運営しているクリエイター

#人工知能

#AI神絵師本 神速リリースしました!

おっす!白井暁彦(作家)です。 AI画像生成技術で書籍を書きました。 10/28配信開始です。 https://ivtv.page.link/ap 本日、インプレスさんからプレスリリースが出ました。 美麗な画像を文字列から生成!仕事や趣味に使えるAI先端技術の解説書! 『AIとコラボして神絵師になる 論文から読み解くStable Diffusion』発行 技術の泉シリーズ、10月の新刊 「AIとコラボして神絵師になる 論文から読み解くStable Diffusion」

第1回生成AIアートバトル「AIBATO」で優勝いたしました(実況編)

圧倒的・・・感謝!! ・・・を込めて、現場より実況ツイートでお送りいたします。 TLDR:優勝しました。日本一の生成AIアーティストになりました。 前日譚余裕かましてる風ですが、新幹線→東京駅で京葉線特急わかしお10分乗換(記録達成)で11時着です。直前までクラウドに準備を仕込んでいたのですね。 明らかにヤバいブースに来た!#AIBATO ライブ画像生成バトルの機材調整中#コンテンツ東京2024 4-40

¥0〜
割引あり

Google Colab で Stable Diffusion WebUI を試す

「Google Colab」で「Stable Diffusion WebUI」を試したので、まとめました。 1. Stable Diffusion WebUI「Stable Diffusion WebUI」は、「Stable Diffusion」で画像生成するためのWebUIです。 2. Colabでの実行Colabでの実行手順は、次のとおりです。 (1) Colabのノートブックを開き、メニュー「編集 → ノートブックの設定」で「GPU」を選択。 (2) リポジトリ

Google Colab で ComfyUI を試す

「Google Colab」で「ComfyUI」を試したので、まとめました。 1. ComfyUI「ComfyUI」は、モジュール式の「StableDiffusion」のGUIです。グラフ/ノード/フローチャートベースのインターフェイスを使用して、コーディングなしに高度な「StableDiffusionパイプライン」を設計および実行することができます。 特徴は、次のとおりです。

Google Colab で DreamGaussian を試す

Google Colab で DreamGaussian を試したので、まとめました。 1. DreamGaussian「DreamGaussian」は、「プロンプト」または「1枚の画像」から数分で高品質な3Dメッシュを生成できる手法です。 2. Colabでの実行Colabでの実行手順は、次のとおりです。 (1) 公式リポジトリで提供されているColabノートブックを開く。 2種類のノートブックが提供されています。 (2) Colabのメニュー「ファイル → ドライ

簡単に Stable Diffusion のモデルを試せる Google Colab の使い方ガイド (Ver2)

 こんにちはこんばんは、teftef です。今回は Colab で動かす Stable Diffusion Ver2 の使い方についてです。  Stable diffusion の WebUI がGoogle Colab 上で警告が出るようになったため、 Diffusers 実装です。今回は大幅なアップデートとなっています。 前回の Version では Diffusers が用意した PipeLine を用いた画像生成なのですが、今回はほぼすべての モデルに対応した形となり

MidjourneyやStable Diffusionなどの画像生成AIの仕組みについて

 以前、「最近、人工知能による自然言語処理が爆発的に進化しているのでまとめてみた。」という記事の中で、DALL-E2、Imagen、Partiなどのテキスト(文字情報)から画像生成するAIについて解説したのですが、その後、Midjourneyや DreamStudio(Stable Diffusion)などの新しい画像生成AIが次々と公開されて、世間が盛り上がってきましたので、新しい情報を追加してまとめ直すことにしました。 1.4種類の画像生成モデル 一般的に、ディープラー

Google Colab で Visual ChatGPT を試す

「Google Colab」で「Visual ChatGPT」を試したので、まとめました。 1. Visual ChatGPT「Visual ChatGPT」は、「ChatGPT」と一連の「Visual Foundation Models」を接続することで、チャットで画像生成を行うパッケージになります。 具体的には、LangChainのToolとして、以下の機能を利用できるようにしています。 詳しくは、論文「Visual ChatGPT: Talking, Drawin

Stable Diffusionで自分の絵を学習させる時のポイントまとめ

自分の絵を学習させたい、「絵柄」または「キャラの特徴」が同じで様々な背景やシチュエーション・服装などのバリエーションを出したい、という場合に参考になれば幸いです! ※※※ 注意点 ※※※ 「キャラ全体の特徴が同じ」と「様々な服装」などは矛盾するので、その場合は「髪型や目だけ揃ったモデルを作る」などの工夫がポイントです ここでは絵柄・キャラの特徴の「モデル」に絞って紹介しています。ControlNetやLatent Coupleなどの+α機能は割愛させていただいているので

ポーズ指定ができるControlNetをAUTOMATIC1111版WebUIで使う方法

 2月10日に、人物のポーズを指定してAIイラストの生成ができるControlNetの論文が発表され、すぐにStable Diffusion用のモデルがGitHubで公開されて、ネットで話題になっています。  今回、このControlNetをWebUIに導入して使用する方法を紹介します。 (2023/03/09追記)WD 1.5 Beta 2用のControlNetの使用方法を追加しました。 (2023/04/18追記)WebUI用ControlNet 1.1のColabノー

OpenjourneyやEimisAnimeDiffusionなど画像生成AIの様々なモデルデータを簡単に切り替えて使う方法

 最近、MIdjourney v4スタイルのOpenjourneyやアニメイラストに特化したEimisAnimeDiffusion、Evt V2など新しいモデルデータが次々と発表されています。  こうしたモデルデータをGoogle Colabで簡単に切り替えて使う方法はないかと試行錯誤してきましたが、だんだん良いやり方が固まってきましたので、ここに紹介します。  詳しい操作方法などは、以下の記事も参考にしてください。 1.モデルデータの切り替え方法 ベースとなるColabノ