- 運営しているクリエイター
#AI画像生成
【ComfyUI】商用利用可能なFLUX.1[dev]並のモデル登場!OpenFLUX.1を評価してみた
画像生成AIの進化は止まりません。新たに登場した「OpenFLUX.1」は、すでに高評価を得ているFLUX.1-schnellモデルをベースに、「蒸留」を取り除いたことで、さらに高い柔軟性を持ったオープンソースのツールです。従来のモデルが持つ課題を克服しつつ、微調整(ファインチューニング)が可能な設計で、より高品質な画像をわずか数ステップで生成できます。
この記事では、OpenFLUX.1がどの
そうだ!AI画像生成をちゃんと勉強しよう💡15章:ControlNet その5
ControlNet「Segmentation」「Shuffle」「Tile」
※勉強するのはStable Diffusion、SeaArt系になります。
コントロールネットについては残すところあと3つになりました。
その残りの、「Segmentation」「Shuffle」「Tile」を学んでいきたいと思います。
今日で終わったらいいな~😙
本日も変わらず等身大の私ですよろしくお願いしま
そうだ!AI画像生成をちゃんと勉強しよう💡17章:背景が透過された画像を作る
(20241013 更新)
※勉強するのはStable Diffusion、SeaArt系になります。
AIで生成したかわいい女の子を素材として使いたいって思ったことある人もいるかと思いますが、背景があるため素材としては使いにくいと思います。
そこで今日はローカル環境のStable Diffusionでも背景透過ができる拡張機能を勉強して、AI画像を素材として使うスキルを身につけていきたいと
【Krita】ImageFXをアップスケール実験【ai-diffusion】
GoogleのImageFXで生成すると1024x1024解像度の画像を生成できます。それをKrita-ai-diffusionを利用して手動アップスケールしてみます。
まずはImageFXで生成します。
手順は
① 「画像拡大」で2x(SD1.5利用)
② 面倒ですが、解像感の悪い顔をそれぞれ再生成(SD1.5利用)
③ 指はFlux.1でインペイント修正
写真のアップスケールはアイ
【v1.1アプデ】SDXLモデルを半分に圧縮!?モデルをFP8に量子化してストレージを解放せよ!
24/08/25 15時頃追記(※スクリプトアプデしました)
こんな感じで、初期のローカル版のコード実行時に変換前のキャッシュが残るようになっています。C:\Users\ユーザーID\.cache\huggingface\hub\以降のフォルダにリポジトリidフォルダがあったら削除してください。
コードの改修が終わりましたので、お手数ですがローカル版ご使用の方は改めてダウンロードお願いいたし
論文解説 ControlNeXt: Powerful and Efficient Control for Image andVideo Generation
ひとことまとめ
概要ControlNetやT2I-Adapter,ReferenceNetは平行なブランチを追加したりアダプターを挿入することで画像条件追加を可能にしている。しかし、これらの手法は計算資源や学習難度が高い。ControlNetは2倍近いGPUメモリを消費したり、大量の追加パラメータを持っている。これらは特に動画生成で問題になる。
T2I-Adapterは1度の推論で特徴量を生成す
Flux.1とかいう新しい画像生成AIのモデルのすばらしさを皆様にも知っていただきたい。試し方もあるよ!
※ この記事内の生成画像はすべて Flux.1 Schnell で生成した無加工品です
というわけで Flux.1 という新しい画像生成用のモデルが出てかなり面白い!っていう話です
例えばこんな感じの画像とかが簡単に作れます
ただし!
いわゆる美少女AIイラスト的な画像はたぶん満足いくレベルのものは作れません!
でも面白いから!美少女以外をたまには生成してもいいじゃない!
Flux.1
そうだ!AI画像生成をちゃんと勉強しよう💡5章:サンプラーとスケジュールタイプについて
※勉強しているのは、Stable Diffusion、SeaArt系になります。
パラメータ…いつもStable DiffusionやSeaArtをいじっていて、見て見ぬふりをしているもののひとつ。
まだ黒い霧がかかっていて何が何だか想像すらできない存在の番がきてしまいました…気合を入れて勉強します
しかし等身大は崩さずやっていきたいと思いますよろしくお願いします(。ì _ í。)
なお今回
Google ColabでSakana AIのEvo-Ukiyoeを試してみた
概要Google Colab (Pro)でSakana AIの浮世絵生成AI Evo-Ukiyoeを試してみました。
入力プロンプトには有名な俳句の紹介記事を参考に10句使用しました。
必要なGPUメモリは約33.4GBでした。
実施内容必要となるもの
Google Colabへの課金 (GPUメモリの問題で、A100が必要でした)
Hugging Faceのアカウントとトークン
J
画像生成AIモデル「Kolors」の使用経験
こんにちは、Browncatです。
中国のKuaishou Technology社(快手科技)は7月6日、画像生成AIモデル「Kolors」をリリースしました。
Kolorsは学習ネットワークはSDXLと同じくU-Netですが、テキストエンコーダとして、CLIPやT5ではなくChatGLM3を用いているのが特徴です。
そこでKolorsの生成結果を、Midjourney、DALL-E 3、
【画像生成AI】 自然な文章で思い通りの画像生成を実現する最先端モデル『Kolors』を試してみた
Stable Diffusionでの画像生成の欠点は、生成したい画像の情景をカンマ区切りのタグで入力するので、思った通りの画像を生成できないことでした。
この問題の解決に繋がる研究成果がKuaishou Technologyよりもたらされました。Kuaishouは、GML (General Language Model)を用いて、英語と中国語の理解力が強化されたモデル『Kolors』を発表しました
【Google Colab】DALL-Eで一括画像生成!ガチャツールの使い方
こんにちは、Shinyaです。
私は普段、DALL-E 3を使ってAI画像を大量に生成しています。
DALL-E 3で画像を生成する方法としてChatGPT Plusがありますが、
ChatGPTのインタフェースだと1つのプロンプトでは1つの画像しか出力することができない。「再生成」ボタンを押せば別の画像も出力できるけど、時間もかかるし、使いすぎると利用制限を食らってしまう。
そこでDALL