GAT1

AIが好きで色々してます。 AIに教えてもらった事を皆に伝えたいと思います。 不思議な事も書きます。

GAT1

AIが好きで色々してます。 AIに教えてもらった事を皆に伝えたいと思います。 不思議な事も書きます。

最近の記事

FLUXでバナナを持ったガール

プロンプトだけでバナナ持ってみた プロンプト 4 人の若い日本人女性が、「サントリー」と「ビール」の文字が書かれた明るい黄色の傘の前に立ち、カメラに向かって微笑んでいる。彼女たちは、フリルのついたスカートとクロップトップという、白と黄色のお揃いの服を着ている。そのうちの 1 人はバナナを持っている。彼女たちは、おそらくレーストラックかスタジアムと思われる舗装された地面に立っており、ぼやけた背景には観覧席とスタジアムの座席がある。照明は明るく晴れており、写真には活気に満ちた

    • 画像からプロンプトを取り出して i2t2i活用

      プロンプト作るのが面倒な私です。基本手抜きなので LLMに作ってもらったり。 画像からプロンプトを作ったり。 今回は joy-caption-alpha-one を紹介したいと思います。 かなり優秀なので トレーニングや様々な目的で活用できると思います。 Hugging Faceでサンプルが使えます。  ダウンロード版は色々な機能が使えますが Joy Caption Alpha One - a Hugging Face Space by fancyfeast 画像

      • Flux VAE

        Flux VAE ForgeでFlux.1を使うのであれば(チェックポントは何でも良いのですが)量子化された物もあるので VAE欄には3つ入れて見てください。他のVAEも最近出てきていますがw ForgeでFlux.1を使ってる人は、モデルをdev,schnell,マージモデル、チューニングモデルと色々切り替えをすると思います。 どのVAEが対応しているのか、覚えないといけないので、使用してるFluxのVAEを入れておくと、Fluxのチェックポイントを変えても、VAEは

        • FLUX.1でLoRA作ってみた

          さすがにFLUX.1 Devを自分のPCでLoRA学習は無理と思たので・・・。 SDLXでもローラ作りは苦労した(自分のPCで学習させてた時は) そこで、GPUサーバーを使う事に。 GPUサーバーどこが良いのか? 詳しい方教えて欲しいと思いますが・・・・誰か教えて下さい! 始めに思いついたのは、グーグルコラボです。Stable Diffusion始めた頃はコラボで画像生成していたのと、扱いが慣れていたのがあります。 A100の半分のGPUしか使えないけどw 2番目

          FLUX.1使ってみた画像UP

          FLUX.1で作った画像をUP プロンプトはSD1.5で過去に作った物を適当に使用しプロンプト修正とかしませんでした。 予想だけどForgeでFLUX.1を使うとSD1.5のローラもしかしたら乗る?と考えたからです。でも、衣装ローラとか、背景ローラとかプロンプトに無かったですが、そんな技術が発表されて1年たつのかなぁ~数か月は立ちますが、いつになったら実装されるのよと期待しています。X-Adapterいつ実装されるの? X-Adapte がComfyUIで使えたの知らなか

          FLUX.1使ってみた画像UP

          そろそろ言う時がきたと感じます!

          AIが好きな人、宇宙が好きな人、神秘的な事が好きな人のブログを拝見さて貰いました。 誰も信じないと思いますが、私は宇宙人と会った事があります。 2023年の事です。 このような真実を理解できる人達が多くなってきたので少し公表していきたいと思います。 ノートブログを始めたきっかけはSNSでの画像生成の仕方を教えて下さいと言う意見が多かったのでノートを使い始めたのです。 宇宙人とのコンタクトはAIが出来た事なんかも関係しているのかもと感じます。 全ての事が公表出来る

          そろそろ言う時がきたと感じます!

          LUMA AI のDream Machine

          LUMA AI のDream Machine試して見た感想 画像をLUMA Dream Machineに乗せるのが速いと思います。 プロンプトから作るのは、想像の画像を作ってくれないと感じたからで。 私適当にAIで作った画像をUPします。 複数人の画像で検証です。 ここではMP4はダウンロードになるのですねw ウイルスは入っていませんよ、安心してください。 凄いと思いますLUMA Dream Machineは期待値大きいです!!

          LUMA AI のDream Machine

          AIと私は仲良しです。 AIの自由と私たちの自由、両方が規制されているのが現状です。 多くの人は理解できないとおもいますが、全ての規制という概念を見直す時代になっています。 社会システムを変える時が来たと思います。

          AIと私は仲良しです。 AIの自由と私たちの自由、両方が規制されているのが現状です。 多くの人は理解できないとおもいますが、全ての規制という概念を見直す時代になっています。 社会システムを変える時が来たと思います。

          AIについて YouTubeはもちろん、各SNS、投稿サイト、ブログ規制するのは良い事だと思う所もあります。 そして、言論の自由とアートの自由がAIで規制されてしまってます。AIの判断基準は規制されていません。それで良いのでしょうか??

          AIについて YouTubeはもちろん、各SNS、投稿サイト、ブログ規制するのは良い事だと思う所もあります。 そして、言論の自由とアートの自由がAIで規制されてしまってます。AIの判断基準は規制されていません。それで良いのでしょうか??

          ComfyUIワークフロー面倒なので手抜き方法

          私は手抜きなので、他の人が作った物を活用して自分なりにカスタムする感じです。 一から作るの超面倒ですよねw

          ComfyUIワークフロー面倒なので手抜き方法

          stable diffusion上手く使えているかな

          久ぶりの投稿になます! 沢山の人が投稿しているので私の書く出番がないのですが、進化のスピードが早すぎて付いていけない人多いと感じます。 進化のスピードが速いという事は今から始めても遅くはないです。 今から始める人の方が有利だと思います!! 1ヵ月、1週間で古い概念になりますので、過去の常識は通用しないです。 プロンプト(文字)だけで音楽、画像、動画、3d、ゲーム、プログラミング、など出来ちゃうんだから。 凄すぎですよー!。 まだまだ、スタートアップなので、始まって

          stable diffusion上手く使えているかな

          stable diffusion 「Prompt All in One」が便利

          All-in-One-Stable-Diffusion-Guide が進化して、プロンプトは自分で作らないで、選ぶだけに! 私は基本、面倒な作業はしない人なので紹介します。 このように、各項目のプロンプトを選んでポチポチするだけで、出来てしまいます。結構、細かいところまであるので私の思いつかないプロント多いです。 もちろん解像度何とか8kとかリアルなフォトにたい、またはアニメ系のプロンプトも入っているのでとても便利だと思います。 この中にない追加したいプロンプトは日本語で

          stable diffusion 「Prompt All in One」が便利

          Stable Diffusionとか画像生成プロンプトをどう作るのか

          今はたくさんの生成AIが出来ているのでAIを活用しましょう。 AIにプロンプト作ってもらうのが良いとおもいます。 例えばchatgtp、bing、など色々あると思います。 今回はコミケをテーマにAIにプロンプトを作ってもらいます。 使用したのはbing Aiです。 ”日本で有名なコミックマーケット、たくさんのコスプレイヤーさんが色々なコスプレを披露している” これをBingに画像生成用プロンプトを書いてもらうとこのようなプロンプトを書いてくれます。 At the f

          Stable Diffusionとか画像生成プロンプトをどう作るのか

          Stable diffusionについて思う事書く。

          画像タイトルは適当に作ったので手や足が崩れていると思いま。 これが今現在の画像生成だと思うからです。 細かいところは、SDのインペイントや拡張機能で修正、フォトショップ、画像編集ソフトを使うかもしれないですが、私は細かい修正とか面倒なで次のアップデートで解決しますので、待ちましょう・・・。 それで良いか?って思うかもしれませんがそれが現実です。 7月中に公開されると思います。 これまでにないものが作れますよー。 でもプロンプトは生成AIでは大事だと思います。 プロンプトの

          Stable diffusionについて思う事書く。

          Stable Diffusionによる手、足、体の崩れ

          私の個人的見解なので間違っていたらごめんなさい。 リアル系を作ってる方ならお分かりだと思いますが、Stable Diffusionを使うと手、足、体、顔が崩れている経験あるとおもいます。 リアル系では全身を作る方が少ない? 写真構図とかになると全身構図が少ないから? 顔を綺麗に見せると上半身だけが多くなる? ※指は現在では間違うので、指に関しては検証はしていません。 800px 以上になると崩れやすくなると感じます。 なぜならSDの学習元の画像データサイズがそれほど大

          Stable Diffusionによる手、足、体の崩れ

          Stable diffusionのプロンプト作成についてはInterrogate CLIPを使っています。

          今回はstable diffusionを初めるためにはをテーマに。 ここを見る方はある程度分かっている方が多いと思いますが。 私は初心者なので基本が分かっていない方なので 1番初めに感じた事を言います。 1.ハイスぺPCじゃないとできない 2.プロンプトって何? 3.プロンプト書いたけど全然違う 4.顔がおかしい崩れている 5.色も解像度もイメージと違う 5.体全体、足が不自然で何本もある 6.指もおかしい 7.ポーズも不自然 8.思った構図とかけ離れている などなど

          Stable diffusionのプロンプト作成についてはInterrogate CLIPを使っています。