Catapp-Art3D

3Dアート作品や3Dモデルデータも扱っています。最近は専らAIを利用した作品が多いです…

Catapp-Art3D

3Dアート作品や3Dモデルデータも扱っています。最近は専らAIを利用した作品が多いです。 ※ BOOTHにて各種販売も行なっております。 https://lit.link/catappart3d

メンバーシップに加入する

3Dモデルや写実的なAI画像の実戦テクニックやノウハウをアップしていきます。

  • ベーシックプラン

    ¥1,000 / 月
    初月無料

マガジン

  • ブログ

    Catapp-Art3Dのブログです。

  • Linux の記事

    Catapp-Art3D の Linux の記事をまとめました。

  • AI画像生成入門

    Catapp-Art3D の入門者向けの記事をまとめています。

  • AI生成画像作品

    Catapp-Art3D の作品をまとめています。

  • Blender + Stable Diffusion

    Catapp-Art3D の Blender + Stable Diffusion 記事をまとめたものです。

最近の記事

  • 固定された記事

AI画像生成&修正テクニック

はじめにこの note では、筆者が(写実的な)3DやAI画像作品を製作する時に利用している手法やテクニックを紹介していきます。 AI系ソフトウェアの設定やインストール、最新情報は、ネット上に溢れるようになったので、より作品製作時の実践的な内容や工夫に特化したいと思います。 生成画像や画像加工等のウェブサービスを利用せずに、ローカル環境の(オープン)ソフトウェア を利用します。ローカル環境を利用する事で、理不尽な制限や制約に縛られず作業に集中する事ができます。 ※ と

    • 【初心者向け】最近のローカル日本語LLM【ローカル万歳】

      はじめにOllama Open WebUIやLM Studioのローカルで簡単に利用できる最近の実用的な日本語対応のLLMを紹介しようと思います。※ Python言語を利用してアクセスするのではなく、「モデルのダウンロードとGUIソフトウェアの設定」で実行できるものです Open WebUIの詳しい導入方法は下記事で紹介しています。 公式レポジトリはこちら Qwen 2.5中国アリババ社のLLMです。以前からありましたが、企業向けのみに公開されていたモデルです。最近バ

      • 最近こんなのばっかりですね。 CNNニュースの要約をGeminiに頼んだだけなのですが。ローカルで実行できるオープンソースAIは本当に重要になりそうです。

        • 【bash】LLMを利用したオリジナルコマンド【Linux】

          はじめにLLMはWebインターフェースで利用する事が一般的ですが、ローカルLLMをシェルと組み合わせて利用するとさらに便利になります。 もちろん開発者や技術者であれば、Python言語で直接利用する方法もありますが、ollamaを利用する事でプログラミングに精通しない人でも簡単なコマンドを作る事ができます。 インストールは、Windowsの場合は「OllamaSetup.exe」実行、Linuxの場合は「curl -fsSL https://ollama.com/inst

        • 固定された記事

        AI画像生成&修正テクニック

        • 【初心者向け】最近のローカル日本語LLM【ローカル万歳】

        • 最近こんなのばっかりですね。 CNNニュースの要約をGeminiに頼んだだけなのですが。ローカルで実行できるオープンソースAIは本当に重要になりそうです。

        • 【bash】LLMを利用したオリジナルコマンド【Linux】

        マガジン

        • ブログ
          74本
        • Linux の記事
          15本
        • AI生成画像作品
          22本
        • AI画像生成入門
          48本
        • Blender + Stable Diffusion
          16本

        メンバー特典記事

          【bash】LLMを利用したオリジナルコマンド【Linux】

          はじめにLLMはWebインターフェースで利用する事が一般的ですが、ローカルLLMをシェルと組み合わせて利用するとさらに便利になります。 もちろん開発者や技術者であれば、Python言語で直接利用する方法もありますが、ollamaを利用する事でプログラミングに精通しない人でも簡単なコマンドを作る事ができます。 インストールは、Windowsの場合は「OllamaSetup.exe」実行、Linuxの場合は「curl -fsSL https://ollama.com/inst

          【bash】LLMを利用したオリジナルコマンド【Linux】

          【Flux.1】Flux.1時代のローカルAI画像生成③【SD1.5】

          下記事のつづきです。 はじめにFlux.1の最大の弱点は遅い・重いなので、今回もSD1.5を利用した工夫を紹介したいと思います。 Flux.1でもControlNet環境が整いつつありますが、現実問題としてミドルスペックPCでのローカル生成はまだ実用的ではありません。そこで、SD1.5のControlNetを利用した後にFlux.1をimg2img利用します。 高層ビルの画像を生成Blenderで構図を作る この「陰影ラフ画」の光情報と、「深度マップ」を利用してAI

          【Flux.1】Flux.1時代のローカルAI画像生成③【SD1.5】

          【Flux.1】Flux.1時代のローカルAI画像生成【SD1.5】

          はじめにFlux.1のカスタムモデルやLoRAも種類が増えてきましたが、ローカルPCでFlux.1の画像生成を行う最大の問題が「遅い・重たい」です。 SD1.5やSDXLであれば数秒〜長くても数十秒で生成が終わりますが、Flux.1の場合は1分程度(RTX 3060)必要になります。スタイルを調整するためのNegativeプロンプトを利用するだけで数倍必要になり、LoRAやControlNetを含める毎に、さらに数割増しになっていきます。ローカルPCでの利用は厳しいものがあ

          【Flux.1】Flux.1時代のローカルAI画像生成【SD1.5】

          【NF4】Flux.1をローカルで動かした話③【かなり軽くなった】

          はじめにFlux.1-devモデルを軽量化したモデルが利用できるので試してみました。 準備「flux1-dev-bnb-nf4.safetensors」モデルをダウンロードして、ComfyUIの「Unet」フォルダではなく「Checkpoints」フォルダへ保存します。 たぶんNF4は「Non-Float 4-bit Quantization」の略なんでしょう。つまりぶつ切り量子化したモデルです。 ComfyUIで利用するには、カスタムノードの導入が必要です。 C:c

          【NF4】Flux.1をローカルで動かした話③【かなり軽くなった】

          【ローカルLLM】Ollama Open WebUI 完全解説【初級向け】

          【追記:2024年8月31日】Apache Tikaの導入方法を追記しました。日本語PDFのRAG利用に強くなります。 はじめに本記事は、ローカルパソコン環境でLLM(Large Language Model)を利用できるGUIフロントエンド (Ollama) Open WebUI のインストール方法や使い方を、LLMローカル利用が初めての方を想定して丁寧に解説します。 ※ 画像生成AIと同じで、ローカルでAIを動作させるには、ゲーミングPCクラスのパソコンが必要になりま

          【ローカルLLM】Ollama Open WebUI 完全解説【初級向け】

          【ローカル】OllamaとComfyUIで高性能写真アップスケーラを作る【StableDiffusion】

          想定する読者すべてローカル&無料ソフトウェアを利用したい人 オリジナルに忠実なアップスケーラを ComfyUI で作りたい人 ComfyUI をローカルへインストール済み Ollama をローカルへインストール済み ※ ComfyUI の json ファイルダウンロードのみを有料欄に記載しています。ノード情報は画像としてすべて無料公開しています。 ※ ComfyUI や Ollama インストール方法の詳細は下記記事に記載しています。 はじめにローカルにインストー

          【ローカル】OllamaとComfyUIで高性能写真アップスケーラを作る【StableDiffusion】

        記事

          【Krita】プロンプトAI画像生成に疲れたあなたへ【ai-diffusion】

          Kritaプラグインの「Krita-ai-diffusion」を利用すれば、ラフ画からリアルタイム生成する事ができます。プロンプトに頼らず、漠然としたイメージから画像を生成できます。 ラフ画と言えば元絵の作成が大変のように聞こえますが、実際はただのノイズのランダム生成です。 キャンバスに適当に色を塗って、「1girl」だけで画像を生成します。良さげな絵が出てくるまで、ノイズというラフ画をひたすら書き足していくやり方です。 ※ オープンソース・ペイントソフトKrita本体

          【Krita】プロンプトAI画像生成に疲れたあなたへ【ai-diffusion】

          【日本語LLM】Cyberagnet/Mistral-Nemo-Japanese-Instructを使ってみた話【ローカル】

          はじめにMistral-NeMoは、NvidiaとフランスのスタートアップMistral AIが共同開発した、最新のAIモデルです。12Bパラメータと128kトークンを備えているので、多言語対応ローカルLLMでは期待の星のひとつです。 最近、日本語InstructチューニングモデルがCyberagentによって公開されたので試してみました。 CyberagentのHuggingfaceページはこちら GGUF変換してくださったものはこちら(※ このモデルを利用します)

          【日本語LLM】Cyberagnet/Mistral-Nemo-Japanese-Instructを使ってみた話【ローカル】

          【Flux.1】Flux.1時代のローカルAI画像生成③【SD1.5】

          下記事のつづきです。 はじめにFlux.1の最大の弱点は遅い・重いなので、今回もSD1.5を利用した工夫を紹介したいと思います。 Flux.1でもControlNet環境が整いつつありますが、現実問題としてミドルスペックPCでのローカル生成はまだ実用的ではありません。そこで、SD1.5のControlNetを利用した後にFlux.1をimg2img利用します。 高層ビルの画像を生成Blenderで構図を作る この「陰影ラフ画」の光情報と、「深度マップ」を利用してAI

          【Flux.1】Flux.1時代のローカルAI画像生成③【SD1.5】

          【Linux】いつのまにかWindowsのリモートデスクトップが優秀になっている話

          はじめにリモートデスクトップ(Remote Desktop)とは、ネットワークを介して別の場所にあるWindowsコンピュータにリモートで接続して、そのコンピュータをまるで目の前にあるかのように操作できる機能です。サーバー側の機能はWindowsのProfessionalエディション以上で利用できます。※ Homeエディションでは基本的に利用できません リモートデスクトップを利用する場合、通常はレンタルサーバーや会社or自宅のパソコンを遠隔操作する用途だと思いますが、この記

          【Linux】いつのまにかWindowsのリモートデスクトップが優秀になっている話

          【Flux.1】Flux.1時代のローカルAI画像生成②【SD1.5】

          下記事のつづきです。 ※ 自動化としてComfyUIを利用していますが、webUIでも手作業で同じことが可能です。 ローカルFlux.1の場合、fp8版やnf4版等の軽量版を利用するのが現実的な選択ですが、この軽量版を利用すると、(dev版であれば)最上位のPro版と比べて全体的な構図は遜色なくても、拡大すると生成解像度に見合った解像感でない事が多いです。 前回のやり方だと、768x1024のFlux.1で生成した画像をそのままSD1.5のimg2imgを利用したアップ

          【Flux.1】Flux.1時代のローカルAI画像生成②【SD1.5】

          Flux.1は意地でも日本JK=アニメにしたいらしい

          しかし、非アニメを生成できる能力もちゃんとあります。 ※ 下記手法で生成したものです。アジア人顔を生成するSD1.5モデルをFlux.1生成後に適用しているので似たような顔になってます。 以下、関連する【PR】です。

          Flux.1は意地でも日本JK=アニメにしたいらしい

          【Flux.1】SD1.5→FLUX1→SD1.5【SD1.5】

          先にSD1.5で生成した画像に対して、構図文脈を正しく扱えるFlux.1で修正した後に再度SD1.5で仕上げるという試みです。今回はインタラクティブに修正できるwebUI forgeを利用しました。 戦略は、背景や手はFlux.1にまかせて、主オブジェクトはコントロールしやすいSD1.5を利用します。 Flux.1のプロンプトは、VLM(llava-llama3)を利用して新たに生成しています。さすがFlux.1です。カーテンや窓枠などの背景コンテキストの破綻がほとんどあ

          【Flux.1】SD1.5→FLUX1→SD1.5【SD1.5】

          【Flux.1】みんなのフォトギャラリーに挑戦する②【SD1.5】

          下記事の手法で作成したものです。 プロンプトは「居酒屋のサラリーマン」、「3人のガール」を元に、LLM(Llama3-Elyza)に「〜を元にして画像生成用のプロンプトを作成して」としたものです。

          【Flux.1】みんなのフォトギャラリーに挑戦する②【SD1.5】

          【llava-llama3】みんなのギャラリー用の説明とキーワードを生成する【ローカルLLM】

          みんなのギャラリーに登録するには、検索用の説明とキーワードを作成する必要がある事を知りました。典型的なLLM活躍の場所ですね。 ChatGPTでもできますが、大量に行うとすぐに制限に達してしまいます。 この手の「あまり正確でなくても良いが大量に処理する用途」は、ローカルLLMが大活躍する一つです。 ※ Open WebUIのセットアップの詳細は下記事で紹介しています。 まず、モデルをVLMである「llava-llama3」に変更して、「画像を説明して」と入力します。

          【llava-llama3】みんなのギャラリー用の説明とキーワードを生成する【ローカルLLM】

          【Flux.1】みんなのフォトギャラリーに挑戦する【SD1.5】

          下記事の手法で作成したものです。

          【Flux.1】みんなのフォトギャラリーに挑戦する【SD1.5】

          【Flux.1】Flux.1時代のローカルAI画像生成【SD1.5】

          はじめにFlux.1のカスタムモデルやLoRAも種類が増えてきましたが、ローカルPCでFlux.1の画像生成を行う最大の問題が「遅い・重たい」です。 SD1.5やSDXLであれば数秒〜長くても数十秒で生成が終わりますが、Flux.1の場合は1分程度(RTX 3060)必要になります。スタイルを調整するためのNegativeプロンプトを利用するだけで数倍必要になり、LoRAやControlNetを含める毎に、さらに数割増しになっていきます。ローカルPCでの利用は厳しいものがあ

          【Flux.1】Flux.1時代のローカルAI画像生成【SD1.5】

          【Mutated】Flux.1(dev)で手だけを修正する【Fingers】

          表題そのままです。指に強いFlux.1対応Stable Diffusion webUI forgeのインペイントを利用して、手だけを修正します。 ComfyUIで試行錯誤した時はあまり上手くいきませんでしたが、forgeだとすんなりできました。(全てではありませんが)ControlNetを利用するよりも上手くいくケースが多いように思います。 【PR】

          【Mutated】Flux.1(dev)で手だけを修正する【Fingers】