最近の記事

お絵かき素人のAI生成画をトレス・模写 100日チャレンジを終えて

 10月19日から始めた、画像を下絵にトレース100日訓練というチャンレジをやっていたのですが、なんとか無事に2月5日に終えることができました。正月休みで飛んだり、たまに忙しくてできなかった日もあったりしましたが、基本的に自分が画像生成AIで生成したAI画像を模写するという方式で、毎日1時間から2時間程度を使って、100日を終えることができました。  こういうのって、勢いそのままに反省記を付けておかないと、二度と書かなくなってしまうと思うので、なんとなく終えた勢いでまとめてみ

    • お絵かき素人がAI生成画をトレス・模写して、さらにAI生成画にする50日

       この記事では、10月19日からXへの個人投稿として開始した「#画像を下絵にトレース100日訓練」という、過去に自分でStable Diffusionなどで生成した画像を、トレスや模写の対象として、もっと自分の思う通りに絵をコントロールできないかという試みを紹介します。また、最初のトレスから、段々と手法を変えていったプロセスも紹介します。  この記事は、生成AI Advent Calendar 2023の12月6日の記事です。 ■トンチキ絵でも描けば理想に近づけるのでは?

      • AnimateDiffにComfyUI環境でのControlNetを適応する

         この記事は、「AnimateDiffをComfyUI環境で実現する。簡単ショートムービーを作る」に続く、KosinkadinkさんのComfyUI-AnimateDiff-Evolved(AnimateDiff for ComfyUI)を使った、AnimateDiffを使ったショートムービー制作のやり方の紹介です。今回は、ControlNetを使うやり方を紹介します。ControlNetと組み合わせることで、制御できることの幅が一気に広がります。  AnimateDiff

        • AnimateDiffをComfyUI環境で実現する。簡単ショートムービーを作る

           この記事では、画像生成AIのComfyUIの環境を利用して、2秒のショートムービーを作るAnimateDiffのローカルPCへの導入の仕方を紹介します。  9月頭にリリースされたComfyUI用の環境では、A1111版移植が抱えていたバグが様々に改善されており、色味の退色現象や、75トークン限界の解消といった品質を下げてしまう要因だったものが解決されています。しかも、ControlNetにも対応し、狙った通りのムービーが以前より作りやすくなっています。  ただ、Comf

        • お絵かき素人のAI生成画をトレス・模写 100日チャレンジを終えて

        • お絵かき素人がAI生成画をトレス・模写して、さらにAI生成画にする50日

        • AnimateDiffにComfyUI環境でのControlNetを適応する

        • AnimateDiffをComfyUI環境で実現する。簡単ショートムービーを作る

          Stable Diffusionを使ってVRoid動画をアニメ風動画に変える

          この記事では、VRoidから、Stable Diffusionを使ってのアニメ風動画の作り方の解説をします。いずれこの方法は、いろいろなソフトに搭載され、もっと簡素な方法になってくるとは思うのですが。今日現在(2023年5月7日)時点でのやり方です。目標とするのは下記のような動画の生成です。(センシティブ設定を受けているので、Youtubeのリンクも貼っておきます) しばらく前から、Stable Diffusionを使って、Gif画像での生成を試されている方がいて、やってみ

          Stable Diffusionを使ってVRoid動画をアニメ風動画に変える

          Stable Diffusion WebUIを使ってDepth画像を作成して立体視を楽しむ

          (この記事は画像生成AI Advent Calendar 2022に投稿するために書きました)    この記事では、AUTOMATIC1111さんのStable Diffusion WebUI を使って、生成した画像から、Depth画像を作成して、Looking Glass Portraitや、Meta Quest 2にデータを持っていき、立体視で楽しむための方法を説明します。 (なぜか、Twitterからことごとくセンシティブ判定食らってますが、センシティブな画像は含まれて

          Stable Diffusion WebUIを使ってDepth画像を作成して立体視を楽しむ

          MMDモデルをUE4に持ってきて表情を付けたりする方法

          このページではMMDモデルをUnityを経由してVRM化して、UE4向けプラグインのVRM4Uで扱えるデータにして、UE4で扱える状態にする方法を簡易的に説明します。 すでにMMDをVRM化する手順は、Unityで完成されており、その仕組を利用してUE4でも扱えるVRMデータを作るという流れです。 ちなみに著者はUnityまるで詳しくないのですが、変換する作業ぐらいはそれほどつまらずに理解できました。 その上で、UE4上で、表情をつけたり、髪の毛を風で揺らしたりするところま

          MMDモデルをUE4に持ってきて表情を付けたりする方法