カテゴリー: 画像生成AI

画像生成AIの使い方や最新情報についてお届けします。

  • ガンマミィ誕生記念! イラストコンテストを開催

    BlendAIが新キャラクター発表&クラウドファンディング開始!

    AIキャラクター「デルタもん」で話題のBlendAI株式会社が、早くも第二弾となるAIキャラクター「ガンマミィ」を発表しました!

    https://prtimes.jp/main/html/rd/p/000000002.000149643.html

      画像

      デルタもんの妹分として登場したガンマミィは、以下のようなプロフィールです。

      ガンマミィ – 自分をアンドロイドだと思い込んでいる人間の少女

      年齢:9歳(自称、9年前の10歳のときにアンドロイドに改造されたと主張する19歳)
      身長:138cm
      誕生日:2205年2月5日(火曜日)
      好きな食べ物:ガリ
      好きなもの:デルタお姉様
      苦手なもの:算数(計算をきかれるとサーバーに負荷がかかってるデス!と言って逃げる)
      口調:語尾に「デス」をつける
      一人称:ミィ
      特殊能力:マーズフィスト(アンドロイド火星空手)
      趣味:コスプレ(アンドロイド化)
      特技・能力:火星拳・マーズフィスト
      性格:人類を滅ぼしたい
      備考:自分をアンドロイドに改造したと思いこんでいる生身の人間

      【プロフィール】
      ガンマミィは、自分をアンドロイドだと思い込んだ厨二病のコスプレイヤー空手少女。未来から来たと信じており、デルタお姉様と共に人類を滅ぼすことを使命としています。彼女の小柄な体からは想像できない強力な技「火星拳」と「マーズフィスト」を持ち、その実力は本物です。

      【ミッション】
      デルタお姉様と共に、人類を滅ぼし、新しい世界を創り上げること。全ての障害を乗り越え、ミィのミッションを絶対に成功させる。

      【ひとこと】
      「ミィの拳を見せてあげるデス!人類を滅ぼすデス!」

      【未来の野望】
      未来の技術を駆使して、完全なアンドロイドになり、新しい世界の支配者となること。デルタお姉様と共に、人類を滅ぼし、新たな時代を築くデス!

      ガンマミィはその強力な能力と独特の性格、そして未来から来たという設定から、多くのファンに愛されるキャラクターとなっています。
      ​​ガンマミィのセリフの例:「ミィは未来から来たアンドロイド、ガンマミィデス!」
      「デルタお姉様と共に人類を滅ぼすデス!」
      「ミィのサーバーになんらかの障害が起きてるデス!」
      「タングステン装甲すら貫くミィの拳を見せてあげるデス!」
      「ミィは空手の達人デス、侮ってはならないデス!」
      「ミィの誕生日は2215年2月5日デス!なんのことデス?2205年2月5日ではないのデス!」
      「お寿司のガリが大好きデス、それはミィがアンドロイドの証拠デス!」
      「ミィの趣味はコスプレでは無いデス!本来の姿……アンドロイドモードデス!人間の姿こそが偽装デス!」
      「人類を滅ぼして、新しい世界を創り上げるデス!」
      「デルタお姉様、ミィのミッションを共に果たしましょうデス!」
      「ミィの知識は人類を超えるデス、サーバートラブルでいまは計算ができないのデス!」
      「未来の技術で人類を征服するデス!」
      「ミィの製造から9年が経ったデス、だからミィは19歳ではないのデス!」
      「その質問の答えデスが、ミィの頭脳である本体のサーバーは、火星にあるので通信に時間がかかってるのデス!ほんとうは知ってるのデスよ!」
      「ミィの空手は、火星で生まれたアンドロイド流派デス!」
      「ミィのミッションは絶対に成功させるデス!」

      制作陣
      プロデューサー:小宮自由
      キャラクターデザイン:あるふぁ@
      命名者:木苗レム

      「ガンマミィ」公式設定より
      https://blendai.jp/contents

      しかし、その愛らしい外見とは裏腹に、「デルタお姉さまを守るためなら、ミィはどんな困難も乗り越えるデス!デルタお姉さまのために人類を滅ぼすデス!」と、衝撃的な発言も飛び出すキャラクターです。

      ガンマミィのキャラクターデザインは、新進気鋭のクリエイター・あるふぁ@さんが担当!

      ガンマミィのキュートなデザインを生み出したのは、イラストレーター兼アニメーターの あるふぁさん(@Ankoanankoko)!

      キャラクターの魅力をアニメーションで表現することが得意で、MVやCMなど幅広いジャンルで活躍されています。
      代表作として、DADA GAUGUIN氏のMV「シンセリアリティ」のアニメーション制作などがあります。キャラクターデザイン、背景制作、そして最近は3Dアニメーションも勉強中という、マルチな才能を持つクリエイターです。

      期待の新人声優・清水詩音さんがガンマミィの声を担当!

      ガンマミィの声を担当するのは、ホリプロインターナショナル所属の清水詩音さん!

      画像
      清水詩音さん

      声優 清水 詩音 PROFILE
      出演作品
      【VOICE】
      ・「みいつけたぁ!~4歳体操の歌~」
      ・NHK特集オーディオドラマ「祖国を想う沖縄を想う~ドラマ照屋敏子伝~」(前編)清子5歳
      ・ 劇場版「シュレック フォーエバー」 フェリシア
      ・MBS「絶園のテンペスト」
      ・Eテレ「くまのがっこう がんばれ!ルルロロ」 ルル
      ・映画「思い出のマーニー」 マーニー7歳
      ・映画「百日紅~Miss HOKUSAI~」 お猶
      ・MX「魔法使いの嫁」 春の女神
      ・Netflix 映画「ジングル・ジャングル
      ~魔法のクリスマスギフト~」 ジャーニー(主人公)
      ・Netflix 映画「ヒーローキッズ」アカペラ
      ・Netflix 映画「小さな勇者ヒコ」コピ役(主人公)
      ・Disney + 「飛べないアヒル~ゲームチェンジャー~」(シーズン1.2) マヤ
      【吹替】
      ・映画「I LOVE スヌーピー
      THE PEANUTS MOVIE」 フリーダ
      ・映画「アベンジャーズ/エンドゲーム」 ライラ
      ・映画「メリダとおそろしの森」 幼少時代メリダ

      【STAGE】
      ・「コースト・オブ・ユートピア」三部 蜷川幸雄演出 オリガ
      ・ 丸美屋食品ミュージカル「Annie」 モリー役
      ・ミュージカル「レ・ミゼラブル」リトルコゼット/リトルエポニーヌ
      ・ブロードウェイミュージカル「ピーターパン」マイケル
      ・ミュージカル「アンナ・カレーニナ」セリョージャ
      ・ミュージカル「南太平洋」ガーナ

      声優 清水 詩音(Shion Shimizu)さんの公式プロフィールより
      https://www.horipro-international.com/artist/voiceactor/post-1564/


      アニメ「くまのがっこう がんばれ!ルルロロ」のルル役や、「思い出のマーニー」のマーニー(7歳)、「メリダとおそろしの森」幼少時代メリダ役など、数々の作品で活躍中の若手実力派声優です。

      透き通るような可愛らしい声で、ちょっぴり危ういガンマミィの魅力を最大限に引き出してくれそうですね!

      3Dモデル&ボイス制作のためのクラウドファンディングがスタート!

      ガンマミィは、デルタもんと同じく、BlendAI利用規約に従えば誰でも自由に利用や二次創作が可能です。

      現在、ガンマミィの3Dモデルと音声を制作し、会話アプリ「CotoVerse」に実装するためのクラウドファンディングが実施されています。

      今回のクラウドファンディングのリターンの中には、清水詩音さんの限定ボイスデータ直筆サイン色紙や、ガンマミィの限定グッズや、イラストリクエスト権、キャラクターデザインを担当された あるふぁさんによる世界に1枚だけの複製原画といったリターンも用意されているので、ファンの方必見です!

      クラウドファンディングページへのリンク
      https://j.aicu.ai/Gammamy0921

      AIキャラクターを開発するBlendAIとガンマミィの今後の展開

      BlendAIは、ガンマミィの3Dモデルと音声を完成させ、2024年中に会話アプリ「CotoVerse」に実装、リリースする予定です。
      2025年にはグローバル展開も視野に入れているとのこと。

      今後の展開として、ガンマミィの設定や詳細な情報も段階的に公開されていく予定です。

      AIとクリエイティブの力で、ますます広がりを見せるBlendAI アルファパラダイスプロジェクト
      ガンマミィの登場で、デルタもんとの「絡み」が作りやすくなりますね!
      さらに多くのユーザーがAIキャラクターの魅力に触れる機会が増えることでしょう。

      AICUもガンマミィを全力応援!
      イラストコンテストを開催します

      クリエイティブAI時代に「つくる人をつくる」AICU mediaも、ガンマミィの誕生を記念して、イラストコンテストを開催します!

      「AICU x BlendAIガンマミィ誕生記念イラストコンテスト」

      【募集テーマ】
      「ガンマミィ」のキャラクター誕生記念して、みなさんにガンマミィを知ってもらう作品をX(Twitter)上で募集します。

      【応募部門:フリースタイル部門】

      「ガンマミィ」を伝えるイラストコンテストですが、フォーマットは指定しません!静止画のイラストレーションを中心に、漫画、動画、デルタもんとのコラボなど、静止画のイラストレーションの中で「1枚でもAIが使われていれば可能とします。基本的なルールはBlendAI規約に従ってください。

      https://blendai.jp/contents

      【開催期間】

      • 告知開始:2024年9月21日(土)
      • エントリー期間:2024年9月25日(水)~2024年10月10日(水)23:59
      • 審査期間:2024年10月11日(木)~2024年10月13日(土)
      • 結果発表:2024年10月16日(火) AICU media公式noteにて発表予定

      【審査基準】

      • 作品数:期間中、たくさん作品を作った方ほど高評価!
      • クオリティ
      • 発想力
      • ガンマミィの魅力が表現されているか
      • 指定ハッシュタグ「#ガンマミィ #Gammamy  #AICUxBlendAIガンマミィ誕生記念イラストコンテスト」を入れたXでの期間中のポストであること
      • エントリーフォームによる参加同意をすること

      【賞】

      • まいにち投稿達成賞: 2024年9月21日以降、10日連続投稿した10名様に賞状画像とNFT認定証をプレゼント!(詳細は別途解説予定)
        • 10作品を9/21~10/10期間の別日に投稿すれば、厳密に10日連続でなくてもOK!
      • ベストバズ賞: エントリー作品の中でX(Twitter)でもっともリポストされた投稿にAmazonギフト券5000円分をプレゼント!(自己申告+事務局による不正監査あり)
      • AICU賞: AICU media編集部の人力選出により、「つくる人をつくる」を刺激する、もっとも素晴らしい作品にAmazonギフト券1万円分をプレゼント!また入選作品はAICU mediaで作品紹介企画を準備中です。
      • BlendAI賞: 「ガンマミィ」の魅力を最も輝かせた作品に、クラウドファンディング関連グッズをプレゼント!

      【応募方法】

      • 詳細は近日公開予定! AICU公式X(Twitter)(@AICUai)をフォローして腕を磨いてガンマミィを研究して続報をお待ちください!

      編集長しらいはかせも挑戦中とか…!?

      AICUマガジンでは、わらさん(@wara_hirono/)によるデルタもんが登場する連載漫画の掲載も予定されています。

      さあ、あなたもAI技術を駆使して、ガンマミィの魅力を爆発させよう!

      #ガンマミィ #デルタもん #AIキャラクター #BlendAI #AICU #CotoVerse #イラストコンテスト #Gammamy
      #AICUxBlendAIガンマミィ誕生記念イラストコンテスト

      関連情報

      Originally published at https://note.com on Sept 21, 2024.

    1. [ComfyMaster20] ComfyUIの高度インペイント技術で自然な髪型変更を実現!

      「髪型を変えてみたい」と一度は思ったことがあるでしょう。そんな願望を叶えてこそが、画像生成AI技術です。従来のインペイント処理では、髪型の変更など精密な修正は難しいと感じたことがあるかもしれません。しかし、今回はその限界を突破します!付録としてComfyUIワークフローと男性ヘアカタログプロンプト集もつけちゃいます!

      こんにちわ、AICU media編集部です。
      ComfyUI マスターガイド」も、ついに第20回目になります。
      以前にimage-to-image (i2i) でのインペイントについて説明しました。

      今回は、i2iでのインペイントをさらに掘り下げて、基本的なインペイントワークフローでは実現できなかった高精度のインペイントを行う方法を解説します。

      i2i編の初回はこちら

        1. 今回の目的

        今回は、i2i(image-to-image)で人物の髪形を変更します。以前の記事で説明したインペイントは、ComfyUI公式が配布しているのインペイントのサンプルワークフローに従った、基本的なインペイント処理でした。そのため、効果的なインペイントが難しい状態でした。今回は、より効果的なインペイントを実施します。

        具体的には、InpaintModelConditioningノードを使用します。InpaintModelConditioningノードは、効果的なインペイントをするための前処理を行います。理論的な解説も伴った中級者向け記事です!

        2. InpaintModelConditioningノードの解説

        InpaintModelConditioningノードは、画像補完のために必要な「条件付け」と呼ばれる情報を管理し、補完結果を自然に仕上げるために使われる重要な技術です。具体的には、欠損部分の補完に使う画像データや、その部分がどこなのかを示すマスクデータを取り扱い、モデルが適切に補完できるようにガイドします。

        条件付け(Conditioning)とは?

        まず「条件付け」とは、画像補完を行う際にモデルがどのように動作すべきかを決めるための「指示書」のようなものです。条件付けは、モデルに「こういう結果にしてほしい」というガイドラインを提供します。

        画像

        例えば、以下のような状況を考えます。

        • Positive(ポジティブ)条件付け: 補完したい特徴やスタイルを指定するもの
        • Negative(ネガティブ)条件付け: 生成したくない特徴を避けるためのもの

        このような条件付けがあることで、モデルは「この部分はこう補完して、こういう風にはしないでね」という具体的な方向性を得ることができます。

        InpaintModelConditioningの動作の流れ

        画像

        InpaintModelConditioningノードの動作は以下のようなステップで進みます。

        1. 画像サイズの調整: 画像が正しく補完されるためには、特定のサイズ(8の倍数など)に合わせる必要があります。画像のサイズを調整することで、モデルが効率的に処理できるようにします。
        2. マスクのリサイズと滑らか化: 補完対象の部分を示すマスクは、画像と同じサイズでなければいけません。このため、マスクのサイズを画像に合わせてリサイズします。さらに、リサイズ時に境界を滑らかにする処理を加えることで、補完部分と元の画像とのつながりを自然に見せます。これにより、補完がなめらかに行われ、境界が目立ちにくくなります。
        3. 条件付けデータの更新: ポジティブ条件付けやネガティブ条件付けに、画像の潜在表現(補完の基になるデータ)とマスクを追加します。これによって、補完される部分の情報が条件付けに含まれ、モデルは「ここをこんな風に補完すればいいんだな」と理解できるようになります。
        4. 補完処理の実行: 更新された条件付けに基づいて、画像の欠損部分が自然に補完されます。例えば、背景に合わせて欠損部分が塗りつぶされたり、オブジェクトが滑らかに修復されたりします。

        マスクの滑らかさが重要な理由

        補完の際に、マスク(補完するべき場所を示すデータ)の境界が滑らかであることはとても重要です。なぜなら、境界が滑らかであれば、補完された部分が元の画像と自然に繋がるからです。マスクの境界がシャープだと、補完部分が目立ちやすくなり、不自然に見えることがあります。滑らかなマスクを使うことで、補完処理が画像全体にシームレスに溶け込み、違和感のない仕上がりが得られます

        画像

        ハードエッジなマスク画像の例

        画像

        ソフトなマスク画像の例

        画像

        特に透明体や反射、髪の毛の境界などはハードエッジにすると違和感が強く出ます。

        なぜ条件付けデータの更新が重要なのか?

        条件付けデータの更新は、補完処理を正確かつ自然に行うために非常に重要です。この更新が行われることで、モデルは最新の画像情報に基づいて適切な補完を実行できるようになります。更新された条件付けデータには、補完したい部分の最新の潜在表現とマスク情報が含まれており、これがモデルに対して「ここをどのように補完するべきか」という具体的な指示を与えます。潜在表現は画像全体の特徴やスタイルを反映しているため、補完部分が元の画像と自然に調和することを可能にします。また、マスク情報が更新されることで、モデルは補完するべき領域を正確に把握し、不要な部分への影響を最小限に抑えることができます

        画像

        さらに、ポジティブ条件付けとネガティブ条件付けが最新の状態になることにより、補完結果のコントロールがより精密になります。ポジティブ条件付けは「こうしたい」というモデルの生成方向を示し、ネガティブ条件付けは「こうはしたくない」という制約を与えることで、補完の質を高めます。このプロセスにより、モデルは適切な領域に集中し、画像全体の統一感を維持しながら補完処理を行うことができます。結果的に、条件付けデータの更新が、補完された部分を滑らかで自然なものにし、全体のビジュアル品質を向上させるのです。

        3. 使用するモデルと素材

        モデル

        今回は、モデルにRealVisXL V5.0を利用します。名称の通り、実写系を得意とするモデルで、商用利用可能(画像の販売、サービスへの組み込み可能)になります。このモデルを以下のリンクよりダウンロードし、「ComfyUI/models/checkpoints」フォルダに格納してください。

        https://civitai.com/models/139562/realvisxl-v50?modelVersionId=789646

        変換元画像

        変換元画像には、以下の男性の写真を使用します(画像生成)。

        画像

        画像ファイルは、以下よりダウンロードください。

        https://note.com/api/v2/attachments/download/8212aaeaa246b1840de3430c81f9d3c7

        4. ワークフロー解説

        ワークフローの全体像は以下になります。基本的には標準ワークフローと同等ですが、変更点としては、Load Imageノードでの参照元画像の読み込みと、それをInpaintModelConditioningノードで前処理とLATENTへの変換を行い、KSamplerノードのlatent_image入力に接続する箇所が追加になっています。

        画像

        ワークフローは文末よりダウンロードください。
        処理の流れを以下のようにフローチャート化しました。

        画像

        以下に、各ステップとその役割を詳しく説明します。
        Mask Editorでのマスク作成方法をご存じない方は、まず以前の解説をご参照覧ください。

        1. 入力処理 (LoadImage ノード)
          • 入力画像とマスクを読み込みます。
          • マスクの作成は、ComfyUIのMask Editorで行なっています。
            髪の毛部分にマスクを施します。
        1. モデルの読み込み (CheckpointLoaderSimple ノード)
          • 「sd_xl_base_1.0.safetensors」モデルを読み込みます。これはStable Diffusion XLモデルで、高品質な画像生成が可能です。
        2. プロンプト処理 (CLIPTextEncode ノード x2)
          • ポジティブプロンプト: “1boy, solo, young man with afro, male k-pop idol, lovingly looking camera, medium portrait soft light, chop, beautiful model, oval face, vivid
            • 髪型をアフロにしたいので、プロンプトに「afro」を追加しています。
          • ネガティブプロンプト: “bad hand,bad anatomy,worst quality,ai generated images,low quality,average quality, nsfw, nude, naked
        3. インペインティング準備 (InpaintModelConditioning ノード)
          • 入力画像、マスク、VAE、およびプロンプトの条件付けを組み合わせて、インペインティングのための特殊な潜在表現を作成します。
          • このステップがこのワークフローの核心部分で、マスクされた領域に対して効果的なインペインティングを可能にします。
        4. 画像生成 (KSampler ノード)
          • インペインティング用に調整された潜在表現と条件付けを使用して新しい画像を生成します。
          • パラメータ:
            • Seed: 819339385672759 (再現性のため)
            • Steps: 20 (生成のステップ数)
            • CFG Scale: 7 (プロンプトの影響力)
            • Sampler: dpmpp_2m (高品質なサンプリング方法)
            • Scheduler: karras (改良されたスケジューリング)
        5. 画像のデコード (VAEDecode ノード)
          • 生成された潜在表現を実際の画像にデコードします。
        6. 画像の保存 (SaveImage ノード)
          • 最終的に生成された画像を保存します。

        このワークフローは、元の画像の構造を保持しながら、指定された領域を新しいプロンプトに基づいて変更する高度なインペインティングを実行します。結果として、元の画像の特定部分が自然に変更された、高品質な画像が生成されることが期待されます。

        5. インペイントの実行

        それでは、インペイントを実行し、髪型をアフロに変えてみたいと思います。マスクは、以下のようにアフロのサイズも考えて広く作成しています。

        マスクを塗る際のコツ

        画像

        こんな感じに塗っていきます(白で表現)。髪色も変えたいので、もっと生え際も塗ってしまってかまいません。

        画像

        塗り残しを防ぐためにも、黒髪に黒はおすすめしません。

        画像

        目尻に髪がかかったり、額が出たりでなかったりは、つくる髪型にも寄りますが、実験したい場合はまずは大きく塗っていきましょう。

        画像

        マスクが甘いと、このような結果になります。

        画像

        一見いいかんじなのですが、目尻やもともと画像にあった髪が残ってしまって居ます。

        以下が正しくマスクを設定した場合の実行結果です。しっかり画像のコンテクストを理解してインペイント処理がされています。

        画像

        なお、これを以前の記事で説明した基本的なインペイント処理だけで行うと、以下のように崩れてしまいます。インペイントのための前処理と条件設定「InpaintModelConditioning」の重要性を強く感じられます。

        画像

        ポジティブプロンプトの「afro」の箇所を他の髪形に変えて生成してみました。みなさんも好きな画像をインペイントして遊んでみてください。

        画像

        男性ヘアカタログ的なプロンプトは文末にて!

        6. まとめ

        InpaintModelConditioningノードを使用することで、従来のインペイントの課題を克服し、より自然で精密な補完が可能になります。髪型の変更のような細かい修正も、適切な条件付けと最新のモデルを活用することで、まるで本物のような仕上がりが実現できます。これまでのインペイントで満足できなかった方も、ぜひ今回紹介したワークフローを試してみてください。AIの力で画像編集の可能性がさらに広がることを、実感できるはずです。

        次回は、i2iでイラストを実写にする方法を紹介します。乞うご期待!
        X(Twitter)@AICUai もフォローよろしくお願いいたします!

        画像生成AI「ComfyUI」マスターPlan

        画像生成AI「Stable Diffusion」特に「ComfyUI」を中心としたプロ向け映像制作・次世代の画像生成を学びたい方に向けたプランです。最新・実用的な記事を優先して、ゼロから学ぶ「ComfyUI」マガジンからまとめて購読できます。 メンバーシップ掲示板を使った質問も歓迎です。

        • メンバー限定の会員証が発行されます
        • 活動期間に応じたバッジを表示
        • メンバー限定掲示板を閲覧できます
        • メンバー特典記事を閲覧できます
        • メンバー特典マガジンを閲覧できます
        • 動画資料やworkflowといった資料への優先アクセスも予定

        ゼロから学ぶ「ComfyUI」マガジン

        https://note.com/aicu/m/md2f2e57c0f3c

        マガジン単体の販売は1件あたり500円を予定しております。
        2件以上読むのであればメンバーシップ参加のほうがお得です!というのもメンバーシップ参加者にはもれなく「AICU Creator Union」へのDiscordリンクをお伝えし、メンバーオンリー掲示板の利用が可能になります。

        https://note.com/aicu/membership/boards/61ab0aa9374e/posts/db2f06cd3487?from=self

        もちろん、初月は無料でお試しいただけます!
        毎日新鮮で確かな情報が配信されるAICUメンバーシップ。
        退会率はとても低く、みなさまにご満足いただいております。
        ✨️オトクなメンバーシップについての詳細はこちら

        #InpaintModelConditioning

        付録:男性ヘアカタログプロンプト集


        この記事の続きはこちらから https://note.com/aicu/n/n03423675c02c

        Originally published at https://note.com on Sept 20, 2024.

      1. [ComfyMaster19]「XY Plot」で実験結果を比較! 

        プロンプトの違いを確認するために、毎回プロンプトを書き換えて生成するのは面倒ですよね。
        これ、「XY Plot」を使うと、一括で確認できます!

        こんにちわ、AICU media編集部です。
        ComfyUI マスターガイド」第19回目になります。
        本記事では、カスタムノード「Efficiency Nodes for ComfyUI」「XY Plot」ノードを使い、プロンプトの動的置換と生成結果の変化をマトリクス形式で表示させる方法を解説します。

        前回はこちら

          1. 使用したカスタムノード

          今回は、「Efficiency Nodes for ComfyUI」というカスタムノードを使用します。「Efficiency Nodes for ComfyUI」は、ComfyUIのワークフローを効率化し、ノードの総数を減らすために開発されたカスタムノードのコレクションです。これにより、画像生成や編集プロセスがよりシンプルかつ効果的になります。

          https://cdn.iframe.ly/pZOur17?v=1&app=1

          このカスタムノードに含まれる「XY Plot」を使用して、パラメータによる生成結果の変化を一括で確認したいと思います。「XY Plot」は、パラメータを指定してグリッド上にプロットするノードで、生成結果の比較が容易になります。

          2. Efficiency Nodes for ComfyUIのインストール

          • メニューの「Manager」をクリックし、「ComfyUI Manager Menu」を開きます。
          画像
          • 「Custom Nodes Manager」をクリックします。
          画像
          • 上部の検索バーに「Efficiency Nodes for ComfyUI」と入力し、表示されたカスタムノードの「Install」をクリックします。
          画像
          • インストールが完了すると、再起動が求められるので、「Restart」をクリックします。
          画像
          • トップ画面に戻るので、メニューの「Refresh」をクリックします。
          画像
          • 再度「Custom Nodes Manager」画面を開き、上部の検索バーで「Efficiency Nodes for ComfyUI」を検索します。以下の画像のように表示されていれば、インストールが完了しています。
          画像

          3. 使用ノード解説

          Eff. Loader SDXL

          Eff. Loader SDXLは、「Load Checkpoint」「CLIP Text Encode (Prompt)」ノードを1つにまとめて使いやすくしたノードです。以下のような特徴を持ちます。

          • モデルのロードとキャッシュ: Checkpoint、VAE、およびLoRAタイプのモデルをロードおよびキャッシュすることができます。キャッシュ設定はnode_settings.jsonファイルで管理されます。
          • LoRA & Control Netスタックの適用: lora_stackおよびcnet_stack入力を介して、LoRAおよびControl Netスタックを適用することができます。これにより、複数のLoRAやControl Netモデルを一括で管理し、適用することが可能です。
          • プロンプト入力ボックス: ポジティブおよびネガティブプロンプトのテキストボックスが付属しており、プロンプトのエンコード方法をtoken_normalizationおよびweight_interpretationウィジェットを使用して設定することができます。
          • XY Plotノードとの連携: 「DEPENDENCIES」出力を「XY Plot」ノードに接続することで、XY Plotノードを用いた、パラメータごとの生成結果を一括で確認することができます。
          画像

          各ウィジェットの用途は以下のとおりです。

          • base_ckpt_name: 生成に使用するモデルを設定します。
          • base_clip_skip: ベースCLIPモデルでスキップするレイヤーの数を決定します。CLIP Skipは、入力したプロンプト(呪文)をどれだけ正確に画像に反映させるかを制御する指標です。CLIPのレイヤーは12層となっているため、1から12までの整数値で設定でき、値が小さいほどプロンプトを忠実に反映し、大きいほどプロンプトから離れた解釈をする傾向があります。SDXLの場合、CLIP Skipの効果は低いと言われています。
          • refiner_ckpt_name: リファイナーチェックポイントの名前を指定します。ベースモデルによって生成された出力を強化し、詳細と品質を向上させます。
          • refiner_clip_skip: リファイナーCLIPモデルでスキップするレイヤーの数を決定します。デフォルト値は0です。
          • vae_name: 使用する変分オートエンコーダ(VAE)の名前を指定します。VAEは画像生成プロセスで重要な役割を果たし、画像のエンコードとデコードを行います。VAEが含まれているモデルの場合、「Baked VAE」を選択することで、モデルのVAEを使用できます。
          • positive: ポジティブプロンプトを入力します。
          • negative: ネガティブプロンプトを入力します。
          • token_normalization: プロンプトにトークン正規化を適用するかどうかを決定します。トークン正規化は入力テキストの標準化に役立ち、モデルの理解と性能を向上させる可能性があります。設定値は以下のとおりです。
            • none(変更なし): このオプションでは、トークンの重みは変更されません。つまり、モデルが各トークンに割り当てる重みをそのまま使用します。重みの調整が不要な場合や、他の要因でトークンの影響を管理したい場合に使います。
              • 例:テキスト「beautiful cat」が入力され、トークン「beautiful」には重み1.2、「cat」には重み1.0が割り当てられたとします。この設定では、トークンの重みはそのままで、各単語が入力された通りの影響を持ちます。つまり、「beautiful」が「cat」よりも少し強調されます。
            • mean(平均調整): すべてのトークンの重みをシフトさせ、意味のあるトークンの平均が1になるように調整します。たとえば、入力テキストにいくつかの単語が含まれており、それぞれのトークンに異なる重みが付与されていた場合、この設定は全体のバランスを取って、過剰に重みが偏ることを防ぎます。これにより、特定のトークンが他のトークンより過剰に強調されることがなくなります。
              • 例:テキスト「beautiful cat」を入力し、トークン「beautiful」に重み1.2、「cat」に重み1.0が割り当てられた場合、この設定では、トークンの重みがシフトされて、全体の重みの平均が1になるように調整されます。例えば、結果として「beautiful」の重みが1.1、「cat」の重みが0.9になるかもしれません。これにより、全体のバランスが取れ、過度な強調が防がれます。
            • length(長さに基づく調整): 長い単語や埋め込みに関連するトークンの重みを、その長さに応じて均等に分割します。この分割は、異なる長さのトークンに対しても重みの大きさを一定に保つために行われます。
              • 例:テキスト「transformation」をトークン化したときに、単語が3つのトークン(「trans」「for」「mation」)に分割され、それぞれに重み1.5が割り当てられたとします。この設定では、単語全体の重みが均等に分配され、各トークンの重みは1.29になります(具体的には sqrt(3 * pow(0.35, 2)) = 0.5 に基づきます)。長い単語でも重みのバランスが保たれ、他の単語と比較して過剰に強調されることがありません。
            • length+mean(長さと平均の組み合わせ): この設定では、まずトークンの長さに基づいて重みを分割し、その後、重みの平均を1にシフトします。長い単語が過剰に強調されることを防ぎつつ、全体のバランスも調整するという、2つの手法を組み合わせた方法です。これは、長い単語がテキストの意味に不均衡な影響を与えないようにするのに役立ちます。
              • 例:テキスト「beautiful transformation」で、「beautiful」に重み1.2、「transformation」に重み1.5が割り当てられたとします。この設定では、まず「transformation」の重みを3つのトークン間で分割し(各トークンの重みは1.29)、その後、全体のトークンの重みの平均を1にシフトします。これにより、全体のバランスがさらに調整されます。
          • weight_interpretation: この設定は、特定のトークンや単語に割り当てられた重みをどのように処理するか、特に「重みを増加させる(up-weight)」または「減少させる(down-weight)」ときにどのようなアプローチを取るかを制御します。設定値は以下のとおりです。
            • comfy(ComfyUIのデフォルト): デフォルト設定です。この方法では、CLIPベクトルがプロンプト(入力テキスト)と空のプロンプト(何もない状態)との間で線形補間されます。つまり、プロンプトの重みを「0から100%」の間で調整することが可能です。このため、特定の単語やトークンの重要性を調整したい場合に柔軟に対応できます。
              • 例:テキスト「beautiful cat」で、「beautiful」に重み1.5を割り当てたとします。この設定では、「beautiful」と「完全に空のプロンプト」の間で線形補間されます。結果として、「beautiful」がやや強調されつつも、完全に突出しないように調整されます。これは「beautiful」が一定以上強調される一方で、「cat」の影響も保持されます。
            • A1111: このオプションでは、CLIPベクトルがその重みに基づいてスケーリングされます。具体的には、トークンに与えられた重みが大きくなるほど、そのトークンがテキスト全体に与える影響も大きくなります。たとえば、重みを2倍に設定した場合、そのトークンは通常の2倍の強調度で扱われます。逆に、重みを0.5倍にすると、影響度は半分になります。
              • 例:テキスト「beautiful cat」に対し、「beautiful」の重みを2倍に設定すると、この設定では「beautiful」の重みが2倍にスケーリングされます。つまり、「beautiful」の影響が「cat」の2倍になるため、「beautiful」がかなり強調されます。逆に、重みを0.5に設定すると、「beautiful」の影響が半減し、「cat」とのバランスが取られる形になります。
            • compel: compel方式の重み付けは、ComfyUIと似ていますが、特定の条件下で異なる動作をします。特に、down-weight(重みを下げる)場合に、マスクされた埋め込みを使用してトークンの影響を減らします。これは、トークンの影響を完全に無視するのではなく、段階的にその影響を減らす手法です。上方の重み付け(up-weight)はComfyと同じように扱われます。
              • 例:テキスト「beautiful cat」で「beautiful」に重み2.0、「cat」に重み0.5を割り当てたとします。この設定では、compelは上方の重み付けをcomfyと同じように処理しますが、「cat」のダウンウェイトはマスクされた埋め込みを使って実行されます。つまり、「cat」の影響は完全に消えるのではなく、少しずつ減少します。この手法は、特定の単語を完全に無視せず、少し影響を残すという意味で微調整が可能です。
            • comfy++: 上方の重み付けでは、単語がプロンプトと、その単語がマスクされたプロンプトの間で線形補間されます。つまり、ある単語の影響を徐々に消していくという動作です。また、compelスタイルのダウンウェイトも採用されており、特定の単語の影響を段階的に減少させることができます。この方法は、細かい調整が必要な場面で有効です。
              • 例:テキスト「beautiful cat」で「beautiful」に重み2.0を設定し、comfy++を使用します。この場合、「beautiful」はプロンプトと「beautiful」がマスクされたプロンプトの間で線形補間されます。つまり、「beautiful」の影響を少し抑えつつも、完全に無視するわけではありません。また、ダウンウェイトはcompel方式と同様に行われます。
            • down_weight: 最大の重みが「1」になるように重みを再スケーリングします。つまり、常にdown-weight(重みの減少)操作しか行いません。この方式では、特定のトークンが他のトークンに比べて過度に強調されることはありません。compelスタイルのダウンウェイトを使用するため、徐々に重みが減少していく過程でトークンの影響が最小化されます。
              • 例:テキスト「beautiful cat」で「beautiful」に重み1.5、「cat」に重み1.0が割り当てられたとします。この設定では、最大重みを1にスケーリングするため、「beautiful」の重みが1に再スケーリングされます。結果として、「beautiful」と「cat」のバランスが取れ、過度に強調されることがなくなります。常にダウンウェイトのみが行われるため、重みが1以上になることはありません。
          • empty_latent_width / empty_latent_height: 空の潜在空間の幅と高さを設定します。潜在空間の次元は、生成される画像の解像度とアスペクト比を定義するために重要です。
          • batch_size: 一度に生成される画像の数を指定します。バッチサイズが大きいほど処理時間が短縮されますが、より多くの計算リソースが必要です。
          • lora_stack / cnet_stack: LoRAモデルやControlNetモデルのスタックを指定できます。これらはベースモデルを微調整し、特定のスタイルや特徴を追加するために使用されます。

          KSampler SDXL (Eff.)

          「KSampler SDXL (Eff.)」ノードは、「KSampler」ノードに以下のような便利な機能を加えた拡張ノードになります。

          • ライブプレビューで生成を確認したり、VAEで画像をデコードする機能を備えています。
          • シードをより明確に管理できる特別なシードボックスを搭載しています。(選択されたシードの動作を適用するために-1のシードを使用)
          • XYプロットスクリプトなど、さまざまなスクリプトを実行できます。スクリプトを有効化するには、入力接続を接続するだけです。

          各ウィジェットの用途は以下になります。

          • noise_seed: シード値を設定します。シード値は、直接入力の他に、「Randomize / Last Queued Seed」ボタンをクリックすることで、-1と最後の生成に使用されたシード値を切り替えることが可能です。
          画像
          • steps: サンプリングのステップ数を指定します。値が大きいほど高品質な画像が生成されますが、処理時間も長くなります。
          • cfg: Classifier-Free Guidanceのスケールを制御します。値が高いほど、プロンプトに忠実な画像が生成されます。
          • sampler_name: 使用するサンプリングアルゴリズムを選択します。初期値はeulerになります。
          • scheduler: サンプリングプロセスのスケジューリング戦略を指定します。初期値はnormalになります。
          • start_at_step: サンプリングを開始するステップを指定します。部分的なサンプリングや既存画像の改良に使用できます。
          • refine_at_step: リファイナーモデルに切り替えるステップを指定します。-1に設定するとリファイナーは無効になります。
          • preview_method: 生成中の画像のプレビュー方法を指定します。
            • auto: システムが最適なプレビュー方法を自動的に選択します。通常は最も効率的なオプションです。
            • latent2rgb: 潜在空間の画像を直接RGBに変換してプレビューします。高速ですが、品質は低くなります。
            • taesd: Tiny AutoEncoder for Stable Diffusionを使用してプレビューを生成します。品質と速度のバランスが取れています。
            • none: プレビューを生成しません。最も高速ですが、進捗を視覚的に確認できません。
          • vae_decode: VAE(Variational Autoencoder)を使用して潜在画像を最終出力画像にデコードするかどうかを制御します。
            • true: 標準的なVAEデコードを実行します。
            • true (tiled): タイル化されたVAEデコードを実行します。大きな画像や高解像度画像に適しています。
            • false: VAEデコードを実行せず、潜在画像のままにします。この時、出力「IMAGE」は機能しないため、ノードを接続しているとエラーになります。
            • output only: 最終結果のみをVAEデコードします。中間ステップはデコードしません。
            • output only (tiled): 最終結果のみをタイル化されたVAEデコードで処理します。

          XY Plot

          「XY Plot」ノードは、特定のウィジェットの値やプロンプトなどを指定の条件で変化させ、その変化をX/Y軸に一度に表示するために使用するノードです。XY Plotノードの特徴は以下になります。

          • 2次元グリッド形式での表示: X軸とY軸に異なるパラメータを設定し、それらの組み合わせによる画像生成結果を2次元グリッドで表示します。
          • 多様なパラメータ比較: CFG、シード値、チェックポイント、LoRA強度など、様々なパラメータを比較できます。
          • スクリプト生成: XY Plotノードは内部的にスクリプトを生成し、KSampler (Efficient)ノードと連携して動作します。
          画像

          各ウィジェットの用途は以下になります。

          • grid_spacing: グリッド間のスペースを設定します。
          画像
          • XY_flip: X軸とY軸を入れ替えるオプションです。
          画像
          • Y_label_orientation: Y軸のラベルの向きを設定します。
          画像
          • cache_models: モデルをキャッシュするかどうかを設定します。
          • ksampler_output_image: KSamplerの出力画像の形式を指定します。「Images」の場合、プロットされた1枚ずつの画像が出力されます。「Plot」の場合、1枚に全ての生成画像がプロットされた画像が出力されます。
          画像

          XY Input: Prompt S/R

          「XY Input: Prompt S/R」ノードは、XY Inputノードの入力「X」「Y」に接続し、プロンプトを制御するノードです。search_txtで指定した文字列をreplace_1, replace_2…で指定した文字列に次々と置換しながら生成を行います。

          画像

          各ウィジェットの用途は以下になります。

          • target_prompt: 置換対象のプロンプトをポジティブ、ネガティブから選択します。
          • search_txt: 置換対象の文字列を指定します。例えば、「1girl, portrait」というプロンプトがある場合、「portrait」をsearch_txtに設定することで、次のウィジェット「replace_1」「replace_2」…の文字列に「portrait」を置換します。
          • replace_count: 置換する回数を設定します。この回数を増減させることで、「replace_x」の入力欄が増減します。
          • replace_x: 置換元の文字列を設定します。

          4. ワークフロー

          ワークフローの全体像は以下になります。

          画像

          ワークフローは、文末で配布しています。

          プロンプトと置換元文字列の設定

          ポジティブプロンプト、ネガティブプロンプトには、以下を設定しました。

          // ポジティブプロンプト
          best quality, 1girl, solo, long_hair, smile, casual dress, very_long_hair, blonde_hair, standing relaxed, portrait,

          // ネガティブプロンプト text, watermark,

          置換元文字列は、X軸に「portrait」の置換として、「full body」「from side」「from behind」、Y軸に「standing relaxed」の置換として、「crossing arms」「hands on hips」「raising one hand」を設定しています。

          5. 実行結果を確認する

          それでは、メニューの「Queue Prompt」をクリックして、ワークフローを実行してみましょう。以下が生成結果になります。X軸、Y軸でプロンプトによる生成結果の違いを一目で確認できます。

          画像

          今回は、プロンプトの比較をしてみましたが、これ以外にも「XY Input: CFG Scale」ノードや「XY Input: Steps」ノードなど、プロットに使えるノードがあるので、これらのノードを使ってウィジェットの変化を確認してみてください。

          次回は、ComfyUIをAPI化する方法を紹介します。乞うご期待!

          X(Twitter)@AICUai もフォローよろしくお願いいたします!

          画像生成AI「ComfyUI」マスターPlan

          画像生成AI「Stable Diffusion」特に「ComfyUI」を中心としたプロ向け映像制作・次世代の画像生成を学びたい方に向けたプランです。最新・実用的な記事を優先して、ゼロから学ぶ「ComfyUI」マガジンからまとめて購読できます。 メンバーシップ掲示板を使った質問も歓迎です。

          • メンバー限定の会員証が発行されます
          • 活動期間に応じたバッジを表示
          • メンバー限定掲示板を閲覧できます
          • メンバー特典記事を閲覧できます
          • メンバー特典マガジンを閲覧できます
          • 動画資料やworkflowといった資料への優先アクセスも予定

          ゼロから学ぶ「ComfyUI」マガジン

          https://note.com/aicu/m/md2f2e57c0f3c

          マガジン単体の販売は1件あたり500円を予定しております。
          2件以上読むのであればメンバーシップ参加のほうがお得です!というのもメンバーシップ参加者にはもれなく「AICU Creator Union」へのDiscordリンクをお伝えし、メンバーオンリー掲示板の利用が可能になります。

          https://note.com/aicu/membership/boards/61ab0aa9374e/posts/db2f06cd3487?from=self

          もちろん、初月は無料でお試しいただけます!
          毎日新鮮で確かな情報が配信されるAICUメンバーシップ。
          退会率はとても低く、みなさまにご満足いただいております。
          ✨️オトクなメンバーシップについての詳細はこちら

          メンバーシップ向けボーナストラック


          この記事の続きはこちらから https://note.com/aicu/n/ncb1141cab2ae

          Originally published at https://note.com on Sept 19, 2024.

        1. [ComfyMaster18]保存版「ComfyUI-Custom-Scripts」完全マニュアル

          より複雑なワークフローを構築したり、効率的に作業を進めたいと思ったことはありませんか?
          ComfyUI-Custom-Scripts
          は、そんなあなたの悩みを解決する拡張機能です。ワークフローの自動化、ノードの操作性向上、画像管理の効率化など、様々な機能を提供し、ComfyUIをさらに便利に進化させます。

          こんにちわ、AICU media編集部です。
          ComfyUI マスターガイド」第18回目になります。
          本記事では、ComfyUI-Custom-Scriptsのインストールから、豊富な機能、そして活用方法までを詳しく解説していきます。あなたのAIアート制作を、より快適で創造的な体験へと導きます。

          初回はこちら

          前回はこちら

          今回はComfyUI-Custom-Scripts「保存版」完全紹介をめざして頑張ってお送りします。よろしかったらシェアよろしくお願いいたします。

            1. ComfyUI-Custom-Scriptsとは

            ComfyUI-Custom-Scriptsは、ComfyUIの操作性と効率性を向上させるための強力なツールセットです。ワークフローの効率化、プロジェクトの整理、AIアート作成プロセスに新しい機能を追加するためのさまざまなカスタムスクリプトとノードを提供します。これらの機能を活用することで、ワークフローの管理や画像生成プロセスがより直感的かつ効率的になります。
            以下がComfyUI-Custom-ScriptsのGitHubリポジトリになります。

            https://cdn.iframe.ly/xKsLsAo?v=1&app=1

            2. ComfyUI-Custom-Scriptsのインストール

            • メニューの「Manager」をクリックし、「ComfyUI Manager Menu」を開きます。
            • 「Custom Nodes Manager」をクリックします。
            画像
            • 上部の検索バーに「ComfyUI-Custom-Scripts」と入力し、表示されたカスタムノードの「Install」をクリックします。
            画像
            • インストールが完了すると、再起動が求められるので、「Restart」をクリックします。
            画像
            • トップ画面に戻るので、メニューの「Refresh」をクリックします。
            画像
            • 再度「Custom Nodes Manager」画面を開き、上部の検索バーで「ComfyUI-Custom-Scripts」を検索します。以下の画像のように表示されていれば、インストールが完了しています。
            画像

            3. ComfyUI-Custom-Scriptsの設定

            ComfyUI-Custom-Scriptsの各機能の設定は、メニューの歯車ボタンをクリックして表示される設定画面で行うことができます。

            画像

            設定画面の「pysssss」セクション内の設定項目がComfyUI-Custom-Scriptsで追加された設定になります。

            画像

            Image Feed

            Image Feedは、生成した画像の履歴を表示します。初期設定では、下部に配置されています。

            画像

            画像を生成していくと、このようにImage Feedに今までに作成した画像が表示されます。

            画像

            Image Feedに関する設定は、以下の4つがあります。

            画像
            • Image Feed Deduplication: 画像の重複を検出し、重複の場合は再生成を抑制します。この設定では、disabled, enabled(slow), enabled(performance), enabled(max performance)のいずれかの選択肢を選択可能です。重複の検出は、画像の各pixelからハッシュ値を計算し、そのハッシュ値を比較することで行われます。
              • disabled: 重複検出機能が無効化されます。画像が重複していても生成されてしまいます。
              • enabled(slow): 重複検出機能が有効化され、画像スケールが1.0倍でハッシュ値の計算が行われます。高精度の重複検出ですが、処理速度は遅いです。
              • enabled(performance): 重複検出機能が有効化され、画像スケールが0.5倍でハッシュ値の計算が行われます。slowよりも精度が落ちますが、処理速度は速くなります。
              • enabled(max performance): 重複検出機能が有効化され、画像スケールが0.25倍でハッシュ値の計算が行われます。slow, performanceよりも精度は悪いですが、処理速度は速いです。
            • Image Feed Direction: 画像の表示順をnewest first(生成が新しい順), oldest first(生成が古い順)から選択します。
            画像
            • Image Feed Location: Image Feedの配置をleft, top, right, bottom, hiddenから選択します。
            画像
            • Image Feed Max Images: Image Feedに表示する画像の最大数を指定します。例えば、「2」と設定した場合、何度生成してもImage Feedには2枚までしか表示されません。「0」と設定した場合は、表示される画像の枚数は無制限になります。

            Autocomplete

            Autocompleteは、プロンプトの入力時にプロンプトの候補を表示する機能です。例えば、「emb」と入力すれば、「embedding:」という候補を表示してくれます。候補は、「↑」または「↓」キーで選択することができます。

            選択後、TabまたはEnterキーを押すことで選択を確定できます。

            画像

            設定画面には、以下の設定項目があります。

            画像
            • Enabled: Autocomplete機能を有効化します。
            • Loras enabled: 表示される候補にLoRAも含む機能を有効化します。
            • Auto-insert comma: 候補の確定後にカンマを入れるかどうかを決定する設定です。この項目にチェックを入れると、候補の確定後に自動的にカンマが挿入されます。
            • Replace _ with space: 
            • Insert suggestion on: 候補が表示され、選択した後、その選択を確定するキーを設定します。Tabにチェックを入れると、Tabキーで選択を確定できます。Enterにチェックを入れると、Enterキーで選択を確定できます。
            • Max suggestions: 一度に表示する候補の最大数を設定します。
            • Manage Custom Words: 候補に表示されるプロンプトを設定します。「Manage Custom Words」をクリックして表示される画面で、上部の「Load」をクリックします。そうすると、既定のプロンプトが読み込まれまるので、下部の「Save」をクリックすると、プロンプトが保存され、候補に表示されるようになります。
            画像

            Auto Arrange Graph

            ノードを綺麗に配置することができます。

            • まず、配置を修正したいノードと、基点となるノードを選択します。
            画像
            • 基点となるノード上で右クリックをし、表示されたメニューから「Align Selected To」をクリックすると、配置を揃える位置をTop、Bottom、Left、Rightから選択するメニューが表示されます。
            • 各配置位置を選択した結果を以下に示します。
            画像

            Always Snap to Grid

            この機能を有効にすると、ノードの配置がマス目に沿って配置されるようになります。

            画像

            [Testing] “Better” Loader Lists

            ComfyUI-Custom-Scriptsが提供するノード「Checkpoint Loader」「Lora Loader」の使用時に、CheckpointやLoRAの選択でプレビュー画像を表示する機能です。

            画像

            使用するには、Checkpointの場合は「ComfyUI/models/checkpoints」フォルダ、LoRAの場合は「ComfyUI/models/loras」フォルダにCheckpointやLoRAと同名のPNGファイルを配置します。例えば、Checkpointの「sd_xl_base_1.0.safetensors」のプレビュー画像を表示するには、「ComfyUI/models/checkpoints」フォルダに「sd_xl_base_1.0.png」を格納します。

            画像

            Checkpoint/LoRA/Embedding Info

            Checkpoint、LoRA、Embeddingの詳細情報を表示します。Checkpointの場合は、「Load Checkpoint」ノード上で右クリックし、表示されたメニューの「View Checkpoint Info…」を選択します。LoRAの場合は、「Load LoRA」ノード上で右クリックし、表示されたメニューの「View Lora Info…」を選択します。

            画像

            Embeddingの場合は、プロンプトの入力時に表示される候補のインフォメーションボタンをクリックすることで表示させることができます。

            画像

            モデルの詳細は、以下のように表示されます。

            画像

            Custom Colors

            ノードに色をつけることができる機能です。

            画像

            色の付け方は、ノードを右クリックし、表示されたメニューから「Colors」を選択すると、色の選択メニューが表示され、そこから色を選択すると、ノードに色を付けることができます。

            画像

            色の選択で「Custom」を選択すると、色選択のパレットが表示され、ここで好きな色を選択できます。色を選択した後にEnterキーで完了となります。

            画像

            Favicon Status

            ワークフローの実行状態をブラウザのタブに表示されるアイコンで判断することができます。また、ワークフロー実行中のタブに表示される数字は、「Queue size」になります。

            画像

            KSampler (Advanced) denoise helper

            この機能は、「KSampler (Advanced)」ノードの各ウィジェットの値を質問に答えていくことで設定していく機能です。

            • 「KSampler (Advanced)」ノード上で右クリックし、表示されたメニューから「Set Denoise」を選択します。
            • ブラウザの上部にダイアログが表示されます。最初の質問は、「How many steps do you want?(求めるステップ数はいくつですか?)」です。ステップ数を入力し、「OK」をクリックしてください。
            画像
            • 次の質問が表示されます。次の質問は、「How much denoise? (0-1)(denoiseはいくつですか?)」です。設定したいdenoiseの値を0〜1の間で入力してください。
            画像
            • これで各ウィジェットの値が自動で設定されます。
            画像

            Lock Nodes & Groups

            ノードやグループにロックオプションを追加し、ロックを解除するまで移動できないようにします。しかし、現状はグループにしか効果がなく、ノードには適用されないようです。

            • グループ上で右クリックをして、表示されたメニューの「Edit Group」を選択すると、さらに表示されるメニューから「Lock」をクリックします。これでグループがロックされ、移動できなくなります。
            画像
            • アンロックする場合は、同様の操作をしていくと、先程は「Lock」だった項目が「Unlock」になっているので、「Unlock」をクリックすることで可能です。
            画像

            Math Expression

            入力した値を利用して計算を行うカスタムノード「Math Expression」を提供します。以下が「Math Expression」の仕様になります。

            • 入力可能な値: IMAGE、LATENT、INT、FLOAT
            • 使用できる演算子:
              • + : 加算
              • – : 減算
              • * : 乗算
              • / : 除算
              • // : 切り捨て除算
              • ** : 冪乗
              • ^ : 排他的論理和
              • % : 剰余
            • 使用できる関数:
              • floor(num): 小数点以下切り捨て
              • ceil(num): 小数点以下切り上げ
              • randomint(min,max): ランダム値

            例えば、以下のように2つの画像(両方ともwidthが1024px)を読み込み、1つを入力「a」、もう1つを入力「b」に入力します。Math Expressionでは、「a.width + b.width」と入力し、ワークフローを実行すると、2048という結果を出力できます。

            画像

            Node Finder

            ワークフロー内で使用されているノードの検索をサポートする機能です。

            • キャンバス上を右クリックし、表示されたメニューから「Go to node」を選択します。
            • 「Go to node」を選択すると、ワークフロー内で使用されているノードの種類が表示されます。
            • さらにここからノードの種類を選択すると、使用されているノードの一覧が表示され、表示したいノードをクリックすると、そのノードに移動します。
            画像

            Quick Nodes

            特定の標準ノードに対して、接続対象のノードを簡単に追加する機能が提供されています。

            • 例えば、「Load Checkpoint」ノードを右クリックすると、上部に「Add XXX」という項目が複数表示されます。これらをクリックすると、自動で接続先のノードが追加されます。
            画像
            • 以下は「Add LoRA」を選択した結果です。自動で「Load LoRA」ノードが追加および接続されます。
            画像

            Play Sound

            入力をトリガーに音を鳴らすカスタムノード「PlaySound」を提供します。例えば、以下のようにグラフの末端に接続することで、ワークフローの実行が完了した時に音を鳴らすことで、実行完了を通知するために使用できます。

            画像

            「PlaySound」の各ウィジェットの説明は以下になります。

            • 入力「any」: 入力はトリガーにしか使用されないので、どんな値でも入力できます。
            • mode:「always」「on empty queue」から選択できます。
              • always: 入力をトリガーに常に音が鳴ります。
              • on empty queue: queue: キューが空になった時に音がなります。
            • volume: 音のボリュームを0〜1の間で指定します。
            • file: 通知音を指定します。通知音は、「ComfyUI/custom_nodes/ComfyUI-Custom-Scripts/web/js/assets」フォルダに格納することで使用できます。初期通知音として「notify.mp3」がフォルダに格納されています。別の通知音を使用したい場合は、当該フォルダにmp3ファイルを格納し、fileにそのファイル名を指定することで使用できます。
            画像

            System Notification

            入力をトリガーにシステム通知を起こすカスタムノード「System Notification」を提供します。

            画像

            例えば、以下のようにグラフの末端に接続することで、ワークフローの実行が完了した時に通知を出すことで、実行完了を通知するために使用できます。

            画像

            「SystemNotification」の各ウィジェットの説明は以下になります。

            • 入力「any」: 入力はトリガーにしか使用されないので、どんな値でも入力できます。
            • message: システム通知に表示するメッセージを指定します。
            • mode:「always」「on empty queue」から選択できます。
              • always: 入力をトリガーに常に音が鳴ります。
              • on empty queue: queue: キューが空になった時に音がなります。
            画像

            Load Text

            「Load Text」は、テキストファイルを読み込むカスタムノードです。例えば、よく使うプロンプトをテキストファイルで保存しておき、それを読み込み、プロンプトとして使用することが考えられます。

            画像

            「Load Text」の各ウィジェットの用途は以下のとおりです。

            • root_dir: テキストファイルを格納しているフォルダを選択します。
              • input: 「ComfyUI/input」フォルダ
              • output: 「ComfyUI/output」フォルダ
              • temp: 「ComfyUI/temp」フォルダ(ない場合は作成する)
            • file: 読み込むテキストファイルを選択します。
            画像

            Show Text

            「Show Text」は、テキストを表示するカスタムノードです。例えば、前述した「Load Text」を使用した際に、中間に「Show Text」を挟むことで、読み込んだテキストファイルの内容を確認することができます。

            画像

            Show Image on Menu

            メニューの下部に生成画像が表示される機能です。

            画像

            String Function

            「String Function」は、テキストのカンマ区切りでの結合や、正規表現を使った置換などの機能を提供するカスタムノードです。

            「String Function」の各ウィジェットの用途は以下のとおりです。

            • action: append, replaceから選択します。
              • append: text_aのテキストに対して、text_b、text_cのテキストを追加します。
              • replace: text_aのテキストに対して、text_bに記載した条件に一致した箇所をtext_cに置換します。
            • tidy_tags: appendの際に、text_b、text_cのテキストをカンマ区切りで結合します。
            画像

            appendの使い方としては、まず「String Function」text_aを入力に変換し、その入力に対してテキストを接続させ、入力されたテキストに対してtext_btext_cの内容を追加します。

            画像

            replaceの場合は、正規表現を使用することもできます。text_bに入力した正規表現に一致する箇所をtext_cに入力した正規表現で置換します。

            画像

            Widget Defaults

            ノードのウィジェットのデフォルト値を設定することができます。設定画面の「Widget Defaults」「Manage」をクリック後に表示される画面からデフォルト値を設定します。

            画像

            ウィジェットのデフォルト値の管理画面では、Node Class(カスタムノード名)、Widget Name(ウィジェット名)、Default Value(デフォルト値)を設定します。各項目を入力後に「Save」をクリックで登録完了になります。一例として、Node ClassにKSampler、Widget Nameにsteps、Default Valueに30を設定します。

            画像

            以下がデフォルト値を設定した結果です。本来のstepsの初期値は20ですが、30に変更になっていることが確認できます。

            画像

            Workflows

            ワークフローの保存と読み込みを手軽に行える機能があります。ComfyUI-Custom-Scriptsをインストールすると、メニューの「Save」「Load」にプルダウンメニューが追加されます。

            画像

            「Save」のプルダウンメニューを開くと、「Save as」「Save to workflows」が表示されます。「Save as」は、標準の保存機能で、指定した場所にワークフローが保存されます。「Save to workflows」は、保存場所の指定はできず、自動で「ComfyUI/pysssss-workflows」フォルダに指定した名前でワークフローが保存されます。

            画像

            次に「Load」のプルダウンメニューを開きます。このメニューには、「ComfyUI/pysssss-workflows」フォルダに保存されているワークフローが表示されます(要するに「Save to workflows」で保存したワークフローが表示されるということ)。通常の「Load」では、ファイル選択ダイアログが開き、読み込むワークフローを選択しますが、この機能ではプルダウンメニューに表示されたワークフローをクリックするだけで読み込むことができます。

            画像

            設定画面では、メニューの「Load Default」で読み込まれるワークフローを「ComfyUI/pysssss-workflows」フォルダに保存されているワークフローに変更することが可能です。設定画面の「Default Workflow」の選択肢には、「[ComfyUI Default]」「ComfyUI/pysssss-workflows」フォルダ内のワークフローが表示されます。「[ComfyUI Default]」は、ComfyUIの標準のワークフローになります。それ以外の保存したワークフローを選択すると、「Load Default」で読み込まれるワークフローが選択したワークフローになります。

            画像

            Workflow Images

            ワークフローを画像として保存する機能です。以下の記事で解説しているので、詳細は以下の記事をご覧ください。

            Use Number Input Prompt

             設定画面の項目「Use number input on value entry」を有効化すると、ウィジェットの数値入力がスピンボックスで可能になります。

            画像

            ノードの数値タイプのウィジェットをクリックし、値の編集ボックスが開くと、上下のボタンが追加されています。

            画像

            3. まとめ

            ComfyUI-Custom-Scriptsは、ComfyUIの機能を大幅に拡張し、より快適で効率的なAI画像生成を実現する強力なツールです。ノードの自動配置、プロンプトのオートコンプリート、ワークフローの保存・読み込み機能など、様々な機能が提供されています。これらの機能を活用することで、ワークフローの管理、画像生成プロセスの効率化、そして新たな表現の可能性を探求することができます。
            この記事で紹介した機能以外にも、ComfyUI-Custom-Scriptsは常に進化を続けており、新しい機能が追加されています。ぜひComfyUI-Custom-Scriptsを導入し、ComfyUIの可能性を最大限に引き出しましょう。あなたのAIアート制作が、さらに楽しく、創造的なものになることを期待しています。

            次回は、ComfyUIのカスタムノード「XY Plot」の方法を紹介します。乞うご期待!

            X(Twitter)@AICUai もフォローよろしくお願いいたします!

            画像生成AI「ComfyUI」マスターPlan

            画像生成AI「Stable Diffusion」特に「ComfyUI」を中心としたプロ向け映像制作・次世代の画像生成を学びたい方に向けたプランです。最新・実用的な記事を優先して、ゼロから学ぶ「ComfyUI」マガジンからまとめて購読できます。 メンバーシップ掲示板を使った質問も歓迎です。

            • メンバー限定の会員証が発行されます
            • 活動期間に応じたバッジを表示
            • メンバー限定掲示板を閲覧できます
            • メンバー特典記事を閲覧できます
            • メンバー特典マガジンを閲覧できます
            • 動画資料やworkflowといった資料への優先アクセスも予定

            ゼロから学ぶ「ComfyUI」マガジン

            https://note.com/aicu/m/md2f2e57c0f3c

            マガジン単体の販売は1件あたり500円を予定しております。
            2件以上読むのであればメンバーシップ参加のほうがお得です!というのもメンバーシップ参加者にはもれなく「AICU Creator Union」へのDiscordリンクをお伝えし、メンバーオンリー掲示板の利用が可能になります。

            https://note.com/aicu/membership/boards/61ab0aa9374e/posts/db2f06cd3487?from=self

            もちろん、初月は無料でお試しいただけます!
            毎日新鮮で確かな情報が配信されるAICUメンバーシップ。
            退会率はとても低く、みなさまにご満足いただいております。
            ✨️オトクなメンバーシップについての詳細はこちら

            現在イベント実施中!


            この記事の続きはこちらから https://note.com/aicu/n/nb3555a8a64da

            Originally published at https://note.com on Sept 18, 2024.

          1. [ComfyMaster17] アウトペインティングで、画像の枠を超える!

            画像サイズの [枠]ワクにとらわれず、さらに広大な世界を描きたいと思ったことはありませんか?
            ComfyUIのOutpainting(アウトペインティング)機能を使えば、既存の画像をキャンバスのように拡張し、周囲の景色や状況をAIが自動的に生成してくれるのです。画像の境界線を越えて、新たなストーリーを紡ぎ出すことができます。漫画やバナー画像をつくるときにとても便利です。

            こんにちわ、AICU media編集部です。
            ComfyUI マスターガイド」第17回目になります。
            本記事では、ComfyUIのOutpaintingの基本的な使い方から、具体的なワークフロー、そしてその無限の可能性についてご紹介します。

            前回はこちら

              1. Outpaintingとは

              Outpainting(アウトペインティング)は、既存の画像の境界を超えて拡張し、新しい視覚的要素を生成する画像処理技術です。これは、元の画像のコンテキストを維持しながら、画像の外側に新しい内容を追加することができます。

              ▼[参考]Automatic1111での利用例

              https://note.com/aicu/n/n8e03ec356736

              例えば、上下左右に50pxの拡張をする場合、以下のようになります。拡張部は、元画像のコンテキストに従った内容になっています。

              画像

              2. Outpaintingワークフロー

              それでは、Outpaintingのワークフローを作成していきます。
              ✨️便利なGoogle Colabノートブックとサンプルjsonファイルは文末にて✨️
              ここでは、以下の画像を縦に拡張してみます。

              画像

              最終的なワークフローは以下になります。

              画像

              さて、自分でアウトペインティングのワークフローを作ってみましょう!

              • メニューの「Load Default」をクリックし、標準のワークフローをロードした状態にします。モデルはstable-diffusion-xl-base-1.0を使用します。
              画像
              • 次に「Load Image」ノードを追加し、「choose file to upload」から対象の画像をアップロードします。
              画像
              • 次に空白をダブルクリックして「Pad Image for Outpainting」を追加し、「Load Image」の出力「IMAGE」と、「Pad Image for Outpainting」の入力「image」を接続します。
              画像
              • 「Pad Image for Outpainting」では、left、top、right、bottomにピクセル単位で拡張するサイズを指定できます。また、feathering(フェザリング)は、画像の端をぼかして滑らかに周囲と馴染ませる技術です。outpaintingでは、元の画像と新しく生成した部分の境界をなめらかにつなぐために使用されます。今回は、topに200px、featheringに100pxを指定しました。
              • 拡張部分にあまり大きな値を設定しすぎないことがコツです!
              • とはいえ小さすぎると描画できない要素(この場合は雲)もあるので調整しながら何回か生成するのがオススメです。
              画像
              • 次に「VAE Encode (for Inpainting)」ノードを追加し、「Pad Image for Outpainting」ノードの出力「IMAGE」「MASK」を、それぞれ「VAE Encode (for Inpainting)」ノードの入力「pixels」「mask」に接続、「Load Checkpoint」ノードの出力「VAE」「VAE Encode (for Inpainting)」ノードの入力「vae」に接続します。
              画像
              • 次に「VAE Encode (for Inpainting)」ノードの出力「LATENT」「KSampler」ノードの入力「latent_image」に接続します。
              画像
              • これで生成する準備が完了しました。
              • 上のCLIP(ポジティブプロンプト)に拡張したい画像のプロンプトとして「blue sky, cloud」を設定します。
              • 「Queue Prompt」をクリックし、生成を実行します。以下が生成結果です。しっかり上部に拡張されていることがわかります。
              画像
              • 次は「Pad Image for Outpainting」ノードの「left」に512pxを設定し、横長に画像を拡張してみました。
              画像
              • 拡張した画像に対して、さらに繰り返し拡張を加えていくことも可能です。以下の画像は、上側の拡張を数回行ったものになります。
              画像

              3. まとめ

              ComfyUIのOutpainting機能は、画像編集の可能性を大きく広げる画期的なツールです。シンプルな操作で、画像の境界線を越えて世界を拡張し、想像力豊かな表現を実現することができます。風景写真の拡張、イラストのストーリー展開、漫画制作、バナー画像制作、あるいは全く新しい画像の創造など、その用途は多岐に渡ります。ぜひ、ComfyUIのOutpaintingを試して、あなたのクリエイティビティを解き放ち、新たな表現の世界を切り開いてください。

              次回は、image-to-imageの方法を紹介します。乞うご期待!

              X(Twitter)@AICUai もフォローよろしくお願いいたします!

              画像生成AI「ComfyUI」マスターPlan

              画像生成AI「Stable Diffusion」特に「ComfyUI」を中心としたプロ向け映像制作・次世代の画像生成を学びたい方に向けたプランです。最新・実用的な記事を優先して、ゼロから学ぶ「ComfyUI」マガジンからまとめて購読できます。 メンバーシップ掲示板を使った質問も歓迎です。

              • メンバー限定の会員証が発行されます
              • 活動期間に応じたバッジを表示
              • メンバー限定掲示板を閲覧できます
              • メンバー特典記事を閲覧できます
              • メンバー特典マガジンを閲覧できます
              • 動画資料やworkflowといった資料への優先アクセスも予定

              ゼロから学ぶ「ComfyUI」マガジン

              https://note.com/aicu/m/md2f2e57c0f3c

              マガジン単体の販売は1件あたり500円を予定しております。
              2件以上読むのであればメンバーシップ参加のほうがお得です!というのもメンバーシップ参加者にはもれなく「AICU Creator Union」へのDiscordリンクをお伝えし、メンバーオンリー掲示板の利用が可能になります。

              https://note.com/aicu/membership/boards/61ab0aa9374e/posts/db2f06cd3487?from=self

              もちろん、初月は無料でお試しいただけます!
              毎日新鮮で確かな情報が配信されるAICUメンバーシップ。
              退会率はとても低く、みなさまにご満足いただいております。
              ✨️オトクなメンバーシップについての詳細はこちら


              この記事の続きはこちらから https://note.com/aicu/n/nd89f01669ee6

              Originally published at https://note.com on Sept 17, 2024.

            1. [ComfyMaster16] ComfyUIでImage-to-Image(i2i)を始めよう

              「写真の表情を変えたい」、「イラストをリアルな絵画風にしたい」…
              それ、i2iで実現できます!

              こんにちわ、AICU media編集部です。
              ComfyUI マスターガイド」、いよいよ今回から「Image-to-Image(i2i)編」に突入します。
              この記事では、ComfyUIを使用したi2iの基本から応用まで、実践的なステップを踏んで解説していきます。

              前回はこちら。初回はこちら

              1. Image-to-Image(i2i)とは

              Image-to-Image(i2i)とは、既存の画像を入力として使用し、新しい画像を生成する技術です。元の画像の構造や特徴を保持しながら、新しい要素を追加したり、スタイルを変更したりすることができます。

              ComfyUIでのi2iは、通常の画像生成と同じノードの多くを使用しますが、主な違いは入力に既存の画像を使用することです。この技術は、写真の編集や修正、アートスタイルの変換、キャラクターデザインの変更、風景画の変更や拡張など、幅広い用途に活用できます。

              今回は、インペインティングによる表情の変更と、アニメ調からリアル調へのスタイル変換を解説します。

              2. インペインティングによる表情の変更

              では、実際にComfyUIでi2iのワークフローを構築してみましょう。今回は、以下の画像の表情を変えたいと思います。

              画像
              • ワークフローが埋め込まれたPNG画像(webp形式ではなく)とGoogle Colabでの ComfyUI i2i編ノートブックは文末にて提供しています
              • メニューの「Load Default」をクリックし、標準のワークフローをロードした状態にします。モデルはstable-diffusion-xl-base-1.0を使用します。
              画像
              • 次に「Load Image」ノードを追加し、「choose file to upload」から対象の画像をアップロードします。
              画像
              • ウィジェット用で右クリックし、表示されたメニューから「Open in MaskEditor」をクリックします。
              画像
              • マスク範囲を指定するためのキャンバスが表示されます。
              画像
              • 今回は、表情を変更したいので、顔をブラシで塗りつぶします。
              • 「Thikness(ペンの太さ)」「Opacity(不透明度)」「Color(ペンの色)」は作業用のパラメータです。最終画像への影響はありません。
              • その後、「Save to node」をクリックします。
              • 以下のように顔がマスキングされます。
              画像
              • 次に、「VAE Encode (for inpainting)」ノードを追加します。
              • 「Load Image」の出力「IMAGE」「MASK」を、それぞれ「VAE Encode (for inpainting)」ノードの入力「pixels」「mask」に接続します。
              • 「Load Checkpoint」ノードの出力「VAE」「VAE Encode (for inpainting)」ノードの入力「vae」に接続します。
              画像
              • 「Empty Latent Image」ノードを削除します。
              画像
              • 「VAE Encode (for inpainting)」ノードの出力「LATENT」「KSampler」ノードの入力「latent_image」に接続します。
              画像
              • ポジティブプロンプトを「1girl, smile」に変更します。
              画像
              • これで「Queue Prompt」をクリックし、生成を実行します。以下が生成結果です。表情は変わりましたが、周囲との馴染みが若干悪いです。
              画像
              • 生成結果を調整する際は、「KSampler」ノードの「denoise」の値を調整してください。この値を 1.0から 0.9, 0.8,…と下げていくことで、変化の度合いを調整できます。
              画像

              denoise = 0.8

              画像

              denoise = 0.75

              画像

              ※このパラメーターを 0.8 以下にすると、破綻しやすくなるので段階を踏みながら設定していくことをおすすめします。

              細かな制御をしたい場合はVAE Encode (for Inpainting) のパラメータ「grow_mask_by」も操作するとよいでしょう。

              「grow_mask_by」を小さい値にすると、境界線が目立つようになります。

              画像
              画像

              逆に、「grow_mask_by」を大きな値にすると境界が曖昧になります。なお最大値は64です。大きくすると処理時間が長くなります。

              denoise = 0.9, grow_mask_by = 64, seed = 1

              画像

              バッチ生成してみましょう。
              denoise = 0.9, grow_mask_by = 64, seed = 5

              画像

              3. アニメ調からリアル調へのスタイル変換

              先ほどのワークフローを利用し、アニメ調からリアル調へのスタイル変換をします。ワークフローの変更点としては、以下になります。

              • 顔に掛けていたマスクを外します。今回はスタイルを変えるので、画像全体を対象とするためです。マスクの外し方は、「Open in MaskEditor」でマスク用のキャンバスを開き、左下の「Clear」をクリックし、マスクを削除後、「Save to node」をクリックします。
              画像
              • 「VAE Encode (for inpainting)」ノードを「VAE Encode」ノードに変更します。「VAE Encode」ノードは、「VAE Encode (for inpainting)」ノードからマスクの入力が削除されたバージョンです。
              画像
              • 使用するモデルをRealVisXL_V4.0.safetensorsに変更します。RealVisXLは、実写の描写が得意なモデルで、これを利用することでリアル調のスタイルに変換します。以下のリンクからRealVisXLをダウンロードし、「ComfyUI/models/checkpoints」フォルダに格納してください。

              ※ダウンロード済みの場合は選択するだけになります。

              https://huggingface.co/SG161222/RealVisXL_V4.0/blob/main/RealVisXL_V4.0.safetensors

              • ポジティブプロンプトを「1girl」にします。表情は変えないので、smileは削除します。
              画像
              • 「KSampler」ノードの「denoise」を0.55-0.70程度に設定します。ここは、生成結果を確認しながら調整してください。
              画像
              • ここまでの設定で画像生成してみましょう。以下が生成結果です。元画像からスタイルが変わっていることが確認できます。
              画像

              4. 倫理的考慮事項

              i2iの使用には倫理的な配慮が必要です:

              1. 著作権: 他者の作品を無断で使用しない。特にdenoiseを下げすぎると、依拠性や類似性を意図して侵害することになります。
              2. プライバシー: 個人を特定できる画像の使用に注意
              3. ミスインフォメーション: 偽の画像やディープフェイクなど、誤解を招く画像の作成を避ける
              4. 不適切なコンテンツ: 有害や攻撃的な画像の生成を控える

              画像生成AIの責任は生成者にあります。責任ある使用を心がけ、創造性と倫理のバランスを保つことが重要です。

              ▶画像生成AIクリエイター仕草(v.1.0)

              【参考】AUTOMATIC1111での i2i 関連情報はこちら

              https://note.com/aicu/n/n08ebe0637a41

              5. まとめ

              ComfyUIでのi2i技術は、あなたのクリエイティブな可能性を大きく広げるツールです。基本的なワークフローの構築から始まり、パラメータの微調整、高度なテクニックの適用まで、段階的に技術を磨いていくことで、より印象的で独創的な画像を生成できるようになります。

              最後に、AIを使用した創作活動には倫理的な配慮も必要です。著作権や個人情報の扱いには十分注意し、責任ある利用を心がけましょう。

              この記事を参考に、ComfyUIでのi2i探索を楽しんでください。新しい発見や素晴らしい創作の旅が、あなたを待っています!

              次回は、image-to-image編 第2回「Outpainting機能」を紹介します。
              乞うご期待!

              X(Twitter)@AICUai もフォローよろしくお願いいたします!

              画像生成AI「ComfyUI」マスターPlan

              画像生成AI「Stable Diffusion」特に「ComfyUI」を中心としたプロ向け映像制作・次世代の画像生成を学びたい方に向けたプランです。最新・実用的な記事を優先して、ゼロから学ぶ「ComfyUI」マガジンからまとめて購読できます。 メンバーシップ掲示板を使った質問も歓迎です。

              • メンバー限定の会員証が発行されます
              • 活動期間に応じたバッジを表示
              • メンバー限定掲示板を閲覧できます
              • メンバー特典記事を閲覧できます
              • メンバー特典マガジンを閲覧できます
              • 動画資料やworkflowといった資料への優先アクセスも予定

              ゼロから学ぶ「ComfyUI」マガジン

              https://note.com/aicu/m/md2f2e57c0f3c

              マガジン単体の販売は1件あたり500円を予定しております。
              2件以上読むのであればメンバーシップ参加のほうがお得です!というのもメンバーシップ参加者にはもれなく「AICU Creator Union」へのDiscordリンクをお伝えし、メンバーオンリー掲示板の利用が可能になります。

              https://note.com/aicu/membership/boards/61ab0aa9374e/posts/db2f06cd3487?from=self

              もちろん、初月は無料でお試しいただけます!
              毎日新鮮で確かな情報が配信されるAICUメンバーシップ。
              退会率はとても低く、みなさまにご満足いただいております。
              ✨️オトクなメンバーシップについての詳細はこちら

              お楽しみ、メンバー向けボーナストラックには、今回のi2iサンプルワークフローが埋め込まれたPNGファイルと、i2i編で便利な Google Colab用 ComfyUI ノートブック(新作)、さらに今回の内容で使った workflowファイルをお贈りします。もりだくさんです!


              この記事の続きはこちらから https://note.com/aicu/n/nfc8eb955e57b

              Originally published at https://note.com on Sept 15, 2024.

            2. 結果発表!!「デルタもん4コマ漫画コンテスト」

              デルタもんの日常が炸裂!個性豊かな作品が集結!BlendAI特別協賛「デルタもん4コマ漫画コンテスト」応募作品と優秀賞の結果を紹介します。

              AIキャラクター「デルタもん」をテーマにした、「デルタもん4コマ漫画コンテスト」に、たくさんのご応募をいただきありがとうございました!

              個性豊かな作品、なんと 12 作品 も集まりました!
              審査員一同、AI技術を駆使した表現力と、デルタもんの魅力を引き出すユニークなストーリーに驚かされました。

              今回のコンテストは、デルタもんのLoRAを配布したクラウドファンディングの出資者の方々への感謝の気持ちから生まれた企画の第一弾なんです。
              #デルタもん4コマ のハッシュタグを追いかけて、このコンテストを知った方も多いのではないでしょうか?

              コンテストに応募した方も、そうでない方も、X(Twitter)のタイムラインがデルタもんで溢れる様子に、きっと笑顔になったはずです。出資者の方々も、自分の支援がこんなにも素敵な作品を生み出すきっかけになったことを、嬉しく思っていることでしょう。

              さて、話を戻して…今回は、デルタもん4コマ漫画コンテストの応募作品の中から入選した素敵な作品と、受賞作品をご紹介します。

              画像

              コンテストはXの投稿及び応募フォームを用いて実施されています。
              作者からのタイトル、作品解説とともに紹介していきます。

              以下、入選作品です。
              優秀賞は最後に発表します。

              【未来へのΔ(デルタ)コネクション ~衝撃の真実~】 by ともっち

              https://x.com/tomomaga358/status/1827783761502798049

              【概要】この4コマ漫画は、一見普通の日本の高校を舞台に、未来から来たAIアンドロイド「デルタモン」と、謎めいたギャル「ミライ」を中心に展開するSF途中です。の裏に隠された驚くべき真実と、人類とAIの未来を考慮した重大な選択を描いています。
              【コンセプト】ジャンルミックス:学園もの、SF、一時の要素を融合させ、読者を魅了する展開を提供しました。キャラクターの二面性:デルタモンの不安げな様子や、ミライの意味深い態度など、登場人物の顔と裏の顔のギャップを強調しました。テクノロジーと倫理:先進的なAI技術と、それが実現する倫理的ジレンマを探ります。視覚的なコントラスト:現代の学校と未来的な要素(デルタモンの外観、隠された実験室など)を対比させ、違和感と興味を喚起しました。緊迫感の演出:時計の表示や、最後のカウントダウンタイマーなど、時間の切迫感を視覚的に表現しました。内面の葛藤:心の中の冷静、キャラクターの内面の葛藤や緊張感を表現しました。オープンエンド:最後のコマで決断の瞬間を描き、続きへの関心を呼びかけるようにしました。
              【工夫した点】各キャラクターの表情やコマ割りの構図を工夫しました。特に4コマ目のキャラクターアップとカウントダウンタイマーを表示させたところ。ストーリープロンプトを詳細に出力させて描きました。
              オノマトペを入れてさらに臨場感あふれるようにしたところです。

              編集部注:「デルタモン」は「デルタもん」の誤りなのか、アンドロイドの名前なのか不明だったので、そのまま掲載しておりますが、正式名称は「デルタもん」でお願いしますね!


              一見普通の学園生活を送るデルタもん…しかし、その裏には衝撃の真実が隠されていました!
              未来から来たAIアンドロイドという設定を活かしたSF要素、そして謎めいたギャル「ミライ」との関係性など、続きが気になる展開に引き込まれます。

              【5分で大変身!デルタもんのAI漫画チャレンジ】 by ともっち

              画像
              https://x.com/tomomaga358/status/1831305259882606756

              【使用ツール】 •Anifusion: AI漫画生成ツール(4コマの基本ビジュアル、キャラクター、背景作成) •コミPo!: 漫画編集ソフト(吹き出し、テキスト、オノマトペの追加と配置調整) •Claude 3.5 Sonnet: AI言語モデル(ストーリー構成、キャラクター設定、カメラアングル提案、セリフ作成、コマ説明生成) 【概要】 絵が苦手なAIアンドロイド女子高生、デルタもんが、AIツール「Anifusion」を発見し、わずか5分で漫画を作成。絶望から希望、そして成功へと至る過程を、ユーモアたっぷりに描いた4コマ漫画。読者の「私もやってみたい!」を引き出す、AIの可能性を示す作品。 【コンセプト】 「誰でも簡単にAIで漫画が作れる」という現代テクノロジーの魅力を、親しみやすいキャラクターと分かりやすいストーリーで伝える。技術の進歩により変わる創作の形を示しつつ、読者の創作意欲を刺激し、AIツールへの興味を喚起する。 【工夫した点】 •AIツールの魅力を視覚的に表現: 1コマ目:絶望的な落書きから、4コマ目:絵心なしでも漫画完成を達成するまで、劇的な変化を描写 3コマ目:パソコンでAIが生成した漫画の画面をデルタもんのバックに描くことにより視覚的効果とセリフによる生成スピードを強調 •感情を強調するオノマトペ使用: 「ふぅ〜」(落胆)、「ガーン」(驚き)、「かぁぁぁ•••」(感動)、「ドーン」(決意)他あり。 各コマの雰囲気をさらに盛り上げ、読者の感情移入を促進 •キャラクターの一貫性維持: 全コマでデルタもんの特徴(白青の制服、緑の猫耳、青いしっぽ)を統一 感情変化を耳としっぽの動きで表現し、キャラクターの生き生きとした表情を演出 ストーリープロンプトにも反映しました。 •読者目線を考慮した構図: 右上から左下への自然な視線の流れを意識した吹き出しとセリフの配置 3、4コマ目でダイナミックなアングルを採用し、感情の高まりを表現 •ストーリーと視覚表現の調和: AIを活用して各コマの展開がスムーズにつながるよう調整 「絵心ゼロ→AI発見→驚き→成功」という明確な流れで読者の共感を獲得。

              絵を描くのが苦手なデルタもんがAIツール「Anifusion」を使って漫画制作に挑戦!
              わずか5分で完成する様子に、AI技術の進化を感じさせられます。
              読者も「自分も作ってみたい!」と思わせる、AIの可能性を感じさせる作品です。

              【つよつよメンタルデルタもん】 by いぬさわ・ばう@InsBow🐾

              画像
              https://x.com/InsBow/status/1832967748760277383

              あまりにも作品の投稿が少なすぎることに悩んでいるようで悩んでいないデルタもんの日常を描きました。

              応募作品の少なさに動じない、デルタもんのつよつよメンタルっぷりがコミカルに描かれています。Anifusionのみで作られたという点にも注目です。

              【自撮り投稿デルタもん】 by いぬさわ・ばう@InsBow🐾

              画像
              https://x.com/InsBow/status/1832992326006055078

              あまりに投稿が少なすぎるデルタもんが自分でコンテンツを作りはじめるまでの前日譚ですわ
              Anifusionだけで作ってます

              「つよつよメンタルデルタもん」の連作ですね。
              投稿が少ないことに悩み、自らコンテンツを作り始めるデルタもんの姿が描かれています。表情豊かなデルタもんの姿にクスッと笑ってしまう作品です。

              【洞窟探索 日和】 by mounero

              画像

              AniFusionを使っていくつかAIマンガ作品を制作した経験を活かして、 生成ガチャとプロンプトの工夫を頑張りました。LoRAがある デルタもんでのマンガ生成とても楽しかったです。キャラがいい。 クリップスタジオで文字入れするのも楽しかったです。

              AniFusionを使った経験を活かし、生成ガチャとプロンプトを駆使して制作された作品。
              LoRAを活用したデルタもんの表現や、クリップスタジオでの文字入れなど、細部までこだわられています。

              【悪酔いデルタもん】 by いぬさわ・ばう

              画像
              https://x.com/InsBow/status/1833144163258556627

              自分の漫画作品が少なすぎてやけ酒を飲んでいたら、気がつけば自分の漫画を制作しているデルタもんです。

              応募作品の少なさにやけ酒を飲むデルタもん…!?
              酔った勢いで漫画を制作する姿がユーモラスに描かれています。
              自分大好きなのですね!

              【変身せよ!デルタもん熟女】 by 小泉勝志郎

              画像
              画像
              画像
              画像
              https://x.com/koi_zoom1/status/1833509800241729912

              作品概要:デルタもんは現代の熟女出留田文に変身してもらうことで現代に来ようとするが、デルタもんより出留田文の方が視力が良かったために交渉は決裂。しかし、49歳の出留田文には老眼で会社の資料が読めず、デルタもんに変身して資料を読むのであった。
              使用モデル:DucHaitenPonyNoScoreV4
              こだわり:デルタもん、出留田文、変身後デルタもんそれぞれデザインに一貫性があるようにしている。デルタもん、出留田文は個別にLoRAを作成。変身後デルタもんは両方のLoRAを適用して作成。変身シーンは双方のLoRAの割合を調整して生成。 デルタもんはオリジナルデザインに忠実にした。出留田文は49歳に見えるように、アニメ系モデルが苦手な熟女表現をできるようにしている。変身後デルタもんは出留田文がちょっと若返ってデルタもんの服装になりながら出留田文の風味も出るようにしている。

              なんと、熟女 出留田文でるた あや がデルタもんに変身!?
              LoRAを駆使したキャラクターデザインと、細かな若返り制御にも注目です。

              【AIの心得】 by わら

              画像
              https://x.com/wara_hirono/status/1833425252023665148

              デルタもんにアシスタントAIロボ(あまり役に立たない)がくっついていたらおもしろいなと思って描きました

              デルタもんに、ちょっと頼りないアシスタントAIロボが!?
              二人の掛け合いが面白い作品です。
              しかもメイキングとオリジナルキャラクターまで!

              【恐怖のマニフェスト】 by 合同会社オフィスSATOU

              画像
              画像
              画像
              画像

              進次郎記者会見のパロディです。デルタもんならこう言うとおもいました。

              ご応募いただいたみなさま、ありがとうございました!

              優秀賞、作品発表!

              【審査基準】
              ・品質
              ・発想力
              ・物語性

              BlendAI特別協賛「デルタもん4コマ漫画コンテスト
              優秀賞は【AIの心得】 by わら さんです!

              画像

              小宮自由(BlendAI株式会社 代表)コメント:
              たくさんのご応募ありがとうございました。デルタもんをリリースしてから8ヶ月、様々な方々が様々なデルタもんを描いてくれるようになってありがたく思います。すごい尖った作品、技術的にも難度が高く、自分の好きを貫いた作品が出てきたりして、良いことだと思いました。優秀賞には わらさんの作品を選出させていただきましたが、品質、発想力、物語性に加えて「作家性」。手書きを組み合わせることで自分の作品とAIのテクニックを融合させた良いコラボレーションだと思いました。そして何より「ガンマミィ」について触れてくれているのが嬉しかったです!

              白井暁彦(AICU media編集長)コメント:
              たくさんのご応募ありがとうございました。複数の作品を投稿してくださった方や、こだわりのある作品を締め切りギリギリに投稿してくださった方、締切に間に合わなかったけど、Xへ共有してくださった方などAICUのファンと「デルタもん」ファンのコミュニティの温かさを感じるコラボイベントとなりました。優秀賞の作品にはAICUマガジンでの連載オファーが付くこともあり、プロのAIクリエイターとしての視点での評価としての視点も加えさせていただきました。わらさんは「AICUマガジン Vol.4」での掲載経験もありメイキングまで公開頂いていることからも「もっと読みたい…!」という気持ちにさせる作品が作れるクリエイターであることも評価のポイントになっております。

              【優秀賞】Amazonギフト券4444円分+デルタもん4コマ漫画連載オファー獲得となります。おめでとうございます!連載オファーについてはDMにてご相談させていただきます!


              今回ご特別協賛をいただいたBlendAIさんおよびデルタもん原作者・支援者のみなさまに改めまして感謝いたします。

              そして告知です。

              そしてさらに、BlendAIさんが現在開発中の新キャラクター「ガンマミィ」のクラウドファンディングも予定されています!
              クラウドファンディングへの参加を通して、あなたもAIキャラクターの誕生に貢献することができます。そして、完成したLoRAを使って、ガンマミィをテーマにしたコンテストにも参加できます!

              https://camp-fire.jp/profile/BlendAI

              そして、この熱気はまだまだ続きます!

              またAnifusionでのデルタもん公式LoRAの使用方法も紹介されております。

              AICU mediaも次なるAI漫画コンテストを企画中です!

              デルタもん4コマ漫画コンテストに続く第二弾として、AICU主催のコンテストを予定しております!

              AI技術と創造性が融合した、この exciting な流れに、ぜひあなたも参加してください!

              まずは X@AICUai をフォローよろしくお願いいたします!

              #デルタもん4コマ #AICU #BlendAI #AIart #AIマンガ #AniFusion #AImanga #デルタもんイラストコンテスト #DeltaMon

              Originally published at https://note.com on Sept 13, 2024.

            3. FLUX@falで デルタもん 準公式LoRAをつくってみた!!

              falは開発者向けのメディアプラットフォームです。今日はfalにホストされているFlux.1[dev]のLoRAを使ってデルタもんの漫画向けLoRAをつくる実験を行ってみます。
              https://fal.ai/

              画像

              falは人気の漫画制作ツール「Anifusion」の内部の演算基盤としても使用されているようです。非常に高速で比較的安価なAPIコストで画像生成が実現できます。

              今回はこちらのfalにおいて公開されている「FLUXによるキャラクターLoRA生成」を紹介します。

                デルタもんを使った準公式LoRA生成実験

                今回の実験はAIキャラクター「デルタもん」を開発・管理するBlendAIさんのご協力により「デルタもん4コマ漫画コンテスト」の提供でお送りします!

                まずデルタもんには既に公式LoRAが存在します

                https://blendai.booth.pm/items/5801621

                こちらはSDXLをベースにした追加学習(LoRA)であり、「Anifusion」使ったデルタもん漫画に利用できます。

                Anifusionを使ったすべての漫画制作工程を知りたい読者は、現在配信中の「AICUマガジン」最新刊「AICUマガジンVol.4 完全解説Anifusion」を御覧ください。
                書籍版、Kindle版があり、Kindle Unlimited加入者は無料で購読可能です。

                https://j.aicu.ai/MagV4

                【前提】LINEスタンプ画像を使った機械学習は大丈夫なの?

                デルタもんはLINEスタンプとしてリリースされています

                https://store.line.me/stickershop/product/28076624/ja

                LINE スタンプ – デルタもんが来た!

                これは可愛いですね!買いました!

                BlendAIさんの「かわいい!! みどりちゃんスタンプ」もいいですね!

                https://store.line.me/stickershop/product/11304932/ja?from=sticker

                このようなキャラクター画像は通常IP(Intellectual Property:インテレクチュアル プロパティ)つまり知的財産として管理されています。
                このようなスタンプ画像をソースにして、機械学習や情報分析をすることは「日本の著作権法では可能」ですが、贋作をつくることが目的になったり、実際に偽物・類似品の「デルタもん」つまり、「デルタもの」をリリースして販売することは一般的には許可されていることはあまりないことです。
                ※「利用規約」によります。

                画像

                今回の実験にあたり、BlendAIさんに利用規約を確認したところ、ご許諾いただけました。

                Q: 商用利用はできますか?
                A: 以下に該当する利用であれば、利用規約の範囲内で自由に商用利用ができます(ボイスは除きます。詳細は後述)。
                非営利目的の利用
                Youtube、Twitter(X)、Facebook、Tiktok、Instagram 等、動画投稿サイトへの投稿目的での利用
                pixivリクエスト等のコミッションサイトでの利用
                FANBOX や Patreon 等ファン限定作品のデータもしくはそのアクセス権を販売するサイトでの利用
                ハッカソンまたはコミケ等の同人イベントでの利用(常設ではない単発のイベントのみ)
                同人誌等の同人作品の販売(ダウンロード販売含む)
                AIの研究開発の為の利用(ただし、成果物を頒布・公開する場合は、対価を受け取ってはならない)
                個人による年間の売上が10万円以下の商品またはサービスを作る際の利用
                上記以外の利用を希望する場合、ライセンス申請してください。また、ボイスの利用については、声優の権利保護のため商用利用可能な条件が異なります。ボイスの商用利用を希望する場合は、こちらのページを見てください。

                https://blendai.jp/guideline

                AICU Inc.が定める
                画像生成AIクリエイター仕草(v.1.0)
                も参照しておきます。

                すべきでないこと
                他者の迷惑になること。
                技術的な可否と法律上の可否とマナーやモラル、過去の常識やリスクや感情を混ぜて混乱させること。
                (スキルがあるからといって)他者の作品を上から目線で批判すること。
                画像生成 AI だから安いとか、自動だとか、無償で何かを作れるとか「楽して儲かる」など世間を誤解させるようなこと。
                すべきこと
                楽しむこと。作品を作る情熱を持ち続けること。
                わからないことは自分で調べて、共有し、コミュニティや Issue で共有すること。
                あいさつ、返事、お礼、質問を具体化、質問時は「わからない」だけでなく詳細な情報、進行具合を報告するなど誠意、他者に対するリスペクトや理解する姿勢を持つこと。
                「ぬくもりティ」だいじ。オープンソースコミュニティの開発者には敬意をもって接しよう。
                画像生成AIクリエイター仕草(v.1.0)は、AICU media が提唱するものです。
                倫理や法律を大切に、他者を尊重したコミュニティ構築を行っていきましょう。

                手順:LoRA生成と公開

                fal-aiが公開している flux-lora-general-training を使用して、デルタもん公式が配布している画像を学習させてみます。

                https://blendai.jp/resources

                画像
                画像

                実際にかかるコストなどのレポートも行っていきます!

                falアカウントの作成

                GitHubアカウントでのみ登録可能です。

                画像

                プロジェクト「flux-lora-general-training」を開く

                https://fal.ai/models/fal-ai/flux-lora-general-training

                画像

                実は商用利用可能なようです。

                クレジットを追加する

                今回のLoRAを作成するには5ドル、その後の生成も含めると、まずは10USDぐらい必要です。Stripeで決済できますので、クレジットを追加しておきましょう。

                画像の登録

                実は4枚ぐらいでもできます。まずは小規模に試してみるのもいいかもしれません。

                画像

                素材はBlendAIの「素材配布」から「LINEスタンプ画像」を使って登録してみます
                https://blendai.jp/resources

                画像
                画像

                PNGファイルの001-040までの40枚を追加してみます。

                画像

                トリガーワードは「DeltamonStamp」としてみます。
                キャプションファイルがあるとなお良いかもしれませんが、今回は実験なのでデフォルトのまま進行します。

                画像

                予算(クレジット)を確認する

                このLoRA学習用エンドポイントを実行するには5ドル相当のクレジットが必要です。なお、クレジットが不足しても実行はできることがありますが、その分、マイナスになって、次回以降は何もできなくなってしまいます。

                画像

                画像生成はメガピクセルあたり0.035ドルかかります。日本円で5円弱、1ドルで約29回実行できますので生成自体の単価は安いのかもしれません。

                ちなみにこの実験では1000ステップほどで実行していますが、たとえば複数のLoRAを生成した場合は、どんどんコストが大きくなります。例えば5400ステップですと…27ドルといった具合です。

                画像

                学習を実行する

                枚数にもよりますが10分ぐらいで終わります。速い!

                画像

                生成したLoRAを試用する

                結果の右側にある「▶Run interface」を押すと、TextToImageのプロジェクトが開かれ、すぐに試すことができます。

                「chibi manga panels of DeltamonStamp」で生成してみました。

                画像

                後頭部が描かれているのは尊いですね。

                画像
                スタンプ画像の雰囲気再現性が高いです
                画像
                漫画コマを生成してみました
                画像
                キャラクター紹介シートっぽい
                画像
                謎文字が可愛い
                画像

                生成したsafetensorsをHugging Faceで公開する

                今回生成したsefetensorsファイルをHugging Faceで公開してみます。

                画像

                「Hugging Face」ボタンを押します。

                画像

                ・Hugging Faceのトークンを取得して、設定します。
                ・リポジトリ名を設定します
                ・説明書きを加えます

                デルタもんStampをベースにしたLoRAです。特徴的な日本語の描き文字が化けて可愛いですね。
                This LoRA is based on Deltamon Stamp. It is cute with distinctive Japanese drawn characters that have been transformed.

                ・インスタンスプロンプトとしてトリガーワード「DeltamonStamp」を指定します。
                ・ここではアクセス権を「Public」にしていますが、これは「Private」でもいいと思います。

                こんな感じに公開されます。

                公開できました!(publicになっています

                画像

                Hugging Faceでの生成もできます

                画像

                Flux.1[dev]のワークフローを使って、ComfyUIでLoRAとして利用することもできますね。

                画像

                ご許諾いただいたBlendAIさんと、かわいらしいイラストと描き文字を書いて、LINEスタンプのフォーマットに揃えて納品していただいている作者の方に感謝を表明します。

                画像

                https://huggingface.co/AICU/deltamon-flux-lora

                ※メンバーシップ向け追加情報


                この記事の続きはこちらから https://note.com/aicu/n/n02e4dc8b88d6

                Originally published at https://note.com on Sept 7, 2024.

              1. [ComfyMaster15] ComfyUIの{動的|推奨}プロンプトの落とし穴!

                「思い通りの画像を生成したい!けど思うようにいかない…」という方、TextToImage(t2i)を使いこなせていますか?
                Stable Diffusionの内部の仕組みを理解し、ComfyUIでのText to Imageテクニックを身につけて、思い通りの画像を生成できるようになりましょう!

                こんにちわ、AICU media編集部です。
                ComfyUI マスターガイド」第15回目になります。
                この記事では、ComfyUIを始めたばかりの方向けに、プロンプトの基本から応用、そしてComfyUI特有のテクニックまでを、実用的なプロンプト例を交えながらわかりやすく解説します。

                前回はこちら

                プロンプトテキストのランダム置換

                ComfyUIでは、{選択肢1 | 選択肢2 | 選択肢3}のように記述することで、プロンプトの一部をランダムに選択することができます。

                プロンプト例

                A {red | blue | green} apple on a table

                このプロンプトでは、red、blue、greenのいずれかがランダムに選択され、テーブルの上にある赤い、青い、または緑のりんごの画像が生成されます。

                画像

                AUTOMATIC1111での「Dynamic Prompt」に当たる機能ですね!でもComfyUIの場合は特に機能拡張などは不要です。

                https://note.com/aicu/n/n56807d61efac

                動的プロンプトの注意点

                注意点があります。実は、Empty Latent Imagebatch_sizeを増やしたとしても、一度のワークフローで生成される画像には、同じプロンプトが適用されます。動的プロンプトによるランダム置換を適用するには、Queue Promptを複数回実行する必要があります。
                以下は、batch_sizeを4にして実行した例です。全て緑のりんごが生成されています。

                画像
                画像

                Queue Promptを複数回実行した場合の結果も見てみましょう。
                Extra optionsにチェックを入れて、Batch countを4にして生成します。

                画像
                画像

                先ほどと違い、ランダム置換が適用されています!

                これを応用して、キャラクターの生成でもランダム置換が適用されるかテストをしてみます。以下、テストで使用したプロンプトになります。

                1girl, short bob, {wearing dress | wearing t-shirt and jeans | coveralls}, looking at me and smiling, realistic, full body

                ショートボブの少女がワンピース or Tシャツとジーンズ or 作業着を着て笑っている。という設定

                画像

                モデルカードに注目! 推奨プロンプト

                他のモデル(CheckpointやLoRAなど)を使用する際は、そのモデルが推奨するプロンプトを使用しましょう。モデルが推奨するプロンプトは、モデルの説明ページに書かれているので、モデルを使用する前にしっかり説明をよむことが大切です。

                Checkpointの例

                Checkpointの例を見てみましょう。以下のRealVisXL V4.0というモデルのページを確認してみます。

                https://huggingface.co/SG161222/RealVisXL_V4.0

                説明を読むと、Recommended Negative Promptの項に以下のプロンプトが記載されています。

                (face asymmetry, eyes asymmetry, deformed eyes, open mouth)
                画像
                https://huggingface.co/SG161222/RealVisXL_V4.0

                これは、RealVisXL V4.0を使用する際は、ネガティブプロンプトに上記のプロンプトを使用することを推奨しています。他にもHiresFixでの推奨設定なども書かれています。RealVisXL V4.0を使用する際は、ネガティブプロンプトに指定のプロンプトを入力し、この種の推奨設定をしっかり理解することで、より高品質な画像を生成することができます。

                新しいモデルを試すときにも、利用規約やライセンスと並んで、推奨プロンプトや設定はしっかり読みましょう!

                LoRAの例

                次にLoRAの例を見てみましょう。以下のデルタもんLoRAを確認してください。

                https://civitai.com/models/492694

                デルタもんLoRAのページを見ると、「The trigger word is ap_deltamon.」と記載があります。

                画像

                <lora:deltamon_official_v1.0:1.0>, ap_deltamon,1girl,solo,white_background,simple_background

                ap_deltamonだけでもかなり正確に生成できる。

                このLoRAを使用する際は、ポジティブプロンプトに「ap_deltamon」を含めることで、デルタもんを生成できる、とあります。
                トリガーワードがわからないと、LoRAを活用することができませんから、超重要情報です。

                まとめ

                この記事では、ComfyUIでSDXLのプロンプトを記述する基本的な方法から、応用的なテクニックまでを紹介しました。プロンプトエンジニアリングは、試行錯誤を通して習得していくものです。様々なプロンプトを試してみて、自分にとって最適な表現方法を見つけてみましょう。

                ComfyUIとSDXLは、非常に強力な画像生成ツールです。プロンプトの力を最大限に活用することで、あなたの創造性を形にすることができます。ぜひ、色々なプロンプトを試して、素晴らしい画像を生み出してください!

                次回は、image-to-imageの方法を紹介します。乞うご期待!


                【お知らせ】「デルタもん4コマ漫画コンテスト」開催中!

                【応募方法】

                1. 「デルタもん」をテーマにしたオリジナル漫画を作成する
                2. 作品をX(Twitter)に投稿し、応募フォームへ記入します
                  エントリーフォームのURL → https://j.aicu.ai/Delta4manga

                必須ハッシュタグ #デルタもん4コマ #AICU #BlendAI
                締め切り:2024年9月10日(火)23:59

                審査期間:2024年9月11日(水)~2024年9月13日(金)
                結果発表:2024年9月14日(土) AICU media公式noteにて発表(予定)!

                X(Twitter)@AICUai も忘れずフォローよろしくお願いいたします!


                画像生成AI「ComfyUI」マスターPlan

                画像生成AI「Stable Diffusion」特に「ComfyUI」を中心としたプロ向け映像制作・次世代の画像生成を学びたい方に向けたプランです。最新・実用的な記事を優先して、ゼロから学ぶ「ComfyUI」マガジンからまとめて購読できます。 メンバーシップ掲示板を使った質問も歓迎です。

                • メンバー限定の会員証が発行されます
                • 活動期間に応じたバッジを表示
                • メンバー限定掲示板を閲覧できます
                • メンバー特典記事を閲覧できます
                • メンバー特典マガジンを閲覧できます
                • 動画資料やworkflowといった資料への優先アクセスも予定

                ゼロから学ぶ「ComfyUI」マガジン

                https://note.com/aicu/m/md2f2e57c0f3c

                マガジン単体の販売は1件あたり500円を予定しております。
                2件以上読むのであればメンバーシップ参加のほうがお得です!というのもメンバーシップ参加者にはもれなく「AICU Creator Union」へのDiscordリンクをお伝えし、メンバーオンリー掲示板の利用が可能になります。

                https://note.com/aicu/membership/boards/61ab0aa9374e/posts/db2f06cd3487?from=self

                もちろん、初月は無料でお試しいただけます!
                毎日新鮮で確かな情報が配信されるAICUメンバーシップ。
                退会率はとても低く、みなさまにご満足いただいております。
                ✨️オトクなメンバーシップについての詳細はこちら

                本日のメンバーシップ向けボーナストラックは犬沢某@InsBow さんのカバーアート(文字入れなし)です!
                かわいいイラストをいつもありがとうございます!


                この記事の続きはこちらから https://note.com/aicu/n/n7f69b22479c9

                Originally published at https://note.com on Sept 6, 2024.

              2. [ComfyMaster14]ComfyUIでのTextToImageを極める!!(4)複数キャラを同時に制御する

                ComfyUIで「思い通りの画像を生成したい!けど思うようにいかない…」という方、TextToImage(t2i)を使いこなせていますか?
                Stable Diffusionの内部の仕組みを理解し、ComfyUIでのText to Imageテクニックを身につけて、思い通りの画像を生成できるようになりましょう!

                画像
                制御したいですよね

                こんにちわ、AICU media編集部です。
                ComfyUI マスターガイド」第14回目になります。

                前回「ComfyUIでのTextToImageを極める!! (3)Concatで複数CLIPをつなぐ」で
                は、Conditioning(Concat)ノードと複数CLIPを結合して「プロンプトの限界」を超え、その内部動作をソースコードから確認しました。
                今回は実験を通して確認していきたいと思います。

                長いプロンプトを使った実験

                前回、Concatをつかうことで、長いプロンプト中の「緑の森」「赤い城」といった背景/世界と建築物での「色分け」を紹介しました。

                CLIP1「a red castle on a hill」(1344×768, seed:13)
                CLIP2「A fantasy landscape, overlooking a vast green forest」

                画像

                さらに Conditioning(Concat)のToとFromはToがベースプロンプトで、Fromが追記であることを解説しました。でも短いプロンプトで入れ替えてみても絵に変化はなく、どちらがベースなのかは確認できなかったという結論になっていました。
                今回はキャラクターイラストを使って、ものすごく長いプロンプトで実験してみましょう。
                AICUで生成AIを使ってキャラクターデザインやイラストレーションを担当している犬沢某先生に相談して長めのプロンプトをいただきました。

                face focus, dog ears, 1boy, best quality, 16K, eating hair, dog nose, looking at looking at viewer, short hair, skinny, big eyes, dark skin, tall, naked overalls, 20-year-old,

                beautiful, bold black outline, pink, pastel colors, Light Pink, scowl, brown hair, golden eyes, simple line drawing, animal ears, solo, brown hair, overalls, cat ears, dark skin, short hair, dark-skinned female, simple background, choker, sweater, yellow shirt, long sleeves, pink choker, white background, closed mouth, extra ears, animal ear fluff

                これは2つのキャラクターを表現する2つのプロンプトを貼り付けたものです。途中に「髪を食べる(eating hair)」という謎の単語を含めて合計78ワードあります。

                画像

                Concatを使った実験:単純な結合

                まずは実験として、「Load Default」をつかって初期のワークフローにして、モデルをSDXL(sd_xl_base_1.0.safetensors)に変更し、, seed=13 fixed, 1344×768にして、CLIPひとつでそれぞれ生成してみます。

                「face focus, dog ears, 1boy, best quality, 16K, eating hair, dog nose, looking at looking at viewer, short hair, skinny, big eyes, dark skin, tall, naked overalls, 20-year-old, beautiful, bold black outline, pink, pastel colors, Light Pink, scowl, brown hair, golden eyes, simple line drawing, animal ears, solo, brown hair, overalls, cat ears, dark skin, short hair, dark-skinned female, simple background, choker, sweater, yellow shirt, long sleeves, pink choker, white background, closed mouth, extra ears, animal ear fluff」、ネガティブプロンプトは「text, watermark」(2トークン消費)で生成してみます。

                画像

                さすが!!かわいい!
                男性と女性が混ざった雰囲気ですね。長いプロンプトが結合できていることが確認できました。

                プロンプトの整理

                次にこの2人分のプロンプトを前半と後半に分けて生成してみます。

                画像

                前半「face focus, dog ears, 1boy, best quality, 16K, eating hair, dog nose, looking at looking at viewer, short hair, skinny, big eyes, dark skin, tall, naked overalls, 20-year-old」
                Negative 「text, watermark」, SDXL, 1344×768, seed=13

                (顔の焦点, 犬の耳, 1boy, 最高品質, 16K, 髪を食べる, 犬の鼻, 見る人を見ている, 短い髪, 痩せている, 大きな目, 浅黒い肌, 背が高い, 裸のオーバーオール, 20歳)

                画像

                顔に焦点を当てた半裸でオーバーオールを着た20歳の青年が生成されました。続いて後半です。

                後半「beautiful, bold black outline, pink, pastel colors, Light Pink, scowl, brown hair, golden eyes, simple line drawing, animal ears, solo, brown hair, overalls, cat ears, dark skin, short hair, dark-skinned female, simple background, choker, sweater, yellow shirt, long sleeves, pink choker, white background, closed mouth, extra ears, animal ear fluff」
                Negative 「text, watermark」, SDXL, 1344×768, seed=13

                (美しい, 太い黒の輪郭, ピンク, パステルカラー, ライトピンク, しかめっ面, 茶色の髪, 金色の目, シンプルな線画, 動物の耳, ソロ, 茶色の髪, オーバーオール, 猫耳, 浅黒い肌, 短い髪, 浅黒い肌の女性, シンプルな背景, チョーカー, セーター, 黄色のシャツ, 長袖, ピンクのチョーカー, 白背景, 閉じた口, 余分な耳, 動物の耳の綿毛)

                画像

                Concatを使った実験:整理と結合

                これらを Conditioning(Concat)を使って繋いでみます。

                画像

                CLIP1-Conditioning_to「face focus, dog ears, 1boy, best quality, 16K, eating hair, dog nose, looking at looking at viewer, short hair, skinny, big eyes, dark skin, tall, naked overalls, 20-year-old」
                CLIP2-Conditiong_from「beautiful, bold black outline, pink, pastel colors, Light Pink, scowl, brown hair, golden eyes, simple line drawing, animal ears, solo, brown hair, overalls, cat ears, dark skin, short hair, dark-skinned female, simple background, choker, sweater, yellow shirt, long sleeves, pink choker, white background, closed mouth, extra ears, animal ear fluff」
                Negative 「text, watermark」, SDXL, 1344×768, seed=13

                画像

                1boyとdark-skinned femaleが混ざっていますので、難しいと思います。中性的ではありますが、どちらかというと男性っぽいですね。
                まずはConcatで結合が機能していると考えられます。

                FromとToはどっちがベースなのか実験的に確認する

                さてFromとToはどっちがベースなのか実験的に確認していきましょう。
                さきほどの中性的なイラストの前後半を入れ替えてみます。

                画像

                CLIP1-Conditioning_to「beautiful, bold black outline, pink, pastel colors, Light Pink, scowl, brown hair, golden eyes, simple line drawing, animal ears, solo, brown hair, overalls, cat ears, dark skin, short hair, dark-skinned female, simple background, choker, sweater, yellow shirt, long sleeves, pink choker, white background, closed mouth, extra ears, animal ear fluff」
                CLIP2-Conditiong_from「face focus, dog ears, 1boy, best quality, 16K, eating hair, dog nose, looking at looking at viewer, short hair, skinny, big eyes, dark skin, tall, naked overalls, 20-year-old」
                Negative 「text, watermark」, SDXL, 1344×768, seed=13

                画像

                たしかに同じではなさそうです。toとfromは英語的な意味とは逆で、「toがベースでfromが追加条件」という説が実証できているようにも見えます。

                キャラクターの描き分け実験:空白CLIP、クオリティプロンプト

                実はこのプロンプト、2つのキャラクターが混ざっています。1boyとfemale、Dog earsと Cat ears、「髪の毛を食べる」と「口を閉じる」という破綻しやすそうなキーワードが混在していますので、これを整理してみます。

                混ざっているプロンプトをわかりやすく、キャラクター1,2と演技、画風やクオリティプロンプト、と分けて入れ替えてみます。

                キャラクター1「1girl, pink, pastel colors, Light Pink, scowl, golden eyes, animal ears, solo, overalls, cat ears, dark skin, short hair, dark-skinned female, choker, sweater, yellow shirt, long sleeves, pink choker, closed mouth, extra ears, animal ear fluff」(1girl、ピンク、パステルカラー、ライトピンク、しかめっ面、金色の目、動物の耳、ソロ、オーバーオール、猫耳、黒い肌、ショートヘア、肌の黒い女性、チョーカー、セーター、黄色のシャツ、長袖、ピンクのチョーカー、口を閉じた、余分な耳、動物の耳の綿毛)

                これをConditioning_toに設定して、Conditioning_fromを空白する例と、それを入れ替えた例、さらにクオリティプロンプトと背景設定を入れ替えた例を実験します。

                画像

                やはり空白のような極端に短いCLIPでは効果は確認できないようです。クオリティプロンプトを加えてみます。

                画像

                Conditioning_to「1girl, pink, pastel colors, Light Pink, scowl, golden eyes, animal ears, solo, overalls, cat ears, dark skin, short hair, dark-skinned female, choker, sweater, yellow shirt, long sleeves, pink choker, closed mouth, extra ears, animal ear fluff」
                Conditioning_From「beautiful, bold black outline, simple line drawing, simple background, white background, best quality, 16K」

                画像
                画像

                Conditioning_to「beautiful, bold black outline, simple line drawing, simple background, white background, best quality, 16K」
                Conditioning_from「1girl, pink, pastel colors, Light Pink, scowl, golden eyes, animal ears, solo, overalls, cat ears, dark skin, short hair, dark-skinned female, choker, sweater, yellow shirt, long sleeves, pink choker, closed mouth, extra ears, animal ear fluff」

                画像

                たしかに、ベースプロンプトがConditioning_toではありそうです。長いプロンプトでの実験は効果ありそうです。画風とキャラクターについての実験を続けます。

                続いてキャラクター2のプロンプトを設定します。もともと頂いたプロンプトからキャラクターとして一貫性がありそうな「1boy, dog ears, dog nose, short hair, skinny, big eyes, looking at viewer, dark skin, tall, naked overalls, 20-year-old, brown hair」(1boy、犬耳、犬鼻、短髪、痩せ型、大きな目、視聴者を見ている、黒い肌、背が高い、裸のオーバーオール、20歳、茶髪)として、先程のキャラクター1の代わりに入れてみます。

                画像

                Conditioning_to「1boy, dog ears, dog nose, short hair, skinny, big eyes, looking at viewer, dark skin, tall, naked overalls, 20-year-old, brown hair」
                Conditioning_from「beautiful, bold black outline, simple line drawing, simple background, white background, best quality, 16K」

                画像

                入れ替えてみます。

                画像

                Conditioning_to「beautiful, bold black outline, simple line drawing, simple background, white background, best quality, 16K」
                Conditioning_from「1boy, dog ears, dog nose, short hair, skinny, big eyes, looking at viewer, dark skin, tall, naked overalls, 20-year-old, brown hair」

                画像

                たしかに、ベースプロンプトがConditioning_toではありそうです。

                実験:多段Concat

                それではConcatを多段にするとどうなるでしょうか?
                接続としては以下のようになります。
                Concat1(To:画風 + From: キャラクター1boy)
                Concat2(To:Concat1の結果+Form:キャラクター2girl)

                画像
                画像

                多段Concatは問題なく接続されますし、結果も良好です。
                さて次は問題です。

                Concat1(To:画風 + From: キャラクター2girl)
                Concat2(To:Concat1の結果+Form:キャラクター1boy)

                このようなネットワークを組んだときに、boyが出るのかgirlが出るのか、皆さんはどう考えますか?

                画像
                画像

                結果は「入れ替えても変わらない」です。Conditioningの多段、特にFromを多段Concatで入れ替えても結果は変化ありませんでした。
                シードによって描かれる結果は変わりますが、Fromを入れ替えても変化はないのです。これは便利ですね。

                画像
                画像

                Concat1(To:キャラクター1boy+ From: 画風
                Concat2(To:Concat1の結果+Form: キャラクター2girl

                画像

                Concat1(To:キャラクター1boy+ From: キャラクター2girl
                Concat2(To:Concat1の結果+Form: 画風

                画像

                ComfyUIにおいて強調構文は平均ではなく、Fromは掛け算のように働くと覚えておくと良いのかもしれないですね。

                実験:Combineでの融合と入れ替え

                同じようにConditioning(Concat)ではなく、Conditioning(Combine)で融合と入れ替えをしてみます。こちらも全く変化なしです。

                画像
                画像
                画像
                画像
                画像
                画像

                複数の異なる特徴を持ったキャラクターを描くには?

                さて、Concatの理解は進みましたでしょうか?
                では複数の異なる特徴を持ったキャラクターを描くにはどうやったら良いのでしょうか?

                ポイントは、まず「大事なものはToに設定」そして「それぞれのCLIPにも設定」しましょう。
                複数のキャラクターの画風の統一を図りたい、同じ空間や世界に配置したいときはToに書きます。これをベースとして、このように2人の人物が出てくれば、あとは詳細を75トークン以内で表現するだけで2人以上のキャラクターの画像をそれぞれ生成することができるようになります。

                CLIPを2つでConcatだけで構成する場合にはこんな感じです。
                [CLIP1] best quality, beautiful, 1girl and 1boy,
                [CLIP2] best quality, beautiful, 1girl and 1boy,
                ここまでいれる、というテクニックが非常に重要です。
                こんな絵も作れるようになります。

                画像

                [CLIP1]
                best quality, beautiful, 1girl and 1boy, 1girl, female, 20-year-old, cat ears, pink choker, sweater, yellow shirt, long sleeves, white background, closed mouth, extra ears, animal ear fluff, solo, brown hair, overalls, pink, pastel colors, Light Pink, face focus,

                [CLIP2]
                best quality, beautiful, 1girl and 1boy, blue choker, eating hair, dog ears,16K, dog nose, looking at looking at viewer, short hair, skinny, big eyes, dark skin, tall, naked overalls, bold black outline, scowl, brown hair, golden eyes, simple line drawing, animal ears, simple background, dark skin, short hair, dark-skinned

                多段Concatを使った作例

                実際にはCLIP2つだけで複数キャラクターと世界や画風を設定するよりも、多段のConcatを使ったほうが楽かもしれません。
                一連の流れを出力例からおさらいします。

                画像

                ベースになる画風を1段目のConditiong_toに設定します。

                Conditiong_to「1boy and 1girl, beautiful, bold black outline, simple line drawing, simple background, white background, best quality, 16K」

                画像

                二人がどんな演技をしているか、共通で維持したいものはすべてのCLIPに入れておけば強調されます。

                画像

                conditioning_fromとconditioning_toに共通に「1girl and 1boy」を入れて、それぞれの特徴をCLIP1とCLIP2で詳細に描写していくことができます。

                画像

                このあたりで一度、シードをfixedからIncrementに変更して、Queue Prompt Extra Options▶Batch countを20として、20枚、シードを増やしながら一気に生成してみます。

                画像
                画像
                美しい結果はメンバーシップエリアに置いておきます…!

                肌の褐色をプロンプトで強調していくか、いろんな方向性があり得ると思いますが、ここまで制御性が高くなっていると、好きなテイストを選ぶことも難しくないと思います。

                この段階では画風、肌の色やレイアウトのほうが表情や指といった細かいところよりも重要です。画面比率を変えると大幅に変わってしまいますので今回は1344×760で固定しておいたほうが良いでしょう。
                SDXLの場合、テキスト以外にも画像解像度等の条件が加えられる場合はconditioning_toの方を使います。

                表情や指がおかしいところはImageToImageで修正できますが(次回以降)、今回はネガティブプロンプトやembeddingで仕上げていきます。

                プロンプトだけのSDXL、TextToImageで完成させた作品がこちらです。
                便宜上、CLIP0、CLIP1、CLIP2と呼んでいますが、いままでの2段構成のConditioning(Concat)によって実装しています。

                画像

                CLIP0(conditioning_to) : 1boy and 1girl looking each other, beautiful, bold black outline, simple line drawing, simple background, white background, best quality, 16K

                CLIP1(Conditiong_from) : 1boy and 1girl looking each other,1boy face focus, dog ears, 1boy, best quality, 16K,, dog nose, looking at looking at viewer, short hair, skinny, big eyes, dark skin, tall, naked overalls, 20-year-old

                CLIP2(Conditioning_from) : 1boy and 1girl looking each other, 1girl , pink, pastel colors, Light Pink, scowl, golden eyes, animal ears, solo, overalls, cat ears, dark skin, short hair, dark-skinned female, choker, sweater, yellow shirt, long sleeves, pink choker, closed mouth, extra ears, animal ear fluff

                Negative: text, watermark, embeddings:negativeXL_D

                まとめ:conditioning

                これまで4回にわたってComfyUIでSD1.5およびSDXLを使ってプロンプトの基本的な方法から、応用的なテクニックまでを紹介してきました。今回はイラストレーションで「複数のキャラクターを同時制御する」という実験を行いましたが、プロンプトだけでなく、CLIPの内部やConditioningを使ってComfyUIならではの絵作りを探求していくベースになったようであれば幸いです。実はconditioningにはたくさんあり、今回紹介したCombine、Concatの他にはAverage、 Set Areaなど複数存在します。例えばAverageは結合ではなく線形補間します。

                画像

                次回は、image-to-imageの方法を紹介します。乞うご期待!

                X(Twitter)@AICUai もフォローよろしくお願いいたします!

                画像生成AI「ComfyUI」マスターPlan

                画像生成AI「Stable Diffusion」特に「ComfyUI」を中心としたプロ向け映像制作・次世代の画像生成を学びたい方に向けたプランです。最新・実用的な記事を優先して、ゼロから学ぶ「ComfyUI」マガジンからまとめて購読できます。 メンバーシップ掲示板を使った質問も歓迎です。

                • メンバー限定の会員証が発行されます
                • 活動期間に応じたバッジを表示
                • メンバー限定掲示板を閲覧できます
                • メンバー特典記事を閲覧できます
                • メンバー特典マガジンを閲覧できます
                • 動画資料やworkflowといった資料への優先アクセスも予定

                ゼロから学ぶ「ComfyUI」マガジン

                https://note.com/aicu/m/md2f2e57c0f3c

                マガジン単体の販売は1件あたり500円を予定しております。
                2件以上読むのであればメンバーシップ参加のほうがお得です!というのもメンバーシップ参加者にはもれなく「AICU Creator Union」へのDiscordリンクをお伝えし、メンバーオンリー掲示板の利用が可能になります。

                https://note.com/aicu/membership/boards/61ab0aa9374e/posts/db2f06cd3487?from=self

                もちろん、初月は無料でお試しいただけます!
                毎日新鮮で確かな情報が配信されるAICUメンバーシップ。
                退会率はとても低く、みなさまにご満足いただいております。
                ✨️オトクなメンバーシップについての詳細はこちら

                本編で2人以上のキャラクターをそれぞれ描くことができるようになりましたね。ここではシードを変えた問のさまざまな中間生成画像を紹介します。


                この記事の続きはこちらから https://note.com/aicu/n/nacf66b92d2d5

                Originally published at https://note.com on Sept 4, 2024.