月: 2024年11月

  • あのVIPチケットを入手できる…! AICU編集部がSIGGRAPH ASIA 2024取材スタッフを募集!

    世界最大のCG/インタラクティブ技術の国際会議「SIGGRAPH ASIA 2024」が、2024年12月3日(火)〜6日(金)に東京国際フォーラムで開催されます。

    生成AI時代に「つくる人をつくる」をビジョンとするAICU編集部はSIGGRAPH ASIAプログラムパートナーとして学生ボランティアに協賛します。

    https://asia.siggraph.org/2024/about-the-event/supporters-partners/

    【協賛各社のロゴより】AICUはAdobeとclusterの間にあります

    画像
    https://asia.siggraph.org/2024/about-the-event/supporters-partners/


    またこれと並行して様々なSIGGRAPH ASIAを盛り上げていく企画を準備しています。

    現地取材に協力するレポーターを募集します

    AICUはSIGGRAPH ASIAの期間中、通常のAICUメディア編集部に加えて、現地取材に協力していただけるレポーターを募集します。学生・未経験者、もしくは普段はCGに直接関係ない分野に関わる社会人など「生成AI時代につくる人をつくる」というビジョンに共感して、書き物や取材のルールを守れる方に向けて、SIGGRAPH ASIAを通した学びの機会をつくる目的があります。

    【オーディション実施】

    ご応募いただき採用となった方へ、以下をオファーいたします。

    ・登録費:カンファレンスアクセス(3000円相当)
    https://asia.siggraph.org/2024/ja/attend/registration-categories-fees/

    ・取材当日の行動費(2000円)
    ・原稿を執筆いただいた場合…規定の原稿料(5,000円~/件)

    また、オーディションによって選ばれた若干名(1名を予定)には
    フルカンファレンス相当のメディアチケット(200,000円相当)を提供します。

    オーディションのエントリーフォームはこちらのURLです

    https://docs.google.com/forms/d/e/1FAIpQLSdQO2suRarnl9vavsKu3ZPsxQYAI67WKBIqHRZtHEwfJ4LNKw/viewform?embedded=true&usp=embed_googleplus

    応募期間 2024年11月11日~18日

    ご質問は X@AICUai まで

    皆様の応募をお待ちしております!

    Originally published at https://note.com on Nov 10, 2024.

  • 寄稿「著作を振り返って」三宅陽一郎

    「つくる人をつくる」あなたをアップデートするクリエイティブAIエンターテイメントマガジン「AICU Magazine Vol.6」、KindleUnlimitedで無料配信中です。特集は「Entertainment x AI」。東京ゲームショウで展示された近未来のAI技術、キャラクターデザイン、チャットボット、科学者の先端研究、そして、ゲームAIの研究開発を長年リードされてきた、三宅陽一郎氏(@miyayou)をゲストライターにお迎えして構成しています。

    ゲームAI開発者・研究者の三宅陽一郎氏に「過去のAI関連著作についてご解説をお願いしたい」という依頼をいたしました。その寄稿をマガジン及びnoteメンバー向けに、特別配信いたします(期間限定有料)。

    https://j.aicu.ai/MagV6

    「著作を振り返って」三宅陽一郎
    (ゲームAI開発者・研究者)

     私は2004年から現在(2024年)まで20年程、デジタルゲームの人工知能を開発・研究している。その間、特に2016年以降に単著として11冊を出版させて頂いた。これは出版社様に機会を頂いた賜物で感謝しかない。しかし、同時に反省する点も多く、ここでは自分の出版の歴史を振り返って考察していきたい。

    自分ゲーム産業に入った2004年という時期は世界的にもゲームAIという分野が徐々に形成されつつある時期であった。プラットフォームで言えば『PlayStation3』や『Xbox360』の世代にあたる。この世代からゲームの人工知能は次第に本格的なものになっていく。本格的とは学術的な人工知能の流れと同期する、或いはその先に行く、ということである。こういった人工知能の知見をまとめようと思っても、なかなかまとめられなかったのは、私の何が欠如していたせいだろうか。おそらく実際のゲームの実例のなさと、ゲームAIの進化の速さと、私の理論的な整備の甘さゆえだろう。なんとか最初にまとめた本は『デジタルゲームの教科書』(共著)(2010年5月 ソフトバンク クリエイティブ)であるが、これは松井悠さんの編集のもと、当時のIGDA日本のメンバーを中心に総出でゲームやその周辺の事情をまとめた本である。現在となっては歴史的価値の高いものである。

    https://amzn.to/3YCAlCf

    デジタルゲームの技術』(共著)(2011年7月 ソフトバンク クリエイティブ)はインタビュー集であり、これも現在となっては歴史的価値の高いものである。

    https://amzn.to/3NAWzhD

    2016年になってようやく単著を為すことができた。『人工知能の作り方』(2016年12月 技術評論社)である。この本はいまだゲームAIという分野の全体的体系を捉えきれていないが、要素は出そろっており本質を捉えてはいる。また案外、この本は今でも感想を頂くことが多く、柔軟で入りやすい内容になっていると思われる。

    https://amzn.to/3Ag7LwX

    ゲームAI技術の体系の全体像としては『ゲームAI技術入門』(2019年9月 技術評論社)でより詳細にまとめられている。自分なりにデジタルゲームAIという分野を大きな体系としてまとめたつもりである。入門書として書いたつもりであるが、かなり構えた本となっているので、取りこぼしのない本格書として、また大学の教科書として採用できるレベルで書いている。

    https://amzn.to/4eWixYm

    FINAL FANTASY XV の人工知能』(2019年5月ボーンデジタル社)は実際のタイトルに即したゲームAI技術の書籍であり、まさに実践の書である。また研究内容を踏まえた、2024年現在の全体像は『スクウェア・エニックスのAI』(2024年7月 ボーンデジタル社)にまとめられている。

    https://amzn.to/3C0W3qz

    https://amzn.to/4hlC9qg

    この4冊の書籍を読むと、ゲームAIの最新にして深い知識が得られるはずである。また学術的なゲームAI(囲碁、将棋、トランプ)とデジタルゲームAIの分野は技術的には地続きな一つの分野であって、これを統一的に語ることは産業としても学術としても意味のあることである。そういった本を作ることができれば、学生にとっても、この分野を一つの大地のように捉えることができるだろう。

    https://amzn.to/4fj5Whw

    ゲーム情報学概論- ゲームを切り拓く人工知能』(2018年4月 コロナ社)は伊藤先生からお声が頂き、保木先生と共に三人で書き上げた共著である。大学の教科書として執筆しているので、とても良くまとまった内容となったと思う。ただよく考えると将棋や囲碁の延長として、デジタルゲームには「戦略ゲーム」というリアルタイムにロジカルな思考を行う分野がある。そして、この分野には80年代から膨大な実例と研究があり、それを一冊の書籍としてまとめたいと思っていた。そうして編まれたのが『戦略ゲームAI解体新書』(2021年10月 翔泳社)である。実例が多く、理論も体系立てられていて、プロにも学生様にも楽しく読んで頂ける書籍になったと思う。

    https://amzn.to/40GgFyD

    高校生のための ゲームで考える人工知能』(2018年3月, 筑摩書房)は山本氏との共著であり、新書形式で優しくゲームAI分野の導入が書かれている。最初の自分の原稿はがちがちでわかりにくかったが、山本先生の卓越した文才によって柔らかくわかりやすくなった。山本先生とご一緒できて光栄であった。

    https://amzn.to/4fHPxDN

    わかりやすくという意味では以前、慶應大学SFCでボードゲームを使った子供向け(主に小学生)のワークショップを行ったことがあった。これはカードを配置して駒を動かすゲームAIプログラミングの形式である。東京書籍様の多大なご尽力を得て『ボードゲームでわかる! コンピュータと人工知能のしくみ』(2022年11月 東京書籍)として出版することができた。なかなか座学だけではゲームAIを身に着けるのは難しい。本ボードゲームを通じてコンピュータの原理、プログラミングの原理、AIの原理を体得することができるはずである。

    https://amzn.to/4fgNeI3

     デジタルゲームの人工知能という分野の特徴は、人とインタラクションする人工知能を作るということ、またキャラクターのように身体を持って行動する「知能を持った人工生命」を作り出すということである。そうすると必然的に、知能とは何か、人間とは何か、という問いを持つようになる。問うことが哲学の始まりであり、私は長い間、知能とは何かを問い続け、その都度いったんの結論を出しながら、人工知能を作り上げてきた。しかし、何かを作るには常に足場が必要であり、人工知能の場合はそれが哲学なのである。なぜなら知能とは何かという問いへの暫定的な答え(間違っていてもよい)なしには、知能は作り出せないからだ。そして、その問いは、今のところ果てしない問いである。『人工知能のための哲学塾』(2016年8月 BNN新社)は、そんな知能とは何かという問いを哲学的につきつめた書籍である。

    https://amzn.to/48EKpxP

    エンジニアや理科系研究者の中には哲学は何の役に立つのだ、という方も多いかもしれない。しかし哲学なしに本来研究はできない。哲学がいらないといいながらも、どんな人もある哲学の中に囲われている。そしてそれに気づかない内は、自分が哲学から自由だと思っているが、それは過去の哲学の上に立っているために自分の立っている大地を意識することがないに過ぎない。新しい領域へ行くのは、新しい哲学が必要である。それはまたロジカルな思考とは違った軌道で歩む研究の途である。『人工知能のための哲学塾』は主に西洋哲学と人工知能の関係を扱った書籍である。さらにここから東洋哲学と人工知能の関係を詳細に示したのが『人工知能のための哲学塾 東洋哲学篇』(2018年4月 BNN新社)である。

    https://amzn.to/40Ghtn9

    この本は玄人受けする本であり、最初の「哲学塾」に飽きたらない読者には、この本は大いに刺激になるだろう。『人工知能のための哲学塾 未来社会篇』(2020年7月 BNN新社)は一緒に登壇した大山氏との共著であり、社会の中におけるAIについて論じている。

    https://amzn.to/40Ckftt

    第一期哲学塾はここでいったん終了となる。その一つ目の理由は、哲学塾は作るための足場を提供するものであり、ここから実装に向けてアクションを起こす必要があること、二つ目の理由はディープラーニング技術の台頭によって哲学と技術の間隙が大きくなったことにある。つまり哲学がディープラーニング技術に追い付いていない、というところにある。次なる哲学塾のシリーズは生成AI、言語AI、ディープラーニング技術と張り合う哲学を展開するシリーズとなるだろう。『人工知能が「生命」となるとき』(2020年11月 PLANETS)は哲学塾を展開する中で、PLANETS様からお声がけいただきメイルマガジンで2年弱連載させて頂いた論考をまとめたものである。毎月というわけにはいかず一年のはずの連載が延びてしまったが、哲学塾の成果を踏まえて集中した議論ができた。自分としてはとても気に入っている連載の集約である。

    https://amzn.to/4epUY9k

    2020年は博士論文執筆があり、そこから研究の領域はゲームから都市空間へと広がっていく。デジタルゲームの人工知能の技術は場と状況を創造・支配する技術であり、これを都市空間へと広げていくことについて『人工知能が「生命」となるとき』の執筆を通して構想した。2023年は単著を出すことができなかった原因は、自分の研究不足であろう。しかし、この時期には、人工知能学会誌、ゲンロン、ユリイカ、現代思想などに論考を多数投稿した。この論考群をまとめて出版して頂いたのが『人工知能のうしろから世界をのぞいてみる』(2024年7月 青土社)である。それぞれの章は独立しているので、話題はやや散漫とはいえ、これは自分の思想の軌跡の本として、一本筋が通っているのである。この5冊が哲学的な思索の成果である。

    https://amzn.to/3Cm8P32

    人工知能と人工知性」(2017年3月 詩想舎)は編集者の神宮司さんのお力で、キーワード解説形式で人工知能の根底にある概念について解説した書籍である。電子版が主体であるが、オンディマンドで紙面としても入手できる。英語版「AI meets Philosophy: how to design the Game AI, iCardbook」(2019年10月SHISOUSHA)も出版させて頂いた。ただ英語の本としてはこの一冊だけで、他に英語圏で出版できていないのは大きな反省点である。

    https://amzn.to/40zeTiO

    https://amzn.to/4hDCXXV

    以上、自分の書籍ヒストリーを紹介してきた。それは自分の成果を示すと同時に、いや、それ以上に自分の欠点を如実に示すものである。それが自分にとっての執筆の効用でもある。英語の書籍を出せていないこと、世間一般に広く書籍が行き渡っていないこと、物語を出せていないこと、などは反省の中核であり、この反省を糧にこれから精進・成長していきたい。最後まで読んでいただき、ありがとうございます。

    付録:著作リスト

    (単著)
    1. 「人工知能のための哲学塾」(単著)2016年8月 BNN新社
    2. 「人工知能の作り方」(単著)2016年12月 技術評論社
    3. 「人工知能と人工知性」(単著)2017年3月 iCardbook
    4. 「なぜ人工知能は人と会話ができるのか」(単著)2017年7月 マイナビ出版
    5. 「人工知能のための哲学塾 東洋哲学篇」(単著)2018年4月 BNN新社
    6. 「ゲームAI技術入門」(単著)2019年9月 技術評論社
    7. AI meets Philosophy: how to design the Game AI, iCardbook, (単著)2019年10月 SHISOUSHA (「人工知能と人工知性」の英語翻訳版)
    8. 「人工知能が「生命」となるとき」(単著)2020年11月 PLANETS
    9. 「戦略ゲームAI解体新書」(単著)2021年10月 翔泳社
    10. 「ボードゲームでわかる! コンピュータと人工知能のしくみ」(単著)2022年11月 東京書籍
    11. 「人工知能のうしろから世界をのぞいてみる」(単著)2024年7月 青土社

    (共著)
    1. 「ゲーム情報学概論- ゲームを切り拓く人工知能」(共著)2018年4月 コロナ社
    2. 「デジタルゲームの教科書」(共著)2010年5月 ソフトバンク クリエイティブ
    3. 「デジタルゲームの技術」(共著)2011年7月 ソフトバンク クリエイティブ
    4. 「絵でわかる人工知能」(共著)2016年9月ソフトバンク クリエイティブ
    5. 「人工知能学大事典」(共著)2017年, 共立出版
    6. 「高校生のための ゲームで考える人工知能」(共著)2018年3月, 筑摩書房
    7. 「ベルクソン『物質と記憶』を再起動する――拡張ベルクソン主義の諸展望」(共著)2018年12月, 書肆心水
    8. 「FINAL FANTASY XV の人工知能」(筆頭著者、共著)2019年5月ボーンデジタル社
    9. 「AI事典」(共著)2019年12月 近代科学社
    10. 「人工知能のための哲学塾 未来社会篇」(共著)2020年7月 BNN新社
    11. 「キャラクタアニメーションの数理とシステム – 3次元ゲームにおける身体運動生成と人工知能 -」(共著)2020年7月 コロナ社
    12. 「私たちはAIを信頼できるか」(共著)2022年9月 文藝春秋
    13. 「人工知能はナイチンゲールの夢を見るか?」(共著)2022年9月 日本看護協会出版会
    14. 「ゲームAIの新展開」(共著) 2023年7月 オーム社
    15. 「未来社会と「意味」の境界」(共著)2023年8月 勁草書房
    16. 「スクウェア・エニックスのAI」(筆頭著者、共著)2024年7月ボーンデジタル社

    (監修)
    1. 「ゲームプログラマのためのC++」 (監修)2011年12月 ソフトバンク クリエイティブ
    2. 「C++のためのAPIデザイン」(監修)2012年11月 ソフトバンク クリエイティブ
    3. 「マンガでわかる人工知能」(監修) 2017年7月 池田書店
    4. 「マンガでわかる! 楽しく読める人工知能」(監修)2018年6月impress QuickBooks
    5. 「最強囲碁AI アルファ碁 解体新書」(監修) 2018年7月 翔泳社
    6. 「図解 AIとテクノロジーの話」(監修) 2018年11月, 日本文芸社
    7. 「世界設計の方法 ゲーム体験とユーザーインターフェイス」(監修・執筆)雑誌「アイデア」395号,2021年9月,誠文堂新光社

    【三宅陽一郎】
    1975年生まれ、兵庫県出身。 京都大学総合人間科学部卒業、大阪大学大学院理学研究科修士課程を経て、東京大学大学院工学系研究科 博士課程単位取得満期退学。 博士(工学、東京大学)。 デジタルゲームにおける人工知能の開発・研究に従事し、立教大学大学院人工知能科学研究所特任教授・東京大学生産技術研究所特任教授を務める。


    三宅陽一郎さんありがとうございました!
    圧倒的な数のAI関連ご著書を一気にご紹介いただきました。
    三宅さんの本寄稿は「AICUマガジン Vol.6」に収録されています。
    ペーパーバック版もしっかりとした厚みと重みで発売予定です。

    画像

    https://j.aicu.ai/MagV6

    最新刊「人工知能と哲学と四つの問い」もイベントが予定されています。

    2024/12/10『人工知能と哲学と四つの問い』発刊記念トークライブ
    開催日時:2024年12月10日(火)19時30分~
    登壇者:三宅陽一郎先生×清田陽司先生×大内孝子さん


    この記事の続きはこちらから https://note.com/aicu/n/nd56c0060bde0

    Originally published at https://note.com on Nov 9, 2024.

  • [ComfyMaster33] 便利LoRA: Envy Zoom Slider XLで画角調整しよう!

    プロンプトで画角を指定しても、思ったような画角にならないといった体験をしたことはありませんか?もっと直感的に画角を調整したいですよね。
    そんな画角調整を可能にするのが「Envy Zoom Slider XL 01」です。「Envy Zoom Slider XL 01」は、画角調整の自由度を飛躍的に向上させる革新的なLoRAとして注目を集めています。


    この記事の続きはこちらから https://note.com/aicu/n/n3b1ef1cc3fac

    Originally published at https://note.com on Nov 8, 2024.

  • [ComfyMaster32] AWS上にComfyUI環境を構築しよう!(業務用)

    AWS上にComfyUI環境を構築しよう!
    3回に渡ってお送りしているAWS編。ホビーとしての画像生成を超えて、プロ向けかつコスト効果大なAWSクラウドサービス上でのComfyUI環境の構築を解説しています。最終回はマルチユーザーでの利用や認証、「業務用」として「業務利用での設定」をしっかりと解説していきます。

    ※チームでComfyUIを使う必要がある方に向けたプロ向け記事ですので本来は有料設定するべきですが、「祝!AWS ジャパン生成AI実用化推進プログラム採択」キャンペーンで期間限定でリポストで無料とさせていただいております。またこの内容はColoso「ComfyUIマスター:カスタムノードとアプリ開発」や近日発売予定の書籍に収録される予定です。動画メディアや書籍メディアで学びたい方はそちらもオススメいたします!

    ユーザーの作成

    AWS SageMaker Studio を使ったデフォルト設定のComfyUIにアクセスすると、まずログインを求められます。デプロイオプションでセルフサインアップを有効化している場合は、この画面からサインアップが可能ですが、デフォルトでは無効化されています。この場合は、ユーザー認証を担当するAWSのサービス「Cognito」からアカウントを直接作成しましょう。

    画像

    Cognitoのユーザープール、つまりログインできるユーザーの一覧を表示します。ここには、「ComfyUIuserPool〜」という名称のユーザープールが作られていますので、それをクリックします(以下の画像では2つありますが、初回の実行では1つしかないはずです)。

    画像

    表示された画面を下にスクロールすると、ユーザーセクションが見えます。初期状態では誰もユーザーが居ないので、「ユーザーを作成」ボタンをクリックして作成します。

    画像

    ユーザーアカウントの新規作成画面が開きます。ここで、ユーザー名とパスワードを入力し、最後に「ユーザーを作成」ボタンをクリックします。

    画像

    そうすると、新規ユーザーが追加されます。このユーザーでComfyUIにログインすることができます。

    画像

    ComfyUIへのログイン

    それでは、先ほど作成したユーザー名とパスワードでログインします。

    画像

    パスワードの変更が求められるので、新規パスワードを入力し、「Send」ボタンをクリックしてください。

    画像

    そうすると、ComfyUI画面が開き、ComfyUIを使えるようになります。

    画像

    ComfyUI Workspace Managerのインストール

    AWSの場合、ComfyUIにモデルやワークフローの追加をするためには、SSHで接続する必要がありますが、毎回接続するのは手間ですし、ITに詳しくない人も使用することを考えると、あまり良い手段とは言えません。
    そこで、「ComfyUI Workspace Manager」を使用します。このカスタムノードは、ワークフローの管理やモデルのインストールをComfyUI上で行えるようにするカスタムノードです。ComfyUI  Managerから、このカスタムノードをインストールしてください。

    https://github.com/11cafe/comfyui-workspace-manager

    Workspace Managerをインストールすると、左上にフォルダアイコンと「Model」と表示されます。

    画像

    Workspace Managerからのモデルのインストール

    「Model」をクリックすると、以下のようにCivitAIから取得されたモデル一覧が表示されます。ここから各モデルの「Install」ボタンをクリックするだけで、モデルをインストールできます。
    しかし、CivitAIのモデルの中には、ログインしていないとダウンロードできないモデルもあります。その場合は、右上の「Set Civitai API Key」をクリックし、表示されたダイアログにCivitAIで取得したAPIキーを設定することで、ログインが必要なモデルのダウンロードも可能になります。

    画像

    ※Civitaiの業務での利用については弁護士や各事業のAIコンプライアンスを担当する事業法務にご確認を推奨します。

    Workspace Managerでのワークフローの管理と生成画像の一覧表示

    Workspace Managerでは、左上のフロッピーアイコンをクリックすると、ワークフローを保存することができます。

    画像

    保存されたワークフローは、フォルダアイコンをクリックすると開かれる画面で管理できます。

    画像

    ワークフローを保存すると、左上に写真アイコン(ギャラリー)が増えます。ここでは、現在開いているワークフローで生成された画像の一覧を確認できます。

    画像

    ギャラリーを開くと、以下のように生成した画像一覧を閲覧できます。また、ここから画像をクリックすると、画像が別タブで開くので、そこで画像をダウンロードできます。

    画像

    画像ファイルをスWebsocketで外部保存するようなテクニックについては既にこの連載で扱ってきましたのでご参照ください。

    デプロイオプションの変更

    前回は、構築を行う前に、セルフサインアップや自動シャットダウンなどの設定はデフォルトのまま実行しました。ここから先はデプロイオプションの内容を確認しましょう。
    最新のオプションはこちらのURLに資料があります。

    https://github.com/aws-samples/cost-effective-aws-deployment-of-comfyui/blob/main/docs/DEPLOY_OPTION.md

    app.pyでパラメーターを変更することで構成します。
    https://github.com/aws-samples/cost-effective-aws-deployment-of-comfyui/blob/main/app.py

    app.pyでの値の変更方法

    app.pyファイル内でパラメーターを設定します。例えば、self_sign_up_enabled=Trueと設定することでセルフサインアップを有効にできます。その後、新しい設定で再デプロイするために以下のコマンドを実行します。

    npx cdk deploy

    セキュリティ関連の設定: セルフサインアップの有効化

    ユーザーがアプリに簡単にオンボード(利用開始)できるようにするにはセルフサインアップを有効にします。self_sign_up_enabledをTrueに設定します(デフォルトはFalseです)。

    comfy_ui_stack = ComfyUIStack(
        ...
        # Override Parameters
        self_sign_up_enabled=True,
        ...
    )

    MFAの有効化

    MFA(多段階認証)をユーザーに強制するには、mfa_requiredをTrueに設定します(デフォルトはFalseです)。

    comfy_ui_stack = ComfyUIStack(
        ...
        # Override Parameters
        mfa_required=True,
        ...
    )

    サインアップ可能なメールアドレスのドメインを制限

    許可するドメインのリストをallowed_sign_up_email_domainsに設定します。Noneの場合、制限はありません。[]の場合、すべてのドメインが禁止されます。

    comfy_ui_stack = ComfyUIStack(
        ...
        # Override Parameters
        allowed_sign_up_email_domains=["amazon.com", "amazon.co.jp"],
        ...
    )

    AWS WAFによるIPアドレス制限

    アプリケーションへのアクセスをIPアドレスで制限するには、allowed_ip_v4_address_rangesおよびallowed_ip_v6_address_rangesにCIDR範囲を指定します。

    comfy_ui_stack = ComfyUIStack(
        ...
        # Override Parameters
        allowed_ip_v4_address_ranges=["192.168.0.0/24"],
        allowed_ip_v6_address_ranges=["2001:0db8::/32"],
        ...
    )

    SAML認証の有効化

    SAML認証を使用するためにSAMLの設定を有効にします。これによりCognitoによる従来の認証機能は無効になります。

    comfy_ui_stack = ComfyUIStack(
        ...
        # Override Parameters
        saml_auth_enabled=True,
        ...
    )

    コスト関連の設定: スポットインスタンス

    非クリティカルなワークロードでコスト削減を目的として、スポットインスタンスを使用できます。use_spotをFalseに設定すると無効にできます。スポット価格の上限をspot_priceで指定します。

    comfy_ui_stack = ComfyUIStack(
        ...
        # Override Parameters
        use_spot=True,
        spot_price="0.752"
        ...
    )

    自動またはスケジュールでのスケールダウン

    インスタンスをゼロまでスケールダウンしてさらにコストを削減できます。1時間の活動がない場合に自動でスケールダウンするには、auto_scale_downをTrueに設定します。

    comfy_ui_stack = ComfyUIStack(
        ...
        # Override Parameters
        auto_scale_down=True,
        ...
    )

    スケジュールでスケールアップ/ダウンするには、schedule_auto_scalingをTrueに設定し、タイムゾーンとスケジュールを指定します。

    comfy_ui_stack = ComfyUIStack(
        ...
        # Override Parameters
        schedule_auto_scaling=True,
        timezone="Asia/Tokyo",
        schedule_scale_up="0 8 * * 1-5",
        schedule_scale_down="0 19 * * *",
        ...
    )

    NATインスタンスの使用

    NATゲートウェイの代わりにNATインスタンスを使用するには、cheap_vpcをTrueに設定します。

    comfy_ui_stack = ComfyUIStack(
        ...
        # Override Parameters
        cheap_vpc=True,
        ...
    )

    カスタムドメインの使用

    カスタムドメインを利用するには、事前にRoute53のパブリックホストゾーンが作成されている必要があります。host_name、domain_name、hosted_zone_idの値をapp.pyで指定します。

    comfy_ui_stack = ComfyUIStack(
        ...
        # Override Parameters
        host_name="comfyui",
        domain_name="example.com",
        hosted_zone_id="XXXXXXXXXXXXXXXXXXXX",
        ...
    )

    運用コストを下げる技「自動スケールダウン」

    インスタンスを放置すると自動でスケールダウンして運用コストを下げることができます。Scale Up ボタンを押すと5~10分程度でインスタンスが起動し利用できるようになります。

    一方で、業務時間がはっきりしている実務で使う際は auto_scale_down を無効にして指定時刻で起動する方が使いやすいでしょう。

    短時間での起動は現状インスタンスを削除して起動し直しているため、実測で5分以上かかっていますが、この辺りは業務で使う皆様はフィードバックをいただければよりよい改善ができるかもしれません。

    最後に:まとめと謝辞

    このたびAICUは「AWS ジャパン生成 AI 実用化推進プログラム」に採択されました!

    クリエイティブAIで「つくるひとをつくる」をビジョンに、「わかるAIを届ける」をコンセプトに活動しているAICU mediaは、高い技術力と、わかりやすい記事を通して今後もより一層力を入れて、AWS(Amazon Web Services)の企業での社内開発やプロフェッショナル向けの使いこなし事例を当事者目線でお届けしていきます。

    本稿の執筆にあたり、ご協力いただいたAWS前川さん、ありがとうございました。

    ゲーム、広告、アニメ製作など、自社開発での画像生成の自社開発は見返りが大きいです。画像生成AIからプロフェッショナル業務でのオープンソース活用を盛り上げていきましょう!AICUもお手伝いいたします。
    お問い合わせは X@AICUai までDMでどうぞ。


    この記事の続きはこちらから https://note.com/aicu/n/na834888caa78

    Originally published at https://note.com on Nov 7, 2024.

  • [ComfyMaster31] AWS上にComfyUI環境を構築しよう!(準備編)

    こんにちわ!AICU media編集部です。
    AWS 生成 AI 実用化推進プログラム」に採択されました!

    クリエイティブAIで「つくるひとをつくる」をビジョンに、「わかるAIを届ける」をコンセプトに活動しているAICU mediaは、高い技術力と、わかりやすい記事を通して今後もより一層力を入れて、AWS(Amazon Web Services)の企業での社内開発やプロフェッショナル向けの使いこなし事例を当事者目線でお届けしていきます。


    あらためまして、こんにちわ、AICU media編集部です。
    ComfyUI マスターガイド」第30回目になります。
    本記事では、AWS上にComfyUI環境を構築するテクニックを詳細に解説します。お値打ち記事ですが、ちょっと長いので3編に分けて、お送りします!

    本シリーズの初回はこちら。前回はこちら目次はこちらです。

    AWS編第2回はこちら、「コスト効果大なComfyUIのAWSデプロイ(Cost Effective AWS Deployment of ComfyUI)」を準備していきます。

    「Cost Effective AWS Deployment of ComfyUI」

    つまり「お財布に痛くない、AWSでのComfyUI運用」というオープンソース(MITライセンス)のプロジェクトです。AWS公式サンプルとして公開されています。

    https://github.com/aws-samples/cost-effective-aws-deployment-of-comfyui/blob/main/README_ja.md

    このサンプルリポジトリは、強力な AI画像生成ツールである ComfyUI を AWS 上にシームレスかつコスト効率の高い方法でデプロイ(インストールして利用)するソリューションを提供しています。このリポジトリは、AWSの主要サービスであるECS(Amazon Elastic Container Service)や、EC2(Amazon Elastic Compute Cloud)、その他の AWS サービスを活用した構成の設定を無償提供しています。しかも日本語の解説付きです。

    このリポジトリの説明にもあるように、このソリューションの利用については AWS の費用が発生します。また設定次第では高額な費用になる可能性もあります。費用に関する詳細情報は、コスト セクションに記載されていますが、本記事では、まずAICU編集部での実用的な実験データで計測して共有していきたいと思います。

    AICUコラボクリエイター・Yasさんによる動画での解説冒頭はこちら

    動画での学びを求める方にはこちらがオススメです!

    https://j.aicu.ai/Coloso3

    それでは準備作業からはじめましょう

    (1) AWSのアカウントを作成
    (2) クォータの引き上げ申請
    (3) インストール環境をCode Editorで構築
    (4) デプロイオプションの変更
    (5) ComfyUI のデプロイ
    (6) 利用開始!

    (1)AWSアカウントの作成

    AWSを使用するためには、AWSのアカウントが必要になります。AWS公式が公開している以下の記事を参考にアカウントを作成しておいてください。

    https://aws.amazon.com/jp/register-flow

    IAMによる開発者アカウントの作成

    最初に作られるアカウントを「ルートユーザー」といいます。
    このユーザーは、アカウントの新規作成や削除、支払いなど全ての根幹的権限を持っていますので、操作するのはできるだけ短期間で終わらせたいところです。またパスワード等の流出によるリスクが大きすぎます。
    そこで、開発に頻繁に使うアカウントは分けておきたいと思います。

    AWSではこのユーザー作成及び管理を「AWS Identity and Access Management」つまり、「IAM」と呼ぶサービスで管理します。

    一番上の検索窓に「IAM」と打って、出てきたIAMの「主要な機能」から「ユーザー」を選びましょう。

    画像

    左側の「アクセス管理」→「ユーザー」でも構いません。

    画像

    ユーザ作成ボタンを押してください。
    この先、何か間違った?というときも「削除」を押せば元通りです。

    画像

    次はユーザー作成です。

    画像

    ユーザーの詳細を指定

    ・ユーザ名: 「ComfyUI-server」とします
    ・[チェックON] AWS マネジメントコンソールへのユーザーアクセスを提供する
    ・ユーザーにコンソールアクセスを提供していますか?
    →ユーザータイプ「IAMユーザーを作成」 でユーザーを指定する

    画像

    「次へ」を押すと「許可の設定」に移動します。

    画像

    ユーザーグループを設定します

    ここでは「ComfyUI-users」というAdministratorAccess権限のみを持ったユーザーグループを作成します。

    画像

    続いて、「ポリシーを直接アタッチする」を使って以下のポリシーをアタッチしてください。

    画像
    • ServiceQuotasFullAccess
    • AWSCloudFormationFullAccess
    • AmazonEC2FullAccess
    • IAMFullAccess
    • AWSCloudTrail_FullAccess
    • AmazonSageMakerFullAccess
    • AWSLambda_FullAccess
    • AWSAppSyncPushToCloudWatchLogs

    ※ここでは詳細な権限設定を考えるべきですが、設定の簡易のために、いったん「AdministratorAccess」と続く設定で必要となる権限のFullAccessのみを設定してすすめます。

    次のステップ「パスワードの取得」で、ユーザーのAWS マネジメントコンソールにサインインするための手順とパスワードを取得できます。

    画像

    「コンソールパスワード」の表示をして、ブラウザの別ユーザのウインドウでコンソールサインインURLにアクセスします。このURLの冒頭の12桁の数字がアカウントIDです。

    画像

    あらかじめ設定されたパスワードでの初回ログインが終わると、パスワード変更を求められます。ここでのパスワード設定は、英数大文字、数字、記号など、高い難度でお願いします。

    MFA(多要素認証)デバイスの設定もしておくことをおすすめします。

    作成したアカウントでAWSダッシュボードに入れるようになったら次のステップです。
    ここまでの作業を単純化したい場合は、次のステップでは、ルートユーザーでログインします(非推奨)。

    (2)スポットインスタンスの上限解放

    今回使うこのリポジトリでは、GPUのスポットインスタンス「All G and VT Spot Instance Requests」を使用しますが、このスポットインスタンスの上限のデフォルトは0であり、このままでは使用できません。さらに、この上限は自由に設定できるものではなく、AWSのサポートで変更してもらう必要があります。そのため、ここではスポットインスタンスの上限解放のリクエストを送る方法を説明します。

    まず、AWSに作成したユーザー(もしくはルートユーザー)でログインし、トップページに当たる「コンソールのホーム」画面を表示します。
    https://console.aws.amazon.com/console/home

    画像

    次にリージョン(地域)を選択します。
    右上のプルダウンで選ぶことができます。

    画像

    ここでは「us-west2」(オレゴン)を選んでおきましょう。
    新しい機械学習サービスなどが入りやすく、利用しやすい価格になっている事が多いためです。もちろん東京リージョンのほうが良い、など都合に合わせていただいて構いません。

    次に左上の検索ボックスに「service quotas」と入力し、表示されたサービス一覧から「Service Quotas」を選択します。

    こちらのURLでもアクセスできます。

    https://us-west-2.console.aws.amazon.com/servicequotas/home/services

    画像
    画像

    Service Quotasの画面が開くので、左サイドメニューから「AWSのサービス」を選択します。

    画像

    AWSのサービス一覧画面が表示されるので、上部の検索バーに「ec2」と入力し、下部のサービス一覧から「Amazon Elastic Compute Cloud (Amazon EC2)」を選択します。

    画像

    もしこのタイミングで以下のような画面になる場合は、必要な権限「ServiceQuotasFullAccess」が足りません(一つ前のステップを確認してきてください)。

    画像

    EC2のスポットインスタンス一覧が表示されるので、一覧から「All G and VT Spot Instance Requests」にチェックを入れ、右上の「アカウントレベルでの引き上げをリクエスト」をクリックします。

    画像

    表示されたダイアログボックスの左中央にある「クォータ値を引き上げる」の入力欄に「4」と入力し、下部の「リクエスト」ボタンをクリックします。

    画像

    ※ここでクォータ値が「4」以上になっている場合は、すでに同一アカウントでクォータの引き上げが実施されています。申請する必要はありません。

    「リクエスト」すると画面上部に「Submitting Quota increase request for All G and VT Spot Instance Requests with requested Value of 4.」と表示され、リクエストの送信が行われます。

    画像

    しばらくすると、AWSサポートより以下のような文面のメールが送信されてきます。おそらく人力で確認が実施されているようです。

    ご担当者様

    以下内容にて上限緩和申請を受領いたしました。

    [US West (Oregon)]: EC2 Spot Instances / All G and VT Spot Instance Requests, 新しい上限数 = 8

    現在、担当部署にて当上限緩和の申請内容について確認しております。
    進歩があり次第ご連絡いたしますので、今しばらくお待ちいただきますようお願いいたします。
    ※確認作業のためお時間をいただく場合がございます、予めご了承くださいませ

    Amazon Web Services

    さらにしばらくすると、上限緩和リクエストが受理された内容のメールが届きます。これで上限緩和が完了になります。

    ご担当者様

    以下内容にて、ご依頼いただきました上限緩和リクエストの設定が完了いたしました。
    反映されるまでに30分ほどかかる場合がございますことご了承くださいませ。

    [US West (Oregon)]: EC2 Spot Instances / All G and VT Spot Instance Requests, 新しい上限数 = 8

    何卒よろしくお願いいたします。
    Amazon Web Services

    (3) インストール環境をCode Editorで構築

    クォータの申請が終わったらしばらく時間がありますので、ここで一休みしても良いのですが、せっかくなのでもうちょっとだけ進めていきましょう。

    続いてのステップはインストール環境の構築です。
    cost-effective-aws-deployment-of-comfyuiの環境構築方法には、ローカル環境で行う方法と、SageMakerで行う方法があります。ローカル環境を使ったインストールは、ユーザー個々の環境でブレが大きく「おま環」(=「お前の環境だけで起こっている」)になりがちです。
    そのため最近の多くのAWSセットアップ手順では、SageMaker Studioでセットアップを行う手順が推奨されています。
    せっかくなので今回も、SageMaker Studioを体験しつつ、SageMaker Studio上で環境構築していきましょう!

    SageMaker Studioの起動

    SageMakerには、テンプレートが用意されています。このテンプレートを利用することで、最初からdockerやコードエディターなどの環境がインストールされた状態でSageMaker Studioを立ち上げられます。以下のリンクよりテンプレート用のリポジトリにアクセスしてください。

    https://github.com/aws-samples/sagemaker-studio-code-editor-template

    リポジトリにアクセスし、下の方にスクロールすると、「Deploymet (1-click)」という項目があることが確認できます。ここから好きなリージョンの「Launch Stack」ボタンを押下することで、そのリージョンでSageMaker Studioを起動できます。今回は、us-west-2を起動します。

    画像
    画像

    AWSにログイン済みの場合、以下のような画面が表示されます。

    画像

    AWSダッシュボードにログインできるにも関わらず、以下のような画面が表示された場合は、CloudFormationに関する必要な権限が足りません。一つ前のステップを確認するか、ルートユーザーで「AWSCloudFormationFullAccess」の権限追加を行ってください。

    画像

    さて、正しく権限がある場合は、ここで以下のパラメータ設定を行えます。

    画像
    • AutoStopIdleTimeInMinutes: SageMaker Code Editorが自動で停止するまでの時間を設定します。デフォルトは120分で、起動してから120分後にCode Editorが停止します。今回は、120分あれば十分なので、120分に設定します。
    • EbsSizeInGb: Code Editorで使用する容量を設定します。今回、Code EditorはIDEとしてデプロイを行うためだけに使用するため、デフォルトの容量「20GB」で問題ありません。
    • InstanceType: Code Editorを起動するインスタンスを設定します。デフォルト設定は「ml.t3.medium」で、選択できるインスタンスの中で最も性能が低いものになりますが、インストールのみに使用するので、これで問題ありません。
    • UseDefaultVpc: 各リージョンにデフォルトで用意されているVPCを利用するかどうかを決定します。デフォルト設定は「true」で、デフォルトのVPCを利用する設定になっています。デフォルトのVPCを使用したくない理由がなければ、デフォルト設定のままで問題ありません。

    上記の設定後に、下部の「AWS CloudFormation によって IAM リソースがカスタム名で作成される場合があることを承認します。」にチェックを入れ、「スタックの作成」ボタンをクリックします。

    そうすると、CloudFormationが実行され、SageMaker Studioの環境構築が行われます。

    画像

    しばらくすると、ステータスが「CREATE_IN_PROGRESS」から「CREATE_COMPLETE」に変わり、SageMaker Studioの環境構築が完了します。

    画像

    もしROLLBACK_FAILDEDというエラーになった場合は、「SageMakerStudio」に関する必要な権限が足りません。

    画像

    この場合はいったんこのCodeEditorStackを「削除」して、ルートユーザー必要な権限を追加してきてください。

    https://docs.aws.amazon.com/ja_jp/IAM/latest/UserGuide/troubleshoot_roles.html

    理解のために CodeEditorStack.template.yaml を使ってChatGPT等に訊いてみるのもよいでしょう。

    このCloudFormationのデプロイに必要なARNを教えて

    1. EC2関連の権限必要な権限:
    ec2:CreateVpc, ec2:DescribeVpcs, ec2:CreateSubnet, ec2:DescribeSubnets
    ec2:CreateInternetGateway, ec2:AttachInternetGateway
    ec2:CreateRouteTable, ec2:CreateRoute, ec2:AssociateRouteTable
    理由: VPCやサブネット、ルートテーブルを作成し、インターネットゲートウェイをアタッチするために必要です。
    2. IAM関連の権限必要な権限:
    iam:CreateRole, iam:AttachRolePolicy, iam:PutRolePolicy, iam:PassRole
    理由: LambdaやSageMaker Studioの実行用ロール作成とポリシーのアタッチ、およびPassRole権限を必要とする可能性があります。
    3. SageMaker関連の権限必要な権限:
    sagemaker:CreateDomain, sagemaker:CreateUserProfile, sagemaker:CreateApp, sagemaker:DescribeDomain, sagemaker:DeleteDomain
    理由: SageMaker Studioのセットアップに必要な権限です。ドメイン、ユーザープロファイル、アプリの作成・削除を行うために必要です。
    4. CloudWatch Logs関連の権限必要な権限:
    logs:CreateLogGroup, logs:CreateLogStream, logs:PutLogEvents
    理由: Lambda関数の実行時にCloudWatch Logsへ出力するために必要です。
    5. Lambda関連の権限必要な権限:
    lambda:CreateFunction, lambda:InvokeFunction, lambda:DeleteFunction
    理由: CloudFormationスタックでLambda関数を作成・実行・削除するために必要です。
    6. CloudFormation関連の権限追加の権限として AWSCloudFormationFullAccess が必要ですが、他にも以下のような権限を確認してください:
    cloudformation:DescribeStacks, cloudformation:ListStackResources
    これらはスタックの管理に必要です。

    7. Service Quotas関連の権限すでにServiceQuotasFullAccessが提案されていますが、サービスクォータの確認と調整が必要な場合はこれを付与します。

    • AmazonEC2FullAccess
    • IAMFullAccess
    • AWSCloudTrail_FullAccess
    • AmazonSageMakerFullAccess
    • AWSLambda_FullAccess
    • AWSAppSyncPushToCloudWatchLogs

    以上のような権限があれば設定できるはずです。
    ※どうしてもうまく行かない場合はルートユーザーで実験しましょう。

    さて、デプロイに成功している場合、ここで「出力」タブを選択すると、「SageMakerStudioUrl」が出力されていることが確認できます。この値にあるURLを選択します。

    画像

    そうすると、SageMakerの画面が開きます。

    画像

    「Skip Tour for now」して、左上に5-6個のアイコンが並んでいるところから、「Code Editor」を選択します。

    画像

    Code Editorの起動画面に遷移します。既に起動中のCode Editorがあるので、このCode Editorの「Open」をクリックします。

    画像

    SageMaker Code Editorの画面が開きます。これでSageMakerの準備ができました。

    画像

    Microsoft の Visual Studio Code (vscode) そっくりですが、そもそも vscode もオープンソースです。こちらは「SageMaker Code Editor」というプロジェクトのようです。

    画像

    (4) デプロイオプションの変更

    今回はまずデプロイオプションの変更は行わずに、デフォルト状態でのデプロイを実験していきます。

    今回の手順では企業等での利用を想定して、ユーザーIDとパスワードによるログインを必須としています。この状態で問題なければ次のステップに進んでいただいて構いません。

    以下はセルフサインアップや自動シャットダウンなどの設定を行うデプロイオプションの変更点です。デプロイオプションは、主にcdk.jsonの内容を編集することで設定可能です。

    セルフサインアップの有効化

    Cognitoのセルフサインアップは、ログイン画面で新規アカウントをアクセスしたユーザーが作成することを可能とします。セルフサインアップの有効化は、cdk.jsonのコンテキストでselfSignUpEnabledをtrueに設定します。デフォルトはfalseですので「今回の手順でいますぐ使いたい!」という方はtrueにしておきましょう。

    {
      "context": {
        "selfSignUpEnabled": true
      }
    }

    MFAの有効化

    ユーザーの多段階認証 (MFA) を有効化します。MFAの有効化は、cdk.jsonのコンテキストでmfaRequiredをtrueに設定します(デフォルトはfalseです)。

    {
      "context": {
        "mfaRequired": true
      }
    }

    サインアップ可能なメールアドレスのドメインを制限

    allowedSignUpEmailDomainsコンテキストで、許可するドメインのリストを指定できます(デフォルトはnull)。文字列リストとして値を指定し、”@”シンボルは含めません。メールアドレスのドメインが許可ドメインのいずれかに一致する場合、ユーザーはサインアップ可能です。nullを指定すると制限なしで全ドメインが許可され、[]を指定すると全ドメインが禁止され、どのメールアドレスもサインアップできません。

    設定されると、許可されていないドメインからのユーザーは「アカウント作成」でエラーが表示され、サインアップが阻止されます。この設定は既存のCognitoユーザーには影響しません。新規サインアップやユーザー作成のみに適用されます。

    例:amazon.comドメインのメールアドレスでのみサインアップを許可する場合

    {
      "context": {
        "allowedSignUpEmailDomains": ["amazon.com"] 
      }
    }

    IPアドレス制限

    IPアドレスでWebアプリケーションへのアクセスを制限するために、AWS WAFを使用してIP制限を有効にできます。cdk.json内のallowedIpV4AddressRangesに許可するIPv4 CIDR範囲の配列、allowedIpV6AddressRangesに許可するIPv6 CIDR範囲の配列を指定します。

    { 
     "context": {
        "allowedIpV4AddressRanges": ["192.168.0.0/24"],
        "allowedIpV6AddressRanges": ["2001:0db8::/32"]
      }
    }

    SAML認証

    Google WorkspaceやMicrosoft Entra ID(旧称Azure Active Directory)などのIdPによって提供されるSAML認証機能と統合することができます。

    samlAuthEnabled: trueに設定すると、SAMLのみの認証画面に切り替わります。Cognitoユーザープールを使用した従来の認証機能は利用できなくなります。

      "samlAuthEnabled": true

    スポットインスタンス

    重要でないワークロードでコストを削減するためにスポットインスタンスを使用できます(デフォルトはtrue)。コンテキストでuseSpotをfalseに設定して無効にすることも可能です。また、spotPriceを変更してスポット価格を指定できます。スポット価格がspotPrice以下である場合のみインスタンスが利用可能です。

    {
      "context": {
        "useSpot": true,
        "spotPrice": "0.752"
      }
    }

    自動またはスケジュールでのスケールダウン

    コストをさらに削減するために、インスタンスをゼロにスケールダウンできます。

    例:活動が1時間ない場合に自動でスケールダウンするには、autoScaleDownをtrueに設定します。

    {
      "context": {
        "autoScaleDown": true
      }
    }

    これで自動でスケールダウンしてくれるようになります。

    • スケジュール(例: 勤務時間)でスケールダウン/アップするには、scheduleAutoScalingをtrueに設定します。timezone、scheduleScaleUp、scheduleScaleDownでスケールアップ/ダウンのスケジュールを指定できます。
    {
      "context": {
        "scheduleAutoScaling": true,
        "timezone": "Asia/Tokyo",
        "scheduleScaleUp": "0 9 * * 1-5",
        "scheduleScaleDown": "0 18 * * *"
      }
    }

    NATインスタンスの使用

    NATインスタンスは、NATゲートウェイと比較して安価ですが、利用可能性とネットワークスループットが制限されています。詳細はNATゲートウェイとNATインスタンスの比較を参照してください。

    デフォルトでNATインスタンスが使用されます。cheapVpcをfalseに設定すると、NATゲートウェイに変更できます。

    {
      "context": {
        "cheapVpc": false
      }
    }

    カスタムドメインの使用

    カスタムドメインをサイトのURLとして使用できます。Route53のパブリックホストゾーンがすでに同じAWSアカウントで作成されている必要があります。パブリックホストゾーンの詳細については以下を参照してください:Working with Public Hosted Zones – Amazon Route 53

    同じAWSアカウントにパブリックホストゾーンがない場合は、手動でのDNSレコードの追加やAWS ACMでのSSL証明書の検証中にメール認証を利用することも可能です。これらの方法を使用する場合、CDKドキュメントを参照し、適宜カスタマイズしてください:aws-cdk-lib.aws_certificatemanager module · AWS CDK

    cdk.jsonで以下の値を設定します。

    • hostName … サイトのホスト名。AレコードはCDKによって作成され、事前作成は不要
    • domainName … 事前に作成されたパブリックホストゾーンのドメイン名
    • hostedZoneId … 事前に作成されたパブリックホストゾーンのID
    {
      "context": {
        "hostName": "comfyui",
        "domainName": "example.com",
        "hostedZoneId": "XXXXXXXXXXXXXXXXXXXX"
      }
    }

    以上が主要な設定です。
    いまのタイミングでは見直す必要はありませんが、後ほど使用環境にあわせて変更してみてください。

    (5) ComfyUI のデプロイ

    ComfyUIのデプロイの実行

    それでは、SageMaker Code Editorを使ってComfyUIのデプロイを実行します。Code Editorの左上にある3本線のアイコンをクリックし、Terminal->New Terminalの順に選択します。


    この記事の続きはこちらから https://note.com/aicu/n/ne119480439e8

    Originally published at https://note.com on Nov 6, 2024.

  • [ComfyMaster30] AWS上にComfyUI環境を構築しよう!(知識編) 

    こんにちわ!AICU media編集部です。
    このたびAICUは「AWS ジャパン 生成AI 実用化推進プログラム」に採択されました!

    クリエイティブAIで「つくるひとをつくる」をビジョンに、「わかるAIを届ける」をコンセプトに活動しているAICU mediaは、高い技術力と、わかりやすい記事を通して今後もより一層力を入れて、AWS(Amazon Web Services)の企業での社内開発やプロフェッショナル向けの使いこなし事例を当事者目線でお届けしていきます。


    この記事の続きはこちらから https://note.com/aicu/n/nf89a72982ddb

    Originally published at https://note.com on Nov 5, 2024.

  • [ComfyMaster29] 参照画像でAIをコントロール!IPAdapterの使い方

    理想のビジュアルをAIに伝えたいのに、テキストだけでは限界を感じていませんか?
    IPAdapterなら、参照画像を使って視覚的に指示できます。

    こんにちわ、AICU media編集部です。
    ComfyUI マスターガイド」第29回目になります。
    本記事では、1枚の画像から高度に画風を適用できる「IPAdapter」(アイピーアダプター)の解説です。例えば、「劇画風のしらいはかせ」画像を使うとこんな画像がプロンプトだけで生成できます。

    画像

    本稿ではIPAdapterの仕組みとComfyUIでの活用方法をステップバイステップで解説し、参照画像に基づいた高品質な画像生成を行えるようになることを目指します。気になる倫理面についても配慮していきましょう。

    本連載の初回はこちら。前回はこちら、目次はこちらです。

    [ComfyMaster28] 落書きが画像に!ControlNet Scribble入門 #ComfyUI

      1. 概要

      IPAdapterは、テキストプロンプトに加えて参照画像を入力することで、AIによる画像生成をより精密に制御する技術です。画像のスタイル、特定の視覚要素、全体的な構図など、テキストでは表現しきれないニュアンスをAIに伝えることを可能にし、生成画像の品質、一貫性、再現性を向上させます。

      本記事では、IPAdapterの仕組み、ComfyUI上での具体的なワークフロー、そして生成結果を通して、その効果と活用方法を解説します。蝶の画像を参考に人物画像を生成する例を通して、IPAdapterの強度や適用方法による変化、linear、style transfer、ease_inといった異なる重みタイプの効果の違いを検証します。

      2. IPAdapterとは

      IPAdapterは、テキストベースのプロンプトと視覚的な参照画像を組み合わせることで、AIに対してより詳細で正確な指示を与えることを可能にする技術です。この手法により、生成される画像の品質、スタイルの一貫性、特定の視覚要素の再現性が大幅に向上します。

      技術的背景

      IPAdapterの核心は、画像エンコーダーとテキストエンコーダーの出力を効果的に統合する能力にあります。この過程は以下のように要約できます。

      1. 画像エンコーディング: 入力された参照画像は、畳み込みニューラルネットワーク(CNN)などの画像エンコーダーによって処理され、高次元の特徴ベクトルに変換されます。
      2. テキストエンコーディング: 同時に、テキストプロンプトは言語モデルによって処理され、同じく高次元の特徴ベクトルに変換されます。
      3. 特徴の融合: 画像とテキストから得られた特徴ベクトルは、複雑な方法で結合されます。この過程では、注意機構(Attention Mechanism)などの技術が用いられることがあります。
      4. 潜在空間への投影: 融合された特徴は、Stable Diffusionの潜在空間に投影されます。この空間内で、画像生成プロセスが行われます。
      5. 画像生成: 最後に、潜在表現から実際の画像ピクセルへのデコードが行われ、最終的な出力画像が生成されます。

      IPAdapterの利点

      1. 精密な視覚情報の伝達: テキストだけでは表現しきれない細かいニュアンスや視覚的特徴を、AIモデルに効果的に伝達できます。
      2. スタイルの一貫性: 特定のアーティストのスタイルや、製品デザインなどを高い一貫性で再現することが可能です。
      3. 学習効率の向上: 新しい視覚概念や複雑な構図を、画像を通じてAIモデルに効率的に「教える」ことができます。
      4. 創造性の拡張: 視覚的なインスピレーションを直接AIに伝えることで、より革新的で予想外の結果を得られる可能性が高まります。

      3. ワークフローの使用準備

      カスタムノード

      • ComfyUI IPAdapter plus: IPAdapterをComfyUI上で使用できるようにしたカスタムノードです。ComfyUI Managerからインストール可能です。このカスタムノードの詳細を知りたい方は、以下のリポジトリを参照してください。

      https://github.com/cubiq/ComfyUI_IPAdapter_plus

      モデル

      • RealVisXL V5.0: 実写系を得意とするモデルで、商用利用可能(画像の販売、サービスへの組み込み可能)になります。このモデルを以下のリンクよりダウンロードし、「ComfyUI/models/checkpoints」フォルダに格納してください。

      https://civitai.com/models/139562/realvisxl-v50?modelVersionId=789646

      画像素材

      今回は、以下の画像をIPAdapterで参照します。

      画像

      画像ファイルは、以下よりダウンロードしてください。

      4. ワークフロー解説

      以下がワークフローの全体構成になります。

      GPU不要でComfyUIを簡単に起動できる
      AICU特製Colabノートブック(ConrolNetつき)はこちら
      https://j.aicu.ai/ComfyCN

      画像

      今回作成したワークフローのファイルは、文末のリンクよりダウンロードください。
      以下に、このワークフローの主要な部分とその機能を図示し、詳細に説明します。

      画像
      1. 入力画像の読み込みと前処理
        • Load Image ノード: 「butterfly_01.png」という画像を読み込みます。
      2. モデルとIP-Adapterの読み込み
        • Load Checkpoint ノード: 「RealVisXl.safetensors」モデルを読み込みます。
        • IPAdapter Model Loader ノード: 「ip-adapter-plus_sdxl_vit-h.safetensors」を読み込みます。
        • Load CLIP Vision ノード: 「CLIP-ViT-H-14-laion2B-s32B-b79K.safetensors」を読み込みます。
      3. プロンプト処理 (CLIP Text Encode ノード x2)
        • ポジティブプロンプト: 「realistic, photorealistic, 1girl, t-shirt, black_hair, long_hair,」
        • ネガティブプロンプト: 「bad hand, bad anatomy, worst quality, ai generated images, low quality, average quality, nsfw, nude, naked,」
      4. IP-Adapterの適用 (IPAdapter Advanced ノード)
        • 入力画像、IP-Adapter、CLIP Visionモデルを組み合わせて、元のStable Diffusionモデルを調整します。
        • 重み: 1.0 (IP-Adapterの最大影響力)
        • ノイズ追加方法: linear
        • モード: concat
        • 適用範囲: V only (Value embeddings only)
      5. 潜在画像の準備 (Empty Latent Image ノード)
        • サイズ: 1024×1024
        • バッチサイズ: 1
      6. 画像生成 (KSampler ノード)
        • Seed: 860227022998597
        • Steps: 20
        • CFG Scale: 8
        • Sampler: dpmpp_2m
        • Scheduler: karras
        • Denoise: 1.0 (完全に新しい画像を生成)
      7. 画像のデコードと保存
        • VAE Decode ノード: 生成された潜在表現を実際の画像にデコードします。
        • Save Image ノード: 最終的に生成された画像を “ipadapter” という名前で保存します。

      IPAdapter Model Loderと IPAdapter Advancedの拡大です。パラメーターの参考にどうぞ。

      画像

      5. 生成結果

      以下が生成結果になります。左がIPAdapter非適用の画像、右がIPAdapterの強度を0.50で適用した結果です。IPAdapterを適用することで、シャツに学習元である蝶の模様が浮かんだり、背景が自然の風景になっています。

      画像

      IPAdapter Advancedノードのweight_typeがlinearの場合の強度ごとの生成結果一覧です。0.80になると、蝶が全面に現れてしまい、人物がいなくなってしまいます。

      画像

      これをweght_typeをstyle transfer、強度を1.0に変更して生成してみました。style transferの場合は、蝶の形状自体は継承しないので、蝶が前面に現れることなく、蝶の模様のみが反映されています。参照元画像のスタイルだけを適用したい場合は、weght_typeをstyle transferにした方が効果的です。

      画像

      weght_typeがlinearやease_inなどのスタイルと形状の両方を参照させるタイプの用途は、例えば左のパーカーの画像を参照し、右の画像のように生成した人物に着せることが考えられます。しかし、あくまで参照なので、完全に左の洋服を再現することは難しいです。
      補足として、右の画像は、weght_typeをease_in、強度を9.5にして生成した画像です。ease_inにすることで、最初はIPAdapterの効きを弱くし、後から効果が上がるようにすることで、プロンプトを反映させつつ、IPAdapterの効果も効かせるようにしています。

      画像

      6. まとめと倫理面への配慮

      本記事では、ComfyUIとIPAdapterを用いて、参照画像に基づいた高品質な画像生成を行う方法を解説しました。IPAdapterは、テキストプロンプトだけでは難しい、微妙なニュアンスや視覚的特徴の再現を可能にします。特に、IPAdapterの強度調整とweight_typeの選択によって、参照画像の要素をどのように反映させるかを細かく制御できることを示しました。linearでは形状とスタイルの両方を、style transferではスタイルのみを、ease_inでは徐々にIPAdapterの効果を強めることで、プロンプトと参照画像のバランスを調整できることを実例を通して確認しました。

      これらの技術を活用することで、AIによる画像生成の可能性は大きく広がり、より創造的で自由な表現が可能になります。今後の展望として、更なるモデルの改良や新たなカスタムノードの登場によって、IPAdapterの適用範囲はますます拡大していくことが期待されます。より高度な活用方法の探求や、他のモデルとの組み合わせなど、更なる実験を通して、IPAdapterの潜在能力を引き出し、自身の創作活動に役立ててください。

      一方では、「IPAdapter」の名前からも、IP、すなわち知的財産やキャラクタービジネスにとっては、著作権法違反、つまり違法行為や迷惑行為の原因となる技術でもあります。「技術的に出来る/できない」といった視点とは別に、Load Imageにおいて利用する画像の権利や、客観的に見た「依拠性」や「類似性」についても評価を行っておく習慣は大切です。この解説の中でも、weightパラメーターが0.5以上であれば、それは元の画像と同じものに近くなっていきます。パラメータを0.5以上にすることは「原作に対する類似と依拠を同時に認めているという証拠」とも言えますので、画像生成を行う際には、その責任をしっかりと認識して利用してください。

      AICUでは画像生成AIクリエイター仕草(v.1.0)といった形で、モラル面も啓蒙活動を行っていますが、IPAdapterの使用についてはより高度な倫理観をもっていくことを推奨します。

      次はいよいよLoRA編がはじまります。
      そしてその前に、特別編が予定されています!
      X(Twitter)@AICUai もフォローよろしくお願いいたします!

      画像生成AI「ComfyUI」マスターPlan

      画像生成AI「Stable Diffusion」特に「ComfyUI」を中心としたプロ向け映像制作・次世代の画像生成を学びたい方に向けたプランです。最新・実用的な記事を優先して、ゼロから学ぶ「ComfyUI」マガジンからまとめて購読できます。 メンバーシップ掲示板を使った質問も歓迎です。

      • メンバー限定の会員証が発行されます
      • 活動期間に応じたバッジを表示
      • メンバー限定掲示板を閲覧できます
      • メンバー特典記事を閲覧できます
      • メンバー特典マガジンを閲覧できます
      • 動画資料やworkflowといった資料への優先アクセスも予定

      ゼロから学ぶ「ComfyUI」マガジン

      https://note.com/aicu/m/md2f2e57c0f3c

      マガジン単体の販売は1件あたり500円を予定しております。
      2件以上読むのであればメンバーシップ参加のほうがお得です!というのもメンバーシップ参加者にはもれなく「AICU Creator Union」へのDiscordリンクをお伝えし、メンバーオンリー掲示板の利用が可能になります。

      https://note.com/aicu/membership/boards/61ab0aa9374e/posts/db2f06cd3487?from=self

      もちろん、初月は無料でお試しいただけます!
      毎日新鮮で確かな情報が配信されるAICUメンバーシップ。
      退会率はとても低く、みなさまにご満足いただいております。
      ✨️オトクなメンバーシップについての詳細はこちら

      動画で一気に学びたい方は、こちらのColoso講座もオススメです

      ボーナストラック

      有料・メンバーシップ向けのボーナストラックには今回解説したワークフローの完成品ダウンロードリンクに加えて、お楽しみ画像です。

      某有名漫画家のアシスタントさんに書いていただいた劇画風しらいはかせをIPAdapterに使ったら…!?生成画像を収録しています。

      画像

      この記事の続きはこちらから https://note.com/aicu/n/nc6164bdae138

      Originally published at https://note.com on Nov 4, 2024.

    1. AICUマガジン Vol.6はエンタメ技術とAI特集!

      AICU Magazine Vol.6 「Entertainment x AI」

      「つくる人をつくる」あなたをアップデートするクリエイティブAIエンターテイメントマガジン「AICU Magazine Vol.6」特集は「Entertainment x AI」。

      【Kindleで無料】 https://j.aicu.ai/MagV6

      2024年9月26~29日に開催され、過去最多出展者数を記録した東京ゲームショウ(TGS2024)から、感情を分析するスマートウォッチ「OVOMIND」、新型モーションキャプチャー「NOKOV」、そしてレトロなガンシューティングゲームの機械学習技術によるリノベーション「タイムクライシス」、キャラクターデザイン、チャットボット、科学者の先端研究、そして、ゲームAIの研究開発を長年リードされてきた、三宅陽一郎氏をゲストライターにお迎えして構成します。

      【CONTENTS】
      Creative AI Trends – 2024 年10月
      特集: Entertainment x AI
      ・感情がゲームを動かす「OVOMIND」
      ・融合型モーションキャプチャー「NOKOV」
      ・懐かしの「タイムクライシス」AI 技術で再誕!?
      ・期間限定無料「ガンマミィ・ジェネレーター」を提供開始!
      ・全力肯定彼氏くん [LuC4] に訪れたサービス開始以来の最大の危機
      ・先端研究が挑む「AI 時代の創作」
      ・特別寄稿「著作を振り返って」三宅陽一郎(ゲーム AI 開発者・研究者)

      https://j.aicu.ai/MagV6

      「突撃レビュー!AIツール」
      ・日本語で魔法のように GAS 開発がはかどる「GASSISTANT」
      ・Stable Assistant Day1 無料トライアル 3 日間でこんなにお得!?
      ・Stable Assistant Day2 案件に AI で提案してみた
      ・Stable Assistant Day3 商用利用と倫理 TIPS
      ・「CGWORLD vol.315」画像生成 AI による表紙メイキング、大公開。

      「イベントレポート」
      ・ComfyUI を開発する「Comfy Org」が東京・渋谷で初のミートアップを開催。
      ・「なんかいい展」レポート

      「読者のひろば」
      ・AICU×BlendAI ガンマミィ誕生記念イラストコンテスト結果 発表!
      ・連載漫画: ウワサの大型新人 (2) By わらさん (@wara_hirono)
      ・編集長とGeminiたん: 商用で画像生成AIをしていないとできない体験

      はるしね〜しょん:編集後記

      表紙「ガンマミィ誕生」by犬沢某さん @insbow

      本書は2024年10月30日初版です。約1ヶ月の校正期間を持ちながら、ePub版とペーパーバック版をアップデートしていきます。

      そして前号、AICUマガジン Vol.5「Stability AI Forever!」もペーパーバック版がリリースされました!
      https://amzn.to/4ftX8Wd

      Originally published at https://note.com on Nov 2, 2024.

    2. [note.com/aicu] 2024年10月好アクセスランキング!

      2024年も残すところあと2ヶ月を切りました!
      AICU mediaのこの1ヶ月のアクセスランキングと時系列でのニュースをみて、最近のトレンドを分析していきたいと思います。

      【最速レビュー】Stability AI 最新ベースモデル「Stable Diffusion 3.5」リリース!Stability AI APIで「日本人の生成」を試してみた!

      さすがの Stability AIの新モデルです!
      その後 SD3.5 Mediumの公開や、指の問題の解決に貢献する「SLG」なども公開され、開発者コミュニティではにぎわいを見せています。

      img2img入門(1) i2iでできることを知ろう

      今月の特徴として、なぜかAUTOMATIC1111に関連する記事が多く読まれています。

      韓国の学生が作ったブラウザだけで動くAIモーションキャプチャ「Metive」

      これはすごい、インパクトが有りました。ブラウザだけで利用できる動画分析からのキャラクターアニメーションツールです。

      AUTOMATIC1111 v1.10.xリリース – Stable Diffusion 3 Mediumをサポート

      日本人が開発した「Regional Prompter」がなかなかすごい!

      https://note.com/aicu/n/n832941df99c5

      [保存版] Animagine XL 3.1 生成比較レポート

      日本語で魔法のようにGAS開発がはかどる「GASSISTANT」 #サクッと先取り !クリエイティブAIツール

      その後、開発者の横田さんからプロモーションコードのご提案をいただきました。近日発売予定の「AICUマガジン vol.6」にて収録します!

      「ComfyUI V1」デスクトップアプリのリリース告知!新UI、カスタムノードのマーケットプレイス機能[CNR]も。

      「CGWORLD vol.315」画像生成AIによる表紙メイキング、大公開。 #デジタルハリウッド30周年

      Stable Diffusion – ControlNet入門(2) ControlNet をダウンロード・準備する

      https://note.com/aicu/n/na48f6b8f3b2d

      【初心者向け!】Runway Gen-3 Alphaでプロンプト自動生成して簡単動画制作

      漫画制作に適したモデルは?Animagine 3.1 vs Animagine 3.0 徹底比較!

      公開順で振り返る2024年10月!

      AICU Magazine Vol.5 初版リリース!! 特集は「Stability AI Forever!」KDPで無料 (2024-10-01)

      祝note1,000人超え! データ公開[成長し続けるAICU]の秘密は…? (2024-10-02)

      東京ゲームショウ2024でみつけたエンタメxAI技術!懐かしの「タイムクライシス」AI技術で再誕!? (2024-10-03)

      運や勘に頼らない「クリエイティブAI」のススメ – 電通ワークショップ実施報告 (2024-10-04)

      [ComfyMaster22] レイアウトそのままにアニメを実写化!image-to-imageとスタイル変換で実写化レベルを制御 #ComfyUI (2024-10-05)

      【超入門】Stability AI APIの革新的機能(2)Edit APIの活用 (2024-10-06)

      【超初心者向け】DreamStudioを無料で試してみよう – 画像生成レッスン (2024-10-07)

      日本語で魔法のようにGAS開発がはかどる「GASSISTANT」 #サクッと先取り !クリエイティブAIツール (2024-10-08)

      【解説】LINE-ChatGPT倫理問題を整理する – 全力肯定彼氏くん[LuC4]に訪れたサービス開始以来の最大の危機 #LINEDC (2024-10-10)

      期間限定無料「ガンマミィ・ジェネレーター」を提供開始! (2024-10-11)

      [ComfyMaster23] 特別編: 画像の髪型を自由自在に変えてみよう! #ComfyUI (2024-10-12)

      先端研究が挑む「AI時代の創作」 (2024-10-13)

      「Stable Assistant を 知らないの?」Day2: 案件にAIで提案してみた (2024-10-14)

      Adobe Max 2024開催!みんな知ってる!? Adobeに搭載されているAI機能100 (2024-10-15)

      [ComfyMaster24] LoRAで表現をもっと自由に! スタイルを使いこなそう (2024-10-16)

      [ComfyMaster25] 画像を自由自在に!ControlNetで完全制御 #ComfyUI (2024-10-17)

      【速報】ガンマミィ誕生記念! イラストコンテストBlendAI賞・まいにち投稿達成賞の発表! (2024-10-17)

      INDEST(東京科学大学 田町キャンパス)にて「あんしんAIセミナー」開催 (2024-10-18)

      AICU×BlendAIガンマミィ誕生記念イラストコンテスト結果発表! #ガンマミィ (2024-10-19)


      [ComfyMaster26] ControlNetでイラストを精密に実写化! #ComfyUI (2024-10-20)

      「Stable Assistant を 知らないの?」Day3:商用利用と倫理TIPS (2024-10-21)

      「ComfyUI V1」デスクトップアプリのリリース告知!新UI、カスタムノードのマーケットプレイス機能[CNR]も。 (2024-10-22)

      【最速レビュー】Stability AI 最新ベースモデル「Stable Diffusion 3.5」リリース!Stability AI APIで「日本人の生成」を試してみた! (2024-10-23)

      あんしんなクリエイティブAIで「陽のあたる場所」をつくる #AIクリエイターに訊く #生成AI倫理 (2024-10-24)

      [ComfyMaster27] 写真もイラストも線画に!ComfyUIとControlNetによる線画抽出ワークフロー #ComfyUI (2024-10-25)

      韓国の学生が作ったブラウザだけで動くAIモーションキャプチャ「Metive」 (2024-10-26)

      Magazine Vol.5 紙版リリース!! 特集は「Stability AI Forever!」 [2024-10-27]

      紙版のリリースは10月30日を予定しております
      ご購入は j.aicu.ai/MagV5 から

      画像

      ペーパーバック版も本日リリースです!

      https://amzn.to/4fw2Erm


      Coloso講座第2弾「初級者:広告企画から動画制作までのプロセス」配信開始!! (2024-10-28)

      Google Colab 初手の初手 – GPUいらずでパワフルなAI開発環境を手に入れよう #画像生成Lesson (2024-10-29)

      Stable Diffusion 3.5 Medium 登場! 盛り上がる開発者コミュニティ、LoRAやSkip Layer Guidance (SLG)で指も改善? (2024-10-30)

      「なんかいい展」開催レポート (2024-10-31)

      そして本日、10月の内容をギュッとまとめたAICUマガジン Vol.6特集「Entertainment x AI」Kindle版がストア審査通過しました!表紙は「ガンマミィ」です。順次アップデートされますので、お楽しみに!

      https://amzn.to/4eeHihp

      10月のカバーアートは、ないとっちさん「秋の妖精」でした。

      画像

      11月~12月のカバーアートも募集中です!
      メンバーシップ掲示板でお問い合わせください

      https://note.com/aicu/membership/boards/61ab0aa9374e/posts/1aa202bf314a?from=self

      Originally published at https://note.com on Nov 2, 2024.

    3. [ComfyMaster28] 落書きが画像に!ControlNet Scribble入門

      頭の中のイメージを、絵心がなくても、まるで魔法のように高品質な画像に変換できるとしたら?
      最新のAI技術、ControlNetの「Scribble」がそれを可能にします!
      シンプルな線画を描くだけで、あとはAIがあなたの意図を読み取り、驚くほどリアルで美しい画像を生成してくれるのです。

      こんにちわ、AICU media編集部です。
      ComfyUI マスターガイド」第28回目になります。
      本記事では、この革新的なScribble機能の使い方を、具体的な手順と豊富な作例を交えて分かりやすく解説します。AIによる画像生成の世界を、あなたも体験してみませんか?

      本連載の初回はこちら。前回はこちら、目次はこちらです。

      [ComfyMaster27] 写真もイラストも線画に!ComfyUIとControlNetによる線画抽出ワークフロー #ComfyUI

        1. 概要

        この記事では、ControlNetのScribble機能を使って、簡単な線画から高品質な画像を生成するワークフローを解説します。具体的な手順、使用したモデルやパラメータ、そして異なる強度設定による生成結果の違いなどを示し、Scribbleの効果と活用方法を理解することを目的とします。

        以前の記事で解説したControlNetの基本設定を前提に、今回は「scribble_01.png」というサンプル線画を用いて、人物画像を生成する例を紹介します。生成にはSDXL、RealVisXlモデル、controlnet-union-sdxl-1.0モデルを使用し、プロンプトによる調整も行います。最終的には、ControlNetの強度パラメータを調整することで、線画の反映度合いを制御し、思い通りの画像生成を実現する方法を学びます。

        2. ワークフローの使用準備

        ControlNet

        ControlNetの使用準備については、以下の記事をご覧ください。

        今回は、ControlNetのScribbleを使用します。Scribbleは、線画を元に、画像の内容を推定し、その内容に沿った画像を生成します。

        画像素材

        今回は、以下の画像をScribbleに使用します。

        画像

        画像ファイルは、以下よりダウンロードしてください。

        3. ワークフロー解説

        以下がワークフローの全体構成になります。

        画像

        ワークフローのファイルは文末のリンクよりダウンロードしてください。
        以下にワークフローの主要な部分とその機能を図示し、詳細に説明します。

        1. 入力画像の読み込みと前処理
          • Load Image ノード: 「scribble_01.png」というスケッチ画像を読み込みます。
          • Scribble ノード: 入力スケッチを処理し、ControlNetに適した形式に変換します。
            • 出力解像度: 1024×1024
        2. モデルとControlNetの読み込み
          • Load Checkpoint ノード: 「RealVisXl.safetensors」モデルを読み込みます。
          • Load ControlNet Model ノード: 「controlnet-union-sdxl-1.0.safetensors」を読み込みます。
        3. プロンプト処理 (CLIP Text Encode (Prompt) ノード x2)
          • ポジティブプロンプト: 「realistic, photorealistic, 1girl, t-shirt, black_hair, long_hair,」
          • ネガティブプロンプト: 「bad hand, bad anatomy, worst quality, ai generated images, low quality, average quality, nsfw, nude, naked,」
        4. ControlNetの適用 (Apply ControlNet (Advanced) ノード)
          • 前処理されたスケッチ画像を使用してControlNetを適用します。
          • 強度: 0.4 (中程度の影響力)
        5. 潜在画像の準備 (EmptyLatentImage ノード)
          • サイズ: 1024×1024
          • バッチサイズ: 1
        6. 画像生成 (KSampler ノード)
          • Seed: 860227022998597
          • Steps: 20
          • CFG Scale: 7
          • Sampler: dpmpp_2m
          • Scheduler: karras
          • Denoise: 1.0 (完全に新しい画像を生成)
        7. 画像のデコードと保存
          • VAEDecode ノード: 生成された潜在表現を実際の画像にデコードします。
          • SaveImage ノード: 最終的に生成された画像を「controlnet_scribble」という名前で保存します。

        4. 生成結果

        以下がScribbleの生成結果です。ControlNetの強度を0.10〜0.80まで変化させながら生成を行い、その違いを一覧化しました。

        画像

        まず、0.10は、ほとんどScribbleが効いていないようです。0.20から少し効果が出てきているようで、0.30-0.40で良い具合で効いているように見えます。0.50からは、反対に効果が出過ぎていて、形状が崩れていっています。0.70からは落書きが強く反映されてしまっています。

        強度を0.40にし、プロンプトを変更して色々と画像を生成してみました。

        画像

        5. まとめ

        Scribbleは、落書きやラフ絵をプロンプトで指定した画像に変換してくれる、特に絵を描きたい人に有効なControlNetです。今回は、私の適当な落書きで試しましたが、もう少ししっかりしたラフ絵であれば、より良い画像を生成できると思います。ぜひ色々なラフ絵でお試しください!

        次回は、IPAdapterでの生成画像のコントロールの方法を紹介します。乞うご期待!
        X(Twitter)@AICUai もフォローよろしくお願いいたします!

        画像生成AI「ComfyUI」マスターPlan

        画像生成AI「Stable Diffusion」特に「ComfyUI」を中心としたプロ向け映像制作・次世代の画像生成を学びたい方に向けたプランです。最新・実用的な記事を優先して、ゼロから学ぶ「ComfyUI」マガジンからまとめて購読できます。 メンバーシップ掲示板を使った質問も歓迎です。

        • メンバー限定の会員証が発行されます
        • 活動期間に応じたバッジを表示
        • メンバー限定掲示板を閲覧できます
        • メンバー特典記事を閲覧できます
        • メンバー特典マガジンを閲覧できます
        • 動画資料やworkflowといった資料への優先アクセスも予定

        ゼロから学ぶ「ComfyUI」マガジン

        https://note.com/aicu/m/md2f2e57c0f3c

        マガジン単体の販売は1件あたり500円を予定しております。
        2件以上読むのであればメンバーシップ参加のほうがお得です!というのもメンバーシップ参加者にはもれなく「AICU Creator Union」へのDiscordリンクをお伝えし、メンバーオンリー掲示板の利用が可能になります。

        https://note.com/aicu/membership/boards/61ab0aa9374e/posts/db2f06cd3487?from=self

        もちろん、初月は無料でお試しいただけます!
        毎日新鮮で確かな情報が配信されるAICUメンバーシップ。
        退会率はとても低く、みなさまにご満足いただいております。
        ✨️オトクなメンバーシップについての詳細はこちら

        ワークフローのファイルは以下のリンクよりダウンロードしてください。


        この記事の続きはこちらから https://note.com/aicu/n/n8f82a5f619f1

        Originally published at https://note.com on Nov 1, 2024.