投稿者: media

  • [CAiBC-DEF]国際Creative AIビジネスコンソーシアム – 開発者交流フォーラム開催!(2024/12/7)

    2024年12月7日(土) 10:00~16:00
    [CAiBC-DEF] Creative AI Business Consortium – Developer Exchange Forum
    主催:AICU Inc.
    場所:東京科学大学INDEST(JR田町駅1分)
    主要言語:英語
    参加費(無料)登録必須:https://cabc24.eventbrite.com/

    国際会議(SIGGRAPH ASIA 2024)の最終日に当てて、クリエイティブAI関連の国際企業向けのミートアップを開催します。学術会議や展示会だけではフォローアップしきれないキープレイヤーに向けて、ライトニングピッチや小規模なデモ、ピザパーティなどを計画しております。国際交流に興味が有る学生さん、研究者、ビジネス、スタートアップ企業の方々の参加を歓迎します!

    AICUは、AI×エンターテイメント×クリエイティブ領域の様々な国際的プレイヤーが集結するこのイベントを主催します。

    日時: 12月7日(土) 午前10時~午後4時(開場10時)
    場所: AICU Japanオフィス(INDEST:Innovation Design Studio内)東京都港区芝浦3-6-3 INDEST
    参加費: 無料
    主催: AICU Inc. CEO 白井暁彦
    対象: AI、エンターテイメント、クリエイティブ分野に興味のあるすべての方

    イベント概要:

    SIGGRAPH ASIA 2024の興奮冷めやらぬ中、AIとクリエイティブビジネスの未来を語る交流フォーラムを開催します。画像生成、動画、アニメ、VTuber、メタバース、アートなど、様々なジャンルを網羅するクリエイティブAIビジネスのピッチセッションやデモ展示、交流会を通して、参加者同士の繋がりを深め、新たなイノベーションの種を生み出す場を目指します。

    プログラム:

    • 10:00 – 12:00 オープンキャンパス – モーニングコーヒー交流会
      東京科学大学(旧・東京工業大学)田町キャンパス「INDEST」にあるAICU Japanオフィスを見学いただけます。ピッチの準備や、SIGGRAPH ASIA 2024の感想を共有するなど、ランチ会に繋がる出会いの場としてご活用ください。
    • 12:00 – 13:00 ランチ交流会
      INDEST周辺には様々なカジュアルな日本食レストランがあります。建築好きの方は、岡啓輔氏による手作りの集合住宅「蟻鱒鳶ル(アリマストンビル)」を見学するのもおすすめです。
    • 13:00 – 14:00 ピッチセッション
      ステージ上であなたのクリエイティブAIビジネスについて発表するチャンスです!画像生成、動画、アニメ、VTuber、メタバース、デモ、アートなど、あらゆるジャンルを歓迎します。
    • 14:00 – 16:00 交流会 – デモ – ビデオ – ギャラリー
      ラウンジでデモ、ビデオ、アート作品などを共有できます。他の参加者と交流を深め、新たなアイデアやコラボレーションの可能性を探求しましょう。
    画像

    イベント詳細・参加登録:

    ・前日までに参加者登録をお願いします。
    ・無断欠席者はコミュニティで掲示して共有します。
    ・当日までの連絡や質問は X@AICUai のDMもしくは Discord [AICU – Creator Union#International チャンネルにてお問い合わせください。
    ・イベント終了後は、展示で発生したゴミ、ケータリング業者から出たゴミ類は、その担当者においてお持ち帰り頂くよう、お願いします。
    ・ゴミの分別は分別ルールに従って必ず行ってください。

    画像

    AICU Inc.について

    AICU Inc.は、生成AIとクリエイティブAIを活用し、「つくる人をつくる」を理念に掲げるグローバルスタートアップです。CEOの白井暁彦博士のリーダーシップの下、AI時代における新しいクリエイティブ体験の提供を目指しています。生成AI時代に適応したメディア、教育、ツール開発を通じて、世界中のクリエイターを支援し、創造的な未来を共に築いています。

    画像
    AICU Japan / AICU Inc., CEO, Akihiko SHIRAI, Ph.D

    主な活動内容

    1. AICUメディア事業
      • 一般ユーザー向けの学びメディア(Web、Kindle、LINEなど)
      • 国際的なクリエイターコミュニティの構築
      • 独自メディア「AICU media」を通じた情報発信(note 1,100フォロワー、Medium、独自サイトや窓の杜などへの配信)
    2. AIDX Lab
      • AIキャラクター生成技術やチャットボット、メタバース向けのソリューション開発
      • 生成AI活用ワークショップやコンサルティングの実施
    3. 新規認定事業
      • 国際CreativeAI従事者検定試験の開発
      • 画像生成AIに関する技術認定と倫理評価の提供
    4. コンサルティング&国際展開
      • グローバル市場における日本発のAI技術やコンテンツの普及
      • B2B向けのプロジェクト実施やPoC(概念実証)開発

    ビジョン

    生成AIの進化に伴い、「つくる人をつくる」を実現し、AIを活用した新たな価値創造を推進します。これにより、クリエイティブ産業における効率化と革新を支援し、次世代のクリエイターが活躍できる「陽のあたる場所」を提供します。

    公式ウェブサイト:AICU Inc.
    お問い合わせ: X@AICUai

    AICU Inc.は、AI時代の可能性を広げ、誰もがクリエイターとして活躍できる未来と挑戦を応援します。

    #CAiBC #CreativeAI #AIビジネス #開発者交流会 #SIGGRAPHAsia2024 #Tokyo #AICU

    Originally published at https://note.com on Nov 25, 2024.

  • SIGGRAPH Asia 2024特集(1) 最先端のCG研究を3時間で!【Technical Papers Fast-Forward】全ジャンル予習リスト

    コンピューターグラフィックスとインタラクティブ技術の世界最大の国際会議「ACM SIGGRAPH」が東京にやってきます!AICUでは学生ボランティアに公式スポンサーとして協賛しております。
    さらに特別企画として東京国際フォーラムで2024年12月3~6日に開催される「SIGGRAPH Asia 2024」を総力特集いたします!

    [SIGGRAPH Asia 2024特集]ライター紹介 Houdini使いの やまぐち さん

    やまぐち:AICU mediaのライター やまぐちです!
    しらいはかせ:よろしくお願いいたします!さっそくですが、やまぐちさんはどんなバックグラウンドをお持ちなのでしょうか?

    やまぐち:本業はVFX関係のクリエイター(修行中)です。過去にはSIGGRAPHは学生ボランティアスタッフで参加したこともあります。

    しらいはかせ:いいですね!生成AI時代に「つくる人をつくる」をビジョンに活動するAICU mediaは、読者のみなさんに向けてSIGGRAPH Asia 2024関連の情報を、専門家向けだけでなく、分かりやすく紹介していきたいとおもいます。

    やまぐち:私、VFXクリエイターなので最新の画作りには興味あるんですが、論文とか研究開発とか専門的で難しすぎて。理解できないかもしれないんですよ…どこから手を付けていいか…。

    しらいはかせ:そんな方には今回紹介する、初日(2024/12/3)の朝に開催される「Technical Papers Fast-Forward」(以下TPFF)の予習がオススメです!最新のCG研究の最高峰をたった3時間で超早送りでプレゼンする名物セッションです。CG業界の研究にお馴染みの方も初めての方も、TPFFを予習することで、現在のCG研究がどのような状態にあるか、そして今回のSIGGRAPHで何を見るべきか、を学べます。一緒に見ていきましょう!

    やまぐち:承知しました!では今回の記事は前編として、TPFFの全体像を紹介します。後編では、Houdinistの私が気になったTechnical Paperをピックアップしていきますね!

    しらいはかせ:フーディニスト!!? Houdini使えるんですか!これは期待。

    https://amzn.to/3ZoYueL

    それでは、やまぐちさんの SIGGRAPH Asia 2024 レポート、はじまります!

      TPFF: Technical Papers Fast-Forwardとは

      まずこちらがSIGGRAPH Asia 2024公式サイトによるTPFFの情報です。
      Technical Papers Fast-Forward 
      https://asia.siggraph.org/2024/session/?sess=sess223

      そもそもSIGGRAPHにおける「Technical Papers」プログラムとは何か。これはSIGGRAPHにおいて重要なセッションであるコンピュータグラフィックスおよびインタラクティブ技術分野における技術研究論文の最新の進展が紹介される場です。世界中のトップエキスパートによる最先端の研究を直接体験する機会が提供されます(Technical Papers より)。

      そのTechnical Papersプログラムの幕開けとなるTPFFは、会期初日(2024年12月3日)に行われる、全Technical Papersのプレビュー・セッションです。各論文の著者が1分以内の持ち時間で、その論文の概要を披露します。

      277本のTechnical Papers、全ジャンル紹介!

      今年のTechinical Papersの発表数は、全部で277本あるようです。つまり仮に「1件30秒」で発表したとしても、TPFF全体ではおよそ2時間強になりそうですね。世界中から集まって選び抜かれた277の最新技術が初日のこの時間に凝縮されていると思うと、とても濃密な時間です。

      今回SIGGRAPH Asia 2024でTechnical Papersが発表される分野を開催日別に、原題、日本語訳、開催時刻という形式で紹介していきます。

      1日目(2024年12月3日)

      Geometry Processing Computing
      ジオメトリ処理コンピューティング
      13:00-14:10

      Going Big in Rendering
      大きなスケールのレンダリング
      13:00-14:10

      Make It Yours – Customizing Image Generation
      画像生成をカスタマイズして自分のものに
      13:00-14:10

      Design It All: Font, Paint, and Colors
      すべてをデザインする:フォント、ペイント、色
      14:45-15:55

      Modeling and PDEs
      モデリングとPDE(偏微分方程式)
      14:45-15:55

      Neural Relighting and Reflection
      ニューラル・リライティングと反射
      14:45-15:55

      Color and Display
      色とディスプレイ
      16:30-17:40

      Geometry and Fabrication
      ジオメトリと組み立て
      16:30-17:40

      Path Guiding, Scattering
      パスガイド、散乱
      16:30-17:40

      2日目(2024年12月4日)

      Look at it Differently: Novel View Synthesis
      見方を変えよう 新しいビューの合成
      10:45-11:55

      Surface Reconstruction and Modeling
      サーフェスの再構成とモデリング
      10:45-11:55

      Your Wish is my Command: Generate, Edit, Rearrange
      あなたの願いは私の命令:生成、編集、再配置
      10:45-11:55

      Animating Humans
      人間に命を吹き込む(アニメーション)
      13:00-14:10

      It’s All About Change: Image Editing
      変えることのすべて:画像編集
      13:00-14:10

      Splats and Blobs: Generate, Deform, Diffuse
      スプラットとブロブ:生成、変形、拡散
      13:00-14:10

      Beyond RGB
      RGBを超えて
      14:45-15:55

      Domo Arigato, Mr. Roboto / Robots and Characters
      ドモアリガトウ、ミスター・ロボト/ロボットとキャラクター
      14:45-15:55

      Threads of Reality: Garments & Knitting
      現実の糸:衣服と編み物
      14:45-15:55

      Computational Design
      コンピューテーショナル・デザイン
      16:30-17:40

      Text, Texturing, and Stylization
      テキスト、テクスチャリング、スタイライゼーション
      16:30-17:40

      To Bend or not to Bend?
      曲げるべきか否か
      16:30-17:40

      3日目(2024年12月5日)

      (Don’t) Make Some Noise: Denoising
      ノイズ除去
      9:00-10:10

      Deform Your Axis: Skeletons and Cages
      軸を変形させる:スケルトンとケージ
      9:00-10:10

      Keep in Touch / No Touching
      触り続けて/さわらないで
      9:00-10:10

      3D Printing, Manufacturing
      3Dプリンティングと製造
      10:45-11:55

      Capture Me If You Can
      キャプチャーしてくれるやってみて
      10:45-11:55

      Going Fast: Accelerated Rendering
      高速レンダリング
      10:45-11:55

      Characters and Crowds
      キャラクターと群衆
      13:00-14:10

      Neural Shapes
      ニューラル・シェイプ
      13:00-14:10

      Sampling and Light Transport
      サンプリングとライトトランスポート
      13:00-14:10

      Diffusing Your Videos
      拡散モデルと動画
      14:45-15:55

      Fill the Gap: What Happened In-between?
      ギャップを埋める:その間に何が起こったのか?
      14:45-15:55

      Mesh Processing Unleashed
      メッシュ処理からの解放
      14:45-15:55

      Diffuse and Conquer
      拡散と征服
      16:30-17:40

      Generate It All: Scenes, Humans, LEGOs
      すべてを生成せよ:シーン、人間、そしてLEGOも。
      16:30-17:40

      Talking Heads and Moving Faces
      話す頭と動く顔
      16:30-17:40

      4日目(2024年12月6日)

      Beauty Salon: Hair, Face, Lips, and Teeth
      ビューティーサロン:髪、顔、唇、歯
      9:00-10:10

      Differentiable Rendering
      微分レンダリング
      9:00-10:10

      Elastics / Solvers / Neural Physics
      弾性/ソルバー/神経物理学
      9:00-10:10

      Fluid Simulation
      流体シミュレーション
      10:45-11:55

      Modeling and Reconstruction
      モデリングと再構成
      10:45-11:55

      My Name is Carl: Gaussian Humans
      私の名前はカール:ガウシアンヒューマン
      10:45-11:55

      (Do) Make Some Noise
      (あえて)ノイズをつくろう
      13:00-14:10

      Appearance Modeling
      アピアランス・モデリング
      13:00-14:10

      Points, Graphs, Surfaces, and Fields
      点、グラフ、面、フィールド
      13:00-14:10

      Enhancing, Saliency
      強調と顕著性
      14:45-15:55

      Hand and Human
      手と人間
      14:45-15:55

      Interactive Methods and VR/AR
      インタラクティブな手法とVR/AR
      14:45-15:55

      まとめ:クリエイターやまぐちの視点

      今回が3回目のSIGGRAPHになるのですが、フルアクセスでないと入室できないTechnical Papersプログラムは過去2回とも素通りしていたためにTPFFについて知るだけで圧倒されてしまいました。しかし進化の速いCG+AI業界で生きていくためには日進月歩の技術に追いついていく習慣が大事ですね。その最新技術の先端を4日間で知ることのできるSIGGRAPH Asia 2024はとても良い機会です。食わず嫌いせずに、この際たくさん情報収集しましょう!

      編集長のフィードバック

      やまぐち:編集長!終わりました!
      しらいはかせ:おおっ短い時間でありがたいです!これは事前取材に役立ちそうですね。需要があれば読者のみなさんにスプレッドシートで配布したいぐらいですね…!

      やまぐち:Webサイトだけだと辛いかもしれないですね。ニッチな需要かもしれませんが。

      しらいはかせ:ところで結構、詩的な英語が多かったでしょ?
      やまぐち:映画のタイトルとかをいじったかんじですかね、勉強になります。

      しらいはかせ:あと、公式からトレイラーも出ていました!
      やまぐち:おーー!早く教えて下さいよ~!

      しらいはかせ:このトレイラーには6本のTechinical Paperが代表して紹介されていますね。そのうち3本が画像・映像生成のものです。やまぐちさんが調べてくれた全発表リストとジャンル構成からも同様に、今回のSIGGRAPHにおいて、画像・映像生成関連の研究が大いに盛り上がっていることが分かります。

      やまぐち:DiffusionとかGaussian Humansとか、専門用語の予習になました!

      しらいはかせ:個人的に興味があったもの、ありますか?僕は4日目「Hand and Human(手と人間)」のセッション、「Synchronize Dual Hands for Physics-Based Dexterous Guitar Playing」(両手を同期させて物理ベースの器用なギター演奏を実現)に興味があります。むかし、AI VTuberでギターを演奏する研究をしていたので…。

      やまぐち:個人的にユニークに感じたのは、最終日4日目にある「Interactive Methods and VR/AR(インタラクティブな手法とVR/AR)」内の「ThermOuch: A Wearable Thermo-Haptic Device for Inducing Pain Sensation in Virtual Reality through Thermal Grill Illusion」(サーモッチ ThermOuch: サーマルグリル錯覚を使った仮想現実で痛みの感覚を誘発するウェアラブル熱触覚デバイス)。VRの体験中に熱によって痛みを引き起こすウェアラブルデバイスとのことです。付けてみたいような嫌なような…(笑) 

      しらいはかせ:そういえば、Technical Papersではないですが、世界で最も歴史ある日本の学生VRコンテスト「IVRC2018 出血体験」でも近いインタラクティブ技術による体験が提案されていました。

      ここまでの論文に完成させるためには相当な理論化と十分に再現性のある実験が繰り返されているという印象です。こういう展示体験系は論文発表だけでなく、「Emerging Technologies」というエリアに展示されています。
      こちらも公式ティザーが公開されていますね。

      ■SIGGRAPH Asia 2024 – Emerging Technologies Trailer
      https://www.youtube.com/watch?v=oHw92EMOH4c

      こちらについても別の機会で紹介したいと思います。論文と違って現地でしか体験できないので、当日が楽しみです!

      SIGGRAPH Asia 2024は東京国際フォーラムにて、2024年12月3日~6日です

      次回もお楽しみに!
      最新情報は X@AICUai をフォロー!

      (執筆:やまぐち・しらいはかせ)
      Authored by Yamaguchi & Dr.Hakase aka Akihiko Shirai

      本特集はAICUマガジン1月号に収録される予定です。
      Kindle Unlimitedで無料購読できます

      最新刊はこちら https://j.aicu.ai/MagV6

      Originally published at https://note.com on Nov 24, 2024.

    1. 2025年はAITuber元年!?『gogh(ゴッホ): Focus with Your Avatar』に注目!!

      AICUマガジンで人気の「サクッと先取り !クリエイティブAIツール」、略して「サクリ!AIツール」としてマガジン連載化しました。毎日どんどん登場するクリエイティブなAIツールの要点をサクッと短く紹介します。
      今回はちょっと変わったアプリ『gogh(ゴッホ): Focus with Your Avatar』というスマホアプリを紹介します。

      「gogh」はアバターメイカー、ルームビルダー、ペット育成、集中ツールが一体となった「作業の集中」を目的としたツールです。ポモドーロタイマー(仕事を 25 分ずつのセッションに分け、そのあいだに短い休憩をはさんで行う時間管理術)のようでもあります。勝手に動くVTuberつまり「未来のAI Tuber」のようでもあります。作業の集中を前景に、可愛いアバター、自分好みにカスタマイズした部屋、心地よいLofi音楽と環境音などを背景にした、一見「地味」ではありますがクリエイティブなAIツール…これは「つくる人をつくる」「わかるAIを届ける」をビジョンにするAICU編集部としては「なんか気になる…未来感」があるアプリなのです。

      アプリ版「gogh」とは?

      『gogh』は、iOS/Androidアプリとしてすでに公開されており、2024年7月の公開からわずか1ヶ月で、国内10万ダウンロードを突破したそうです。

      noteでのユーザーの声を調査してみました

      自動作業ゲームといえばAIアルゴリズムの活用の古典のような分野であります。工場自動化シュミレーションゲームや「クラッシュ・ロワイヤル」や「ドラゴンクエスト」のような戦闘を自動化したゲームなどは存在しますが、いずれも「主体的なゲーム体験」が存在します。特に主体的な目的がなく「作業の集中」を前景に、背景を自動化した、くつろぎやリラックスといった「チル(chill)」を目的とする独特のユーザー体験が、ユーザーにとってどのように受け止められているのか、AICU編集部の独自取材によって調査してみました。

      ■『ambr、アバター集中支援アプリ「gogh(ゴッホ)」ベータ版をリリース。AI同僚と働くメタ世界へ』~【web3&AI-テックビジネスのアイディアのタネ】2024.7.25(モリプト タツヤさん)

      https://note.com/morika_wa/n/ncc07e1ce0a23

      ■【gogh(ゴッホ)】という映えるアバターアプリ✨️(こざめ👾Lv.100 さん)

      https://note.com/lovely_eel5339/n/na7af4c2fa734

      ■ gogh。自分にはできない生活をアバターがしている喜びについて。(砂さん)

      https://note.com/sandriver/n/n1973c6186d96

      ■ 自分で創った推しが秒速30万kmで突っ込んできた話 ~gogh~ (志乃屋の空蝉さん)

      https://note.com/shinoya_ustusemi/n/nf785912112d7

      新しすぎる体験ではありますが、ポジティブな共感、特にアバターの可愛さへの共感や、趣味に全力を投じる生活感に共感しているユーザーが一定数いることが観測できます。

      開発企業である日本の株式会社ambrから、この「gogh」にPC版のリリースがアナウンスされました。Steamストアページでは、世界に向けて各国語版のトレイラー動画も公開されています。ウィッシュリストへの登録も開始しています。

      Steamストアページ: https://store.steampowered.com/app/3213850/gogh

      スマホアプリ版を超える機能満載の作業ゲームの進化系

      画像

      gogh: Focus with Your Avatarは、アバターメイカー、ルームビルダー、ペット育成、集中ツールが融合した作業用ゲームです。好きに囲まれた部屋、Lofi音楽や美しい環境音、作業を共にするかわいいアバターや成長する不思議なキャラクターが、あなたのデスクワークをもっと楽しく!

      Steamストアページ:https://store.steampowered.com/app/3213850/gogh

      画像
      • 圧倒的自由度の部屋づくり:
        家具や小物を自在に配置、色替えできる自由度の高いルームカスタマイズ。配置ができたらモニターやポスターやレコードなどのルームアイテムに好きな画像やGIFを貼って、あなただけの唯一無二の部屋にしよう! つくった部屋は複数保存して、気分にあわせた切り替えも。
      画像
      画像
      • 可愛いアニメスタイルのアバター
        豊富な顔パーツや髪型、ファッションで、あなたと作業を共にするアバターを自在にカスタマイズ。タイマーと連動して集中と休憩を繰り返すので、作業の「相棒」感は抜群。さらに、ベッドや床など好きな場所に移動したり、作業以外のさまざまなアニメーションをさせたりと、フォトモードでの撮影も楽しめるようになるそうです
      画像
      画像
      • 育成ゲームと融合した集中ツール: シンプルなToDoリストと多機能タイマーでタスク管理と集中を支援。作業時間に応じて不思議な生き物が成長・世代交代を繰り返し、日々のタスクを「新種を育てる楽しさ」へと変えます。
      画像
      • チルなLofiビートと環境音ブレンド
        日本発のLofi音楽レーベル“Japanolofi Records”によるチルな楽曲など、気分や時間帯に合わせて選べる豊富なプレイリストでリラックス。また、好みに合わせて組み合わせられる環境音や、タイピング音などのアバターASMRも重なって、心地よいサウンドが部屋中に広がります。

      ▼日本発のアバター×作業集中ゲーム『gogh: Focus with Your Avatar』2025年発売決定のお知らせ 2024年11月12日 11時00分

      https://prtimes.jp/main/html/rd/p/000000041.000043299.html

      ユーザーからのPC版への要望は多かったようで、ユーザーからの要望に応える形でSteamでの発売が決定したそうです。縦画面だったアプリ版の機能に加え、ペット育成や複数ルーム保存など、さらに進化した機能も追加予定とのことです。

      まとめ:編集部の「ここがサクリ!」

      AICU編集部的に「ココが刺さる!」というポイント、特に未来的な可能性をまとめておきます。

      VRとゲームとキャラクターを熟知したスタジオによる最新作

      開発元 ambrは “The World Is a Playground.”をビジョンに掲げる、仮想世界スタジオです。自社独自の仮想世界やIP・ブランド向けの仮想空間開発を手掛けており、「東京ゲームショウ」のVR版を2021年から4年連続で担当していらっしゃいます。
      https://prtimes.jp/main/html/rd/p/000000039.000043299.html

      またゆるキャラのイベント「ゆるバース」のバーチャル空間をRoblox上に開発するといった活動もされております。
      https://prtimes.jp/main/html/rd/p/000000040.000043299.html

      VRとゲームとキャラクターを熟知したスタジオ、しかも東京ゲームショウや公共に信頼されたスタジオによる最新作、これは日本が得意とするIP(知的財産、キャラクターなど)を大切にすることが上手なスタジオのオリジナル作であり、可能性を感じます。

      主張しない「窓」のようなスマホアプリの未来

      「ゲームなのかツールなのか」という軸は「役に立つか、立たないか」という軸であると表現もできますが、「gogh」の目的はチルであり、あくまで環境として、主張しない立ち位置です。これは「もう一つの世界の窓」として機能するアプリになる可能性があります。

      そして結果として、あなたのスマホの起動時間ランキングでは、1位が取れる可能性があるのかもしれません。そういえば睡眠に注目したアプリ「ポケモン・スリープ」はアプリ起動時間ランキング上位であり、そのユーザーの睡眠時間の結果などを共有しています。

      https://prtimes.jp/main/html/rd/p/000000004.000126093.html

      【世界の『Pokémon Sleep』ユーザー10万人以上のプレイデータから算出】世界7カ国の平均睡眠時間をランキング!世界の平均睡眠時間は6時間28分 日本は世界平均より36分少なく最下位!(株式会社ポケモン 2024年1月26日)

      しかし、3カ月以上継続してプレイした日本のユーザーは、1カ月プレイでは約30分3カ月以上プレイすれば約1時間10分睡眠時間が増え、睡眠学の世界的権威 柳沢先生も「日本人もやれば出来るんだ」と驚く結果に

      https://prtimes.jp/main/html/rd/p/000000004.000126093.html

      一見役立たなさそうなところに、きちんと可能性がある、非常に興味深い未来の価値が見え隠れしていますね。

      エモーションにそっと訴えかける個性的なデザイン

      上記の睡眠時間や集中時間といったサイエンスやマーケットとしての価値とは別に、スプラトゥーンのようなスタイルのデフォルメ頭身でのスタイリッシュなアバターや、趣味の生活満載の空間は、イラストレーションが好きな方やクリエイターのみなさんには好まれる方も多いと想像します。本記事ではあえて「クリエイティブAIツール」という切り口で紹介していますが、このツールはAIによって人間のクリエイティブを”破壊”するのではなく、人間の集中を個性的なアバターで”助力”することでクリエイティブな時間を大切にしています。具体的にはスマホを通信やSNSといったクリエイティブな集中時間から阻害する要素をやんわりと保護してくれています。
      noteのユーザーさんのブログにもあるように、仕事に子育てに、日々とても忙しい方々にとって「代わりに趣味を満喫して集中してくれる」という代理をする「もうひとりの自分の姿を愛でる」も新しい体験かもしれません。

      21世紀も四半世紀が経過する中で、より多様化するライフのあり方に、可能性を感じます。

      日本発のアバター×作業集中ゲーム『gogh: Focus with Your Avatar』の発売は2025年。AICUではこれを「2025年はAITuber元年!」とらえ、Steamストアにてウィッシュリストでのスタートダッシュを応援していきたいと思います。

      https://prtimes.jp/main/html/rd/p/000000041.000043299.html

      Steamストアページ:https://store.steampowered.com/app/3213850/gogh


      [notice]本稿はプレスリリースをもとにAICU編集部の独自取材によって構成されております。
      企業のPR案件、プレスリリースのお伝えはこちらのフォームよりどうぞ。

      https://j.aicu.ai/pubreq

      https://note.com/aicu/m/m8c3003efc9f8

      Originally published at https://note.com on Nov 23, 2024.

    2. AICU編集部からのお知らせ(2024年冬)

      AICU編集部からのお知らせがたくさんあったので固定掲示用にまとめています。
      (常に更新されます、重要なものは上、古いものは下の方に行きます)

        イベント・募集・掲載依頼ご寄稿

        生成AI時代に「つくる人をつくる」のビジョンにそった、読者やコミュニティへの貢献が可能なご寄稿を受け付けております。
        https://j.aicu.ai/pubreq

        イベント告知記事の例

        こういうところから新しいクリエイターの活躍の場所が生まれたりします

        広告掲載依頼

        AICUは「つくる人をつくる」をビジョンに活動しております。
        このビジョンに沿った広告出稿依頼であれば、幅広い方々から広告企画を受け付けております。

        https://corp.aicu.ai/ja/pricing

        製品発表、ユーザサイド解説、開発者インタビュー、イベント告知協力や後パブ記事などにご活用ください。
        より自然な形で記事執筆をさせていただきます。
        (リテイク2回まで。ボリュームディスカウントあり)

        https://app.hubspot.com/payments/DRypr7xcGhDR2Qm?referrer=PAYMENT_LINK

        広告企画のご出稿にあたって、ご質問ご相談は X@AICUai までDMにてお問い合わせください。

        アート募集

        毎月のカバーアートをnoteメンバーシップ掲示板にて募集しています

        https://note.com/aicu/membership/boards/61ab0aa9374e/posts/1aa202bf314a

        年間のAIイラストカレンダーも製作しております。
        締切は毎月設定されておりますので、随時ご応募いただくのがオススメ!

        登壇情報

        AICU所属クリエイターの11~12月の登壇情報です。

        https://note.com/o_ob/n/nbf44f75d5dd0

        https://note.com/o_ob/n/n770bcbe8d64e

        連載・持ち込み企画

        企画の持ち込みは歓迎です!
        まずはこちらのフォームからどうぞ。

        https://j.aicu.ai/pubreq

        スタッフ募集

        あのVIPチケットを入手できる…! AICU編集部がSIGGRAPH ASIA 2024取材スタッフを募集!
        世界最大のCG/インタラクティブ技術の国際会議「SIGGRAPH ASIA 2024」が、2024年12月3日(火)〜6日(金)に東京国際フォーラムで開催されます。

        生成AI時代に「つくる人をつくる」をビジョンとするAICU編集部はSIGGRAPH ASIAプログラムパートナーとして学生ボランティアに協賛します。

        応募期間 2024年11月11日~18日

        https://note.com/o_ob/n/n7a0054713915

        忘年会参加者・スタッフ募集中

        こちらのイベントに協賛します。

        https://techplay.jp/event/962444

        企画やスタッフなども募集中!

        製品モニター

        レビューなどにご協力いただける方を募集しております。

        書籍「画像生成AI Stable Diffusionスタートガイド」

        https://j.aicu.ai/SBXL

        「つくる人をつくる」AICU media
        Coloso「生成AIクリエイティブ AICU」シリーズ

        モニター参加された方はColosoでフルバージョンが観れます!

        ■「超入門:Stable Diffusionではじめる画像生成AI」

        https://j.aicu.ai/coloso1

        ■「初級者:広告企画から動画制作までのプロセス」

        https://j.aicu.ai/coloso2

        https://j.aicu.ai/ColosoJPXAICU

        ■「ComfyUIマスター:カスタムノードとアプリ開発」

        https://j.aicu.ai/coloso3

        製品モニター参加は随時募集しております。

        ご質問は X@AICUai もしくは
        AICU の Discord クリエイターユニオン
        「#aicu-inc」や「#pub-creator-guild」にて。

        皆様のご相談をお待ちしております!

        Originally published at https://note.com on Nov 21, 2024.

      1. Black Forest Labs「FLUX.1 Tools」発表!異次元の高画質を自在に操る新機能4つを試してみた

        2024年11月21日、Black Forest Labsは、ベースのテキスト画像生成モデルFLUX.1に制御性と操作性をもたらすモデルスイート、「FLUX.1 Tools」のリリースすることを発表しました。

          「FLUX.1 Tools」リリース概要

          オープンアクセスモデルと FLUX.1 [pro]を補完するBFL APIで利用可能な4つの異なる機能で構成されています。

          • FLUX.1 Fill: 最先端のインペイントとアウトペイントモデル。テキストとバイナリマスクで現実の画像と生成された画像の編集と拡張を可能に。
          • FLUX.1 Depth: 入力画像から抽出された深度マップとテキストプロンプトに基づいて、構造的ガイダンスを可能にするモデル。
          • FLUX.1 Canny: 入力画像から抽出されたキャニーエッジとテキストプロンプトに基づいて、構造的ガイダンスを可能にするモデル。
          • FLUX.1 Redux: 入力画像とテキストプロンプトを混合および再作成できるアダプター。

          このリリースは、研究コミュニティ向けに最先端のオープンウェイトモデルを提供すると同時に、APIを通じてクラス最高の機能を提供するという、二重のコミットメントを強化する目的とのことで、各ツールは BFL API で FLUX.1 [pro] のバリアント(亜種)としてリリースしつつ、推論コードと重みをガイダンス蒸留されたオープンアクセスFLUX.1 [dev]バリアントとして提供します。さらに、リリースされたモデルは、パートナーの fal.aiReplicate, Together.ai, Freepikkrea.ai からも入手できます。

          以下公式提供の画像より

          FLUX.1 Fillによるインペイントとアウトペイント

          FLUX.1 Fillは、Ideogram 2.0などの既存のツールや、Alimama CreativeのFLUX-Controlnet-Inpaintingなどの人気のあるオープンソースバリアントを凌駕する高度なインペイント機能を導入します。既存の画像と自然に統合されるシームレスな編集が可能です。

          画像

          さらに、FLUX.1 Fillはアウトペイントをサポートしており、ユーザーは元の境界を超えて画像を拡張できます。

          画像

          [ベンチマークへのリンク]を実施した結果、Flux.1 Fill [pro]は他のすべての競合方法よりも優れており、現在までの最先端のインペイントモデルとなっています。2番目はFlux.1 Fill [dev]で、独自のソリューションよりも優れており、推論の効率も高くなっています。

          画像

          Flux.1 Fill [dev]はFlux Dev Licenseの下で利用可能です。

          • Hugging Faceで入手可能な完全なモデルの重み: [Fill]
          • GitHubで入手可能な推論コード: GitHub
          • Flux.1 Fill [pro]は[BFL API]で利用可能です。

          FLUX.1 Canny / Depthによる構造的コンディショニング

          構造的コンディショニングは、キャニーエッジまたは深度検出を使用して、画像変換中の正確な制御を維持します。エッジまたは深度マップを通じて元の画像の構造を保持することにより、ユーザーはコアとなる構成をそのまま維持しながら、テキストガイド付きの編集を行うことができます。これは、画像のテクスチャ変更に特に効果的です。

          画像
          画像

          [ベンチマークへのリンク]の評価では、FLUX.1 DepthはMidjourney ReTextureなどの独自モデルよりも優れています。特に、FLUX.1 Depth [pro]はより高い出力多様性を提供し、FLUX.1 DepthのDevバージョンは深度認識タスクでより一貫した結果を提供します。キャニーエッジモデルの場合、[ベンチマークへのリンク]はこちらで、FLUX.1 Canny [pro]がクラス最高で、FLUX.1 Canny [dev]がそれに続きます。

          画像

          FLUX.1 Canny / Depthは、最大限のパフォーマンスのためのフルモデルと、開発を容易にするためのFLUX.1 [dev]に基づくLoRAバージョンの2つのバージョンで利用可能です。

          Flux Depth / Canny [dev]はFlux Dev Licenseの下で利用可能です。

          • Hugging Faceで入手可能な完全なモデルの重み:[Depth] [Canny]
          • Hugging Faceで入手可能なLoRAの重み: [Depth] [Canny]
          • GitHubで入手可能な推論コード: GitHub
          • Flux.1 Depth / Canny [pro]はBFL APIで利用可能です。BFL API

          FLUX.1 Reduxによる画像のバリエーションとリスタイリング

          FLUX.1 Reduxは、画像バリエーション生成のためのすべてのFLUX.1ベースモデルに対応するアダプターです。入力画像が与えられると、FLUX.1 Reduxはわずかなバリエーションで画像を再現し、特定の画像を改良できます。

          これは、プロンプトによる画像のリスタイリングを可能にする、より複雑なワークフローに自然に統合されます。リスタイリングは、画像とプロンプトを提供することにより、APIを通じて利用できます。この機能は最新のモデルFLUX1.1 [pro] Ultraでサポートされており、入力画像とテキストプロンプトを組み合わせて、柔軟なアスペクト比で高品質の4メガピクセル出力を生成できます。

          画像

          [ベンチマークへのリンク]は、FLUX.1 Reduxが画像バリエーションにおいて最先端のパフォーマンスを達成していることを示しています。

          画像
          画像

          Flux.1 Redux [dev]はFlux Dev Licenseの下で利用可能です。

          • Hugging Faceで入手可能なモデルの重み: [Redux]
          • GitHubで入手可能な推論コード: GitHub
          • FLUX1.1 [pro] UltraをサポートするFlux.1 Reduxは BFL APIで利用可能です。

          有料APIは[api.bfl.ml]で提供されています。
          ドキュメントはこちら  https://docs.bfl.ml/


          Falでの環境を確認!異次元の高画質を自在に操る新機能4つを試してみた

          ここから先はAICU編集部による”自腹調査”です。
          Falでは既にリリースされていました。

          画像

          こちらの検索結果に表示されています。

          https://fal.ai/models?keywords=flux&categories=image-to-image

          Fill: 強力なインペイント機能

          https://fal.ai/models/fal-ai/flux-pro/v1/fill

          ベースの画像がこちらです。

          画像

          与えるマスク画像がこちらです。盾をざっくり塗った感じです。

          画像

          以下のプロンプトを投じてみます。

          A knight in shining armour holding a greatshield with “AICU” on it

          できました!

          画像
          画像

          コストは1メガピクセルあたり0.05ドルだそうです。

          Canny: 高度な置き換え機能

          サンプル「Flux-lora-canny」ではフクロウをピンクに塗り替えています。
          https://fal.ai/models/fal-ai/flux-lora-canny

          画像
          画像
          画像

          サンプル「Flux-pro-canny」ではFLUX.1 [pro]を使ったCannyが体験できます。
          https://fal.ai/models/fal-ai/flux-pro/v1/canny

          画像

          Depth

          サンプルが何故かブラックホールの奥行き、という謎の画像なので開設を割愛します。

          画像

          Redux

          Flux[pro] ultra Redux https://fal.ai/models/fal-ai/flux-pro/v1.1-ultra/redux

          入力画像とプロンプトを使って、もとのスタイルに近い画像を生成できるようです。

          画像
          画像

          出力結果です。
          制御性はあまり良くない印象ですが、画質は素晴らしいので使い道を考えて生きたいところですね。

          画像

          ComfyUIがゼロデイ対応

          「FLUX.1 Tools」が、ComfyUI で初日からサポートされるようになりました。
          – FLUX.1 塗りつぶし – >画像の塗りつぶしや拡大に最適
          – FLUX.1 Redux – >イメージの異なるバージョンを作成する
          – コントロールネット – >キャニーガイドまたは深度ガイドを使用して画像を制御する

          サンプル画像としてわかりやすいのでこちらのポストをぜひご確認ください。

          編集部の印象

          Stability AI の API群とも近い感じですが、リリース直後からFalやReplicate、ComfyUIなどで利用できるのは流石ですね!
          また商用利用できる点も良いですね。
          FLUX1[pro]自体の画質は過学習気味な印象があります。

          Alimama Creative の例では商用IPに類似した出力が示されていますが、Image-to-Imageに商用IPを使うのは日本の著作権法を侵害する可能性が非常に高いので、技術的にできるという点と、倫理的にやっていいか、という視点は並列に持っておくほうが良さそうですね。

          いずれにせよ今回の「FLUX.1 Tools」はモデルとAPIだけでシンプルに制御できるので、サービスを開発するには役立ちそうです。Staility AI 3.5系の熾烈な戦いが始まりますね。

          [PR] 基本を学びたいひとはこちら!

          https://j.aicu.ai/coloso1

          Originally published at https://note.com on Nov 21, 2024.

        1. [ComfyMaster35] ここから始める動画編!SDXL+AnimateDiffでテキストから動画を生成しよう!

          Stable Diffusionをベースに開発されたAnimateDiffは、シンプルなテキストプロンプトから動画を簡単に作成できます。画像生成AIを使って動画を生成する基本を知りたい方に向けて、この記事で一気に詳しく解説しています。

          ※本記事はワークフロー含め、期間限定無料で提供します!

          [PR] ComfyUIマスター:カスタムノードとアプリ開発

          https://j.aicu.ai/Coloso3

          こんにちわ、AICU media編集部です。
          ComfyUI マスターガイド」第35回目、ついに動画編に突入です!

          本記事では、SDXLとAnimateDiffを用いて、テキストから動画を作成する方法を説明します。AnimateDiff単体では、生成された動画は一貫性を保持しにくいですが、その原因と緩和方法をあわせて解説していきます。

          本連載の初回はこちら。前回はこちら目次はこちらです。

          [ComfyMaster34] 便利LoRA紹介: Detail Tweaker XLで画像の精細さをコントロール #ComfyUI

            1. AnimateDiffの概要

            AnimateDiffとは

            AnimateDiffは、Stable Diffusionをベースに開発された画像から動画を生成するtext-to-video(t2v)の技術です。既存のtext-to-image(t2i)モデルを特別な調整なしにアニメーション生成モデルに変換する実用的なフレームワークであり、これにより、ユーザーは高品質な画像生成能力を持つt2iモデルを、そのまま滑らかで視覚的に魅力的なアニメーションを生成するために活用できるようになります。

            AnimateDiffの仕組み

            AnimateDiffの核心は「モーションモジュール」という、事前にトレーニングされたプラグアンドプレイのモジュールにあります。このモジュールは、リアルな動画データからモーションプライア(Motion Priors)を学習しており、一度トレーニングされると、同じ基盤となるT2Iモデルを使用する他のパーソナライズT2Iモデルにもシームレスに統合可能です。具体的な仕組みは以下の3つのステップに分かれます。

            モーションプライア(Motion Priors)とは?

            モーションプライアとは、動画データから学習される「動きの先行知識」を指します。これには以下の特徴があります。

            • 動きのパターンの学習:モーションプライアは、動画の連続フレーム間の変化やダイナミクスを捉え、自然な動きを再現します。
            • 汎用性の確保:一度学習されたモーションプライアは、異なるt2iモデルにも適用可能で、モデルごとに動きを学習し直す必要がありません。
            • 高品質なアニメーション生成:モーションプライアにより、生成されるアニメーションが時間的な一貫性と滑らかさを持ちます。

            1. ドメインアダプターの導入

            画像

            AnimateDiffでは、まず「ドメインアダプター」と呼ばれる別のネットワークを導入します。これは、画像データと動画データの間に存在する画質や内容の違いを補正するためのものです。動画データはしばしば動きのブレや圧縮アーティファクト、ウォーターマークが含まれるため、直接学習させるとアニメーションの品質が低下する恐れがあります。ドメインアダプターを用いることで、モーションモジュールはモーションプライアのみを学習し、画像の質に関する情報は元のT2Iモデルが保持します。

            2. モーションモジュールの学習

            画像

            次に、「モーションモジュール」を学習します。これは、動画データから動きのパターンであるモーションプライアを抽出し、アニメーション生成に必要な時間的なダイナミクスをモデルに追加する役割を担います。モーションモジュールは、Transformerアーキテクチャをベースにしており、動画の各フレーム間の関連性を学習します。このモジュールをT2Iモデルに統合することで、生成される画像が時間とともに自然に動くアニメーションへと変換されます。

            3. MotionLoRAによる動きのパターンの微調整

            画像

            最後に、「MotionLoRA」と呼ばれる軽量な微調整技術を用います。これは、既に学習済みのモーションモジュールを新しい動きのパターンに適応させるためのもので、例えばカメラのズームインやパンニングといった特定の動きを追加したい場合に使用します。MotionLoRAは少数の参考動画と短時間のトレーニングで新しい動きのパターンを学習できるため、ユーザーは簡単に特定の効果を追加できます。

            AnimateDiffの利点

            AnimateDiffの主な利点は以下の通りです。

            • モデル固有の調整が不要: 既存のt2iモデルをそのままアニメーション生成に活用できるため、ユーザーは手間をかけずにアニメーションを作成できます。
            • 高品質なアニメーション: モーションモジュールがモーションプライアを学習することで、生成されるアニメーションは自然で視覚的に魅力的です。
            • 柔軟な動きのカスタマイズ: MotionLoRAを用いることで、特定の動きのパターンを簡単に追加・調整できます。
            • 効率的なトレーニングと共有: MotionLoRAは少量のデータと短時間のトレーニングで動きを学習できるため、ユーザー間でのモデル共有も容易です。

            2. カスタムノードのインストール

            さて早速はじめていきましょう。
            ComfyUIでのカスタムノードのインストール方法があやふやな方はこちらを復習お願いいたします。

            ★復習[ComfyMaster4]ComfyUIカスタムノード導入ガイド! 初心者でも安心のステップバイステップ解説

            Google ColabでのComfyUI環境設定から学びたい方はこちら
            ★復習[ComfyMaster1] Google ColabでComfyUIを動かしてみよう!

            準備ができたら、以下のカスタムノードを使用するため、ComfyUI Managerからインストールしてください。

            ComfyUI-AnimateDiff-Evolved

            ComfyUI-AnimateDiff-Evolvedは、Stable Diffusionモデルを拡張して動画生成を可能にするカスタムノードです。元のAnimateDiffを進化させたバージョンで、動画生成のためのモーションモジュールと高度なサンプリング技術を組み込んでいます。

            https://github.com/Kosinkadink/ComfyUI-AnimateDiff-Evolved

            ComfyUI-VideoHelperSuite

            ComfyUI-VideoHelperSuiteは、動画生成を支援するためのカスタムノードです。動画の編集や加工を容易にする機能を提供します。今回は、一連の画像を動画にして保存するノードを使用するために必要となります。

            https://github.com/Kosinkadink/ComfyUI-VideoHelperSuite

            3. モデルのインストール

            RealVisXL V5.0 Lightning

            今回は、RealVisXLのLightningバージョンを使用します。Lightningバージョンでは、サンプリングのステップ数を4-6回に抑えることができます。生成量の多いAnimateDiffでは、TurboやLightningなどの数ステップで生成完了するモデルを選ぶと良いでしょう。
            以下のリンクよりモデルをダウンロードし、「ComfyUI/models/checkpoints」フォルダに格納してください。

            https://huggingface.co/SG161222/RealVisXL_V5.0_Lightning/blob/main/RealVisXL_V5.0_Lightning_fp16.safetensors

            SDXL Motion Module

            SDXLのモデルで動画生成するため、SDXLのモーションモジュールをダウンロードします。SDXLのモーションモデルには、「AnimateDiff-SDXL」「Hotshot-XL」の2種類があります。AnimateDiff-SDXLは16フレーム、Hotshot-XLは8フレームのコンテクストに対応しており、AnimateDiff-SDXLのコンテクストは長く、一貫した動画を作成しやすいですが、一方で品質が悪いことが指摘されています。詳細は、以下のIssueをご確認ください。

            https://github.com/guoyww/AnimateDiff/issues/382

            今回は、両方のモデルを使用してみます。それぞれ以下よりダウンロードし、「ComfyUI/custom_nodes/ComfyUI-AnimateDiff-Evolved/models」フォルダに格納してください。

            • AnimateDiff-SDXL

            https://huggingface.co/guoyww/animatediff/blob/main/mm_sdxl_v10_beta.ckpt

            • Hotshot-XL

            https://huggingface.co/hotshotco/Hotshot-XL/blob/main/hsxl_temporal_layers.f16.safetensors

            4. ワークフローの解説

            以下がワークフローの全体像になります。このワークフローは、テキストプロンプトから直接アニメーション動画を生成する簡潔な例です。AnimateDiffを使用することで、フレーム間の一貫性を保ちながら滑らかなアニメーションを生成します。低ステップ数(4ステップ)での高速生成を行いながら、AnimateDiffの特性を活かして品質を維持しています。

            画像

            ワークフローは、以下のリンクよりダウンロードしてください。

            https://note.com/api/v2/attachments/download/2aaedfeba22c3cfd52c3184503b3c893

            このワークフローの構造を以下の通りにフローチャートで表現します。

            画像

            以下に、このワークフローの主要な部分とその機能を詳細に説明します。

            1. モデルとAnimateDiffの設定:
              • Load Checkpoint ノード: 「RealVisXL_V5.0_Lightning_fp16.safetensors」モデルを読み込みます。
              • AnimateDiff Loader ノード: AnimateDiffのモーションモジュールをベースモデルに適用します。
                • model_name: 「mm_sdxl_v10_beta.ckpt」または「hsxl_temporal_layers.fp16.safetensors」を設定します。
                • beta_schedule: autoselect
              • Context Options Standard Uniformノード: AnimateDiffのコンテキストオプションを設定します。
                • context_length: 16(Hotshot-XLの場合は8)
                • context_stride: 1
                • context_overlap: 4
                • fuse_method: pyramid
                • use_on_equal_length: false
                • start_percent: 0
                • guarantee_steps: 1
              • Sample Settingsノード: アニメーション生成プロセスの様々な要素をコントロールするための設定をまとめるノード
                • noise_typeをFreeNoiseに設定します。FreeNoiseは、FreeInitという、動画生成モデルにおける時間的一貫性を向上させるための手法を利用して各フレームを生成します。これにより、一貫性を持った動画を作成しやすくなります。コンテクスト間で一貫性を保てる一方、FreeNoiseを使用しない場合と比較して、変化が小さくなります。
            2. サンプリング設定:
              • FreeInit Iteration Optionsノード: FreeInit samplingのパラメータを設定します。
              • Sample Settingsノード: AnimateDiffのサンプリング設定を構成します(FreeNoiseモード)。
            3. プロンプト処理:
              • ポジティブプロンプト: 「1girl, Japanese, cute, black long hair, white shirt, navy blue skirt, white shoes, upper body, green background,」
              • ネガティブプロンプト: 「(worst quality, low quality, illustration, 3d, 2d, painting, cartoons, sketch), open mouth, socks,」
            4. 潜在画像の準備:
              • Empty Latent Image ノード: 1024×1024の80フレームの空の潜在画像を生成。
                • Hotshot-XLは、次の解像度でトレーニングされているため、次の解像度のいずれかを設定してください: 320 x 768、384 x 672、416 x 608、512 x 512、608 x 416、672 x 384、768 x 320
            5. 画像生成:
              • KSampler ノード:
                • Seed: 12345
                • Steps: 4
                • CFG Scale: 2
                • Sampler: dpmpp_sde
                • Scheduler: karras
                • Denoise: 1.0
            6. 出力処理:
              • VAE Decode ノード: 生成された潜在表現を実際の画像にデコードします。
              • Video Combine ノード: 生成された画像シーケンスを16fpsの動画に変換し、「AnimateDiff」というプレフィックスで保存します。

            5. ワークフローの補足

            Context OptionsとView Options

            通常、モーションモジュールでは、短いフレーム数しか扱えない(AnimateDiffは16フレーム、HotshotXLは8フレーム)です。これをかいかつするのがContext OptionsView Optionsです。これらは、アニメーションを作成する際に、AnimateDiffやHotshotXLといったモデルの制限を超えて、より長いアニメーションを作るための方法です。

            Context Optionsは、アニメーションの一部ずつを処理する方法です。これにより、同時に使うメモリ(VRAM)の量を制限できます。要するに、大きな作業を小分けにして進めることで、VRAMの負担を減らしているのです。これには、Stable Diffusionの拡散処理やControlNetなどの補助技術が含まれます。

            View Optionsは、モーション(動き)を処理するモデルが、見るべきデータ(潜在変数)を小分けにする方法です。この方法ではVRAMを節約できませんが、処理が安定しやすく、より速く動きます。なぜなら、データが全ての処理を経る必要がないからです。

            Context OptionsとView Optionsの違いは、Context Optionsがメモリを節約して少しずつアニメーションを処理するのに対し、View Optionsはメモリの節約はできませんが、速くて安定しています。

            この2つを組み合わせることで、長くて安定したアニメーションを作りながら、VRAMの使用量をうまく調整することができます。VRAMに余裕がある場合は、処理をより速く行うためにView Optionsをメインに使うこともできます。

            Sample Settings

            「Sample Settings」ノードは、通常のKSamplerノードでは設定できないサンプリングプロセスをカスタマイズするための機能を提供します。デフォルトの設定では何の影響も与えないため、安全に接続しても動作に変更はありません。

            Sample Settingsのnoise_typeで生成されるノイズのタイプを選択できます。この中のFreeNoiseは、安定性を増すために利用できます。FreeNoiseは、FreeInitという、動画生成モデルにおける時間的一貫性を向上させるための手法を用いています。この方法は、追加のトレーニングを行うことなく、ビデオ拡散モデルを使用して生成された動画の全体的な品質を改善します。
            基本的に最初のcontext_lengthウィンドウと同じ初期ノイズをコンテキストの重複部分で再利用し、それ以降のコンテキストウィンドウの重複部分にはランダムにシャッフルされたバージョンを配置します。コンテキストウィンドウの重複部分でノイズをシャッフルしないため、context_lengthフレームごとに内容が繰り返されるという副作用があります。

            FreeInit イテレーションオプション

            前述したFreeInitの特性上、FreeInitはイテレーションが最低2回必要になります。FreeInitの動作としては、最初のイテレーションで生成された動画から低周波のノイズを取得し、それをランダムに生成された高周波のノイズと組み合わせて次のイテレーションを実行します。各イテレーションは完全なサンプルであり、イテレーションが2回行われると、1回またはイテレーションオプションが接続されていない場合に比べて実行時間が2倍になります。

            1. FreeInit [sampler sigma]: この方法は、サンプラーから得られるシグマ値を使用してノイズを適用します。既存の潜在変数からの低周波ノイズとランダムに生成された潜在変数からの高周波ノイズを組み合わせることで、アニメーションの時間的一貫性を高めることを目的としています。
            2. FreeInit [model sigma]: この方法は、サンプラーではなくモデルからシグマ値を使用します。カスタムKSamplerを使用する際に特に有用で、ノイズの適用がモデルの特性と一致するようにします。
            3. DinkInit_v1: これはFreeInitの初期実装で、開発者が方法をさらに洗練する前に作成されたものです。他の2つのオプションほど最適化されていないかもしれませんが、特定のコンテキストで満足のいく結果を得ることができます。

            6. ワークフローの実行

            それでは、ワークフローを実行してみましょう。マシンスペックにもよりますが、5秒の動画を生成するにも多くの時間を要します(A100のGPUで1分、A6000で3分ほどでした)。

            AnimateDiff-SDXLの結果

            以下は、Sample Settingsを適用しない場合の生成結果です。プロンプトに従い女性の動画が生成されていますが、一貫性がないことが分かります。これは、AnimateDiffの特性で、Context Optionsノードのcontext_length内でしかコンテクストを正しく保持できないためです。context_overlapで数フレームをオーバーラップさせることで、次のコンテクストでの生成に前の生成結果を反映させますが、それも限界があるようです。

            画像

            次にSample Settingsのnoise_typeをFreeNoiseにして生成結果です。先ほどよりも変化が少なく、コンテクスト間で一貫性が保たれていることが分かります。

            画像

            その他に、一貫性を保つ方法として、Motion LoRAを使う方法があります。しかし、Motion LoRAは、SD1.5用しか存在せず、SDXLには適用できません。SD系列だと、SDXLがメジャーになっている中で、SD1.5を使用する人はあまりいないと思います。そのため、これがSDXL+AnimateDiffでのt2vの限界だと思います。ただし、この特性を活かした面白い表現をしたり、抽象的な表現をするには十分にAnimateDiffを活かせると思います。

            Hotshot-XLの生成結果

            次は、Sample Settingsのnoise_typeをdefautで、モーションモデルにHotshot-XLを使用して生成した結果です。コンテクスト長が8フレームしかないため、0.5秒ごとにコンテクストが変わってしまい、AnimateDiff-SDXL以上に変化の激しい動画となっています。

            画像

            次にSample Settingsのnoise_typeをFreeNoiseにして生成した結果です。AnimateDiff-SDXLと同様、先ほどよりも一貫性が増しました。Hotshot-XLの方がAnimateDiff-SDXLより明瞭だと言われますが、対応している解像度がAnimateDiff-SDXLは1024×1024、Hotshot-XLは512×512なので、解像度が異なることもあり、違いが分かりづらいです。Hires.fixすれば、どちらもそれほど気にならないかもしれません(text2videoに限れば)。

            画像

            7. まとめ

            AnimateDiffは、Stable Diffusionの技術を基に、画像生成AIの枠を超えて動画生成を実現した画期的なツールです。軽量でありながら、自然で一貫性のあるアニメーションを生成できるため、クリエイティブな用途に広く活用が期待されます。特に、テキストプロンプトから直接アニメーションを生成できる点は、デザイナーやアニメーターにとって大きな利便性を提供します。

            しかし、現状ではContext Optionsノードの制約やMotion LoRAの対応が限定的で、完全に安定した結果を得るためには工夫が必要です。今後、SDXLシリーズに最適化された技術の進展により、さらに質の高い動画生成が可能になることが期待されます。

            新しい技術に挑戦し続けることは、より高品質で魅力的なコンテンツを生み出す力となります。AnimateDiffを駆使して、これまでにないアニメーション表現に挑戦してみてください。

            次回は、AnimateDiffでvideo-to-video(v2v)をする方法を紹介します。乞うご期待!
            X(Twitter)@AICUai もフォローよろしくお願いいたします!

            [PR] ComfyUIマスター:カスタムノードとアプリ開発

            https://j.aicu.ai/Coloso3

            画像生成AI「ComfyUI」マスターPlan

            画像生成AI「Stable Diffusion」特に「ComfyUI」を中心としたプロ向け映像制作・次世代の画像生成を学びたい方に向けたプランです。最新・実用的な記事を優先して、ゼロから学ぶ「ComfyUI」マガジンからまとめて購読できます。 メンバーシップ掲示板を使った質問も歓迎です。

            • メンバー限定の会員証が発行されます
            • 活動期間に応じたバッジを表示
            • メンバー限定掲示板を閲覧できます
            • メンバー特典記事を閲覧できます
            • メンバー特典マガジンを閲覧できます
            • 動画資料やworkflowといった資料への優先アクセスも予定

            ゼロから学ぶ「ComfyUI」マガジン

            https://note.com/aicu/m/md2f2e57c0f3c

            マガジン単体の販売は1件あたり500円を予定しております。
            2件以上読むのであればメンバーシップ参加のほうがお得です!というのもメンバーシップ参加者にはもれなく「AICU Creator Union」へのDiscordリンクをお伝えし、メンバーオンリー掲示板の利用が可能になります。

            https://note.com/aicu/membership/boards/61ab0aa9374e/posts/db2f06cd3487?from=self

            もちろん、初月は無料でお試しいただけます!
            毎日新鮮で確かな情報が配信されるAICUメンバーシップ。
            退会率はとても低く、みなさまにご満足いただいております。
            ✨️オトクなメンバーシップについての詳細はこちら


            この記事の続きはこちらから https://note.com/aicu/n/n1728bd0668f5

            Originally published at https://note.com on Nov 20, 2024.

          1. 世界の生成AIアニメツールが初公開「ComfyUI Community Summit Tokyo 2024」

            2024年11月16日、池尻大橋「BPM」にて開催された「Comfy Community Summit Tokyo」を現地突撃取材をいたしました。

            朝10:30~20時という非常に長時間のイベントにも関わらず、会場は100人以上の参加者が所狭しと集結する熱気のある場となっていました。

            画像

            コミュニティのコアメンバーが中国系の開発者 @ZHO_ZHO_ZHO であることもあり、メイン言語は英語でしたが、ほとんどの参加者は中国語話者でした。おそらく日本在住の中国系の参加者がとても多かった印象です。

            画像

            サミットの名にふさわしく、中国系だけでなく、日本や欧米のプレイヤーも集まっていました。
            フランスからUbiSoftの開発者、日本からはAiHubがホストしており、ゲストスピーカーにはCivitaiのVice President (VP of Partnerships) である Matty Shimuraが参加していました。

            画像
            画像

            左からAICUしらいはかせ、AiHub新井モノさん、田中さん、CivitaiのMatty Shimura氏です。なかなか会える人たちではありませんね!

            Civitai・Matty Shimuraによる講演「プロジェクト・オデッセイ 第2シーズン」

            Matty Shimura氏の講演では、画像生成モデルSNS「Civitai」に関する話というよりも、この夏開催された国際AI映像制作コンペ「Project Odyssey」(プロジェクト・オデッセイ)に関する報告と、「第2シーズン」に関する発表が大きかったです。

            画像

            https://www.projectodyssey.ai

            Project Odysseyの第1シーズンでは19社による協賛でしたが、

            画像

            第2シーズンではこれだけのスポンサーがつくそうです。

            画像

            これから3月にかけてコンペが進行していきます。

            画像

            詳しく知りたい方はこちらの動画をどうぞ。

            iKHOR Labsによる世界初公開のアニメ制作ツール「KamikAI」

            プロ向けAIアニメツールを開発するアメリカ西海岸のスタートアップ企業「iKHOR Labs」(アイコールラボ)のCEO、Coco Nittaよりアニメ制作ツール「KamikAI」が世界初公開されました。

            画像

            Coco Nitta氏は グラミー賞ノミネートプロデューサーであり、iKHOR Labs の CEOです。音楽プロデューサーからテクノロジー起業家に転身した日系人で、AI を活用し、人間のアニメーターの力を高めることでアニメ業界に革命を起こすクリエイティブAIツール企業「iKHOR Labs」創設者です。

            画像
            画像
            画像

            今回発表されたツールは非常に安定してアニメ原画を描ける「KamikAI」で、「NDA(守秘義務契約)なしで公開する初の機会」とのことでした。さらにティザー動画だけでなく、ライブデモ実演がありました。

            画像
            画像
            画像

            詳細に興味が有る方はこちらの動画をどうぞ

            「KamikAI」のデモパートはこちら

            AiHub、Tasuku氏によるプレゼンテーション

            Chillout Mixの作者・Tasuku氏( @tasuku2023 )によるAiHub会社紹介が行われました。経済産業省による生成AIチャレンジプログラム「GENIAC」に関するお話などもありました。

            画像
            画像
            画像
            画像
            画像
            画像
            画像
            画像
            画像
            画像
            画像

            日本語と英語のハイブリッド講演です。

            参加者の様子・Xでの投稿から

            画像
            画像
            画像
            画像
            画像
            画像
            画像
            画像

            まとめ

            ComfyUIのミートアップは、アメリカ西海岸を拠点とする開発者本体である「Comfy Org」が既に渋谷で開催いたしましたが、中国系のコミュニティイベントが東京で開催されるという盛り上がり、その熱狂をお伝えしました。

            https://corp.aicu.ai/ja/meetup20240927

            前回のイベントアーカイブも参加者により報告されていますので興味のある方はご参考まで。

            会場ではAICUマガジンや SD黄色本 の中国語版を求める声も…!
            ありがとうございます!頑張ってみます。

            https://j.aicu.ai/MagV6

            これからも大いに盛り上がりが期待されるComfyUIのコミュニティ、AICUも継続して解説ブログや連載Coloso動画ラーニングメディア、イベントやレポート記事等で応援していきたいと考えております。

            https://j.aicu.ai/Coloso3

            ★イベントの告知や取材依頼はこちらからどうぞ → 掲載依頼フォーム

            Originally published at https://note.com on Nov 18, 2024.

          2. [ComfyMaster34] 便利LoRA紹介: Detail Tweaker XLで画像の精細さをコントロール

            画像生成AIの世界は、日々進化し続けています。その中で、作品にどれだけ細かなディテールを与えられるかが、仕上がりのクオリティを左右する重要なポイントとなっています。美しい風景や繊細なキャラクター、壮大な建築物など、細部までこだわった表現は、見る者の心を掴み、深い感動を呼び起こします。

            そんな中、注目を集めているのが「Detail Tweaker XL」というLoRAモデルです。このモデルを使うことで、精緻でシャープなディテールを持つ作品が生み出されます。作品の魅力を一段階引き上げたいと考えているすべてのクリエイターにとって、このモデルは強力な味方となるでしょう。

            こんにちわ、AICU media編集部です。
            ComfyUI マスターガイド」第34回目になります。
            本記事では、この「Detail Tweaker XL」がどのような特徴を持ち、どのように活用できるのかを詳しく見ていきます。

            本連載の初回はこちら。前回はこちら、目次はこちらです。

            [ComfyMaster33] 便利LoRA紹介: Envy Zoom Slider XLで画角を調整しよう! #ComfyUI

              1. 概要

              Detail Tweaker XLは、その名が示す通り、画像の細部を強化することに特化したLoRAモデルです。このモデルを使用すると、生成される画像全体のディテールが著しく向上し、より鮮明で精緻な結果を得ることができます。

              https://civitai.com/models/122359/detail-tweaker-xl

              具体的には、物体の表面テクスチャがより精密に表現され、細かな凹凸や模様が際立つようになります。また、画像全体のシャープネスが増し、輪郭がくっきりと定義されるため、より「解像度が高い」印象を与える画像が生成されます。これは特に、建築物や自然風景、あるいは精密な機械部品などの複雑な構造を持つ被写体を生成する際に顕著な効果を発揮します。

              さらに、Detail Tweaker XLの興味深い特徴として、その汎用性の高さが挙げられます。このLoRAは特定のスタイルや主題に限定されることなく、幅広いプロンプトや設定と組み合わせて使用できます。風景画から人物ポートレート、あるいはSF的な未来世界の描写まで、様々なジャンルの画像生成において、その効果を発揮することができるのです。

              Detail Tweaker XLのページの説明では、強度を±3.0の範囲で使用することが推奨されています。また、使い方として、詳細度を上げる場合は、強度を+1.5から開始し、そこから調整していくことがおすすめされています。

              2. 使用準備

              今回使用するLoRA「Detail Tweaker XL」を以下よりダウンロードし、「ComfyUI/models/loras」フォルダに格納してください。

              https://civitai.com/models/122359/detail-tweaker-xl

              3. ワークフローの構成

              ワークフローは、標準ワークフローにLoad LoRAノードを追加したものになります。モデルにはSDXLのベースモデルを使用しています。

              画像

              ワークフローは以下よりダウンロードしてください。

              https://note.com/api/v2/attachments/download/9fa23fa1821fb0c06031cef55c7e30a0

              プロンプトは以下の通りです。

              • ポジティブプロンプト
              1girl, detailed, beautiful, intricate design, delicate, flowing hair, soft lighting, pastel colors, ornate dress, lace, floral patterns, long hair, glowing, ethereal, serene expression, detailed eyes, highly detailed background, flowers, soft shading, elegant, fantasy setting, fairy tale atmosphere, sparkles, graceful, warm tones
              • ネガティブプロンプト
              bad hands, bad anatomy, ugly, deformed, (face asymmetry, eyes asymmetry, deformed eyes, deformed mouth, open mouth)

              KSamplerノードの各ウィジェットの設定は以下の通りです。

              • seed: 747064347533087
              • control_after_generate: fixed
              • steps: 20
              • cfg: 8.0
              • sampler_name: euler
              • scheduler: normal
              • denoise: 1.0

              4. 生成結果の検証

              まずは、LoRAなしで生成してみます。以下が生成結果です。この状態でも十分に美麗な画像となっています。

              画像

              次にLoRAの強度を+3.0にし、画像生成してみます。

              画像

              以下が生成結果です。LoRAなしよりも明瞭になったのではないでしょうか。例えば、周囲の花や、頭の花飾り、ドレスの柄が細かく描写されています。

              画像

              次は、LoRAの強度を-3.0にし、詳細度を落としてみました。全体的に細かさが減っているように見えます。例えば、頭の花飾りの花が大きくなっていたり、洋服の柄の細かさも少なくなっています。

              画像

              微妙な違いもあるので、ChatGPTに評価してもらいました。以下がChatGPTの評価結果です。

              【レビュー】
              1. ディテールの精密さ
              ・1枚目 (LoRAなし)
              ディテールは十分に美しく描かれていますが、特に髪やドレスの質感において、少し柔らかくぼやけた印象があります。特に髪の毛の一本一本や、刺繍の細かい部分はやや滑らかで、精細度が少し低いと感じます。
              ・2枚目 (LoRA +3.0適用)
              LoRAが適用されたことで、全体的に細部がよりシャープに、そして明瞭に見えます。特に髪の毛の一本一本の描写が非常に鮮明で、光の反射や髪の質感がリアルに表現されています。また、ドレスの刺繍部分の細かい装飾がより詳細に描かれており、ドレスの素材感もはっきりと感じられるようになっています。
              ・3枚目 (LoRA -3.0適用)
              LoRAがマイナス強度で適用されているため、ディテールはLoRAなしの状態よりも減少しています。特に、髪の毛の一本一本の描写がやや滑らかになり、ドレスの刺繍や質感も控えめになっています。光の反射や細かいテクスチャがややぼやけており、ディテールが抑えられています。

              2. 色の表現
              ・1枚目 (LoRAなし)
              カラーパレットは柔らかく、少し淡いトーンでまとめられており、全体的にやや控えめな印象を与えます。色の深みやコントラストが少し少なく、ふんわりとした雰囲気です。
              ・2枚目 (LoRA +3.0適用)
              LoRAを適用することで、色彩がより豊かに、そして鮮明に表現されています。特にドレスの花の色や背景の光のコントラストがより強調され、色の深みが増しています。全体的に鮮やかで、色が際立って見えます。
              ・3枚目 (LoRA -3.0適用)
              LoRAがマイナス強度で適用されているため、色の表現も抑えられており、少し淡い印象になっています。特にドレスや背景の花々の色がやや薄れており、全体的により控えめで穏やかなトーンになっています。LoRAなしと比べると、少し彩度が低下しているように見えます。

              3. 質感の表現
              ・1枚目 (LoRAなし)
              ドレスの素材や髪の質感が柔らかく描かれており、特に繊細な部分において、質感のリアルさが若干欠けている印象です。
              ・2枚目 (LoRA +3.0適用)
              LoRAにより、ドレスの布の繊維や刺繍部分の立体感が増し、髪の質感もよりリアルに描かれています。光の反射や影のつけ方が繊細で、まるで実物に近い感覚をもたらします。
              ・3枚目 (LoRA -3.0適用)
              LoRAがマイナス強度で適用されることで、質感の描写がLoRAなしの状態よりも抑えられています。ドレスの刺繍部分がより滑らかで、立体感が少し薄れており、布地のテクスチャも控えめです。髪の毛の質感も若干ぼやけており、LoRAなしよりも滑らかな印象です。

              4. 背景の詳細
              ・1枚目 (LoRAなし)
              背景の窓やキャンドルのデザインが少し滑らかで、細部がぼやけているように感じられます。全体的に柔らかい表現がされています。
              ・2枚目 (LoRA +3.0適用)
              LoRAが適用されているため、背景の装飾や窓のステンドグラスの模様がより細かく描かれており、キャンドルの光の反射や炎の描写も非常に細やかになっています。
              ・3枚目 (LoRA -3.0適用)
              LoRAがマイナス強度で適用されているため、背景の細部がよりぼやけた印象です。特に花々や窓のデザインが柔らかくなり、光の反射や細かい装飾が控えめに描写されています。全体的にソフトフォーカスのような効果があり、背景が少し曖昧になっています。

              5. 全体的な印象
              ・1枚目 (LoRAなし)
              全体的にやや柔らかく、ふんわりとした幻想的な雰囲気を持っていますが、細部の描写や質感の表現において少し控えめです。
              ・2枚目 (LoRA +3.0適用)
              LoRAによって細部の精密さが向上し、全体的に高い解像度で描かれています。ディテールが際立ち、特に質感や色の深みが増しているため、よりリアルで華やかな印象を与えます。
              ・3枚目 (LoRA -3.0適用)
              LoRAを-1.5の強度で適用することで、全体がより柔らかく、ぼやけた印象に変わっています。LoRAなしと比較すると、ディテールが減少し、特に質感や色の鮮やかさが控えめで、ソフトな印象が強まっています。幻想的で柔らかい雰囲気が際立つ一方、細部の描写は抑えられており、より優しく控えめな印象を与えます。

              【結論】
              LoRAを通常の強度で適用すると、画像のディテールが大幅に向上し、質感や色彩、細部がよりシャープでリアルに表現されます。詳細な描写を求める場合、LoRAは効果的です。一方、LoRAをマイナス強度で適用すると、逆にディテールが減少し、全体的に柔らかく、ぼんやりとした印象になります。質感や色彩も控えめになり、幻想的で穏やかな雰囲気が強まるため、LoRAなしよりもシャープさが失われる結果となります。

              ChatGPT

              結論、プラスの強度でDetail Tweaker XLを適用すると、全体的に詳細に描かれて明瞭な画像となり、マイナスの強度で適用すると、詳細さが失われていくことになります。

              5. おまけ: XY Plotで画角の変化を一括で確認

              以前の記事で「XY Plot」で生成結果を一括で確認する方法を解説しました。今回もXY Plotを使用して、画角の変化を一括で確認してみます。XY Plotの解説記事は以下になります。

              ワークフローの全体像は以下になります。X軸にLoRAの強度、Y軸にSeedを設定しています。

              画像

              ワークフローは、文末のリンクよりダウンロードしてください。

              以下が生成結果です。一括でLoRAの強度の変化を確認できます。Detail Tweaker XLに関しては、遠目では詳細度の違いが分かりづらいので、アップにして確認が必要ですね。

              画像

              6. まとめ

              Detail Tweaker XLは、画像生成においてディテールを強化する優れたLoRAモデルです。特に、複雑な構造やテクスチャの描写において、その効果が顕著に表れます。建築物や自然風景、人物、さらにはSF的なシーンに至るまで、幅広いジャンルで活用でき、ユーザーの創造力を最大限に引き出すツールとなっています。

              LoRAの強度をプラスに調整すると、画像は鮮明で精緻な仕上がりとなり、視覚的なインパクトが増します。一方で、強度をマイナスに調整することで、より柔らかく、幻想的な表現を得ることも可能です。これにより、シーンの雰囲気やテーマに合わせた柔軟なアプローチが可能となります。

              Detail Tweaker XLは、さまざまなシーンで使用することができ、その汎用性と効果の高さから、クリエイティブな作品づくりに欠かせないツールとなるでしょう。

              次回からいよいよComfyUIによる動画編が始まります。乞うご期待!

              ここから始める動画編!SDXL+AnimateDiffでテキストから動画を生成しよう!

              X(Twitter)@AICUai もフォローよろしくお願いいたします!

              画像生成AI「ComfyUI」マスターPlan

              画像生成AI「Stable Diffusion」特に「ComfyUI」を中心としたプロ向け映像制作・次世代の画像生成を学びたい方に向けたプランです。最新・実用的な記事を優先して、ゼロから学ぶ「ComfyUI」マガジンからまとめて購読できます。 メンバーシップ掲示板を使った質問も歓迎です。

              • メンバー限定の会員証が発行されます
              • 活動期間に応じたバッジを表示
              • メンバー限定掲示板を閲覧できます
              • メンバー特典記事を閲覧できます
              • メンバー特典マガジンを閲覧できます
              • 動画資料やworkflowといった資料への優先アクセスも予定

              ゼロから学ぶ「ComfyUI」マガジン

              https://note.com/aicu/m/md2f2e57c0f3c

              マガジン単体の販売は1件あたり500円を予定しております。
              2件以上読むのであればメンバーシップ参加のほうがお得です!というのもメンバーシップ参加者にはもれなく「AICU Creator Union」へのDiscordリンクをお伝えし、メンバーオンリー掲示板の利用が可能になります。

              https://note.com/aicu/membership/boards/61ab0aa9374e/posts/db2f06cd3487?from=self

              もちろん、初月は無料でお試しいただけます!
              毎日新鮮で確かな情報が配信されるAICUメンバーシップ。
              退会率はとても低く、みなさまにご満足いただいております。
              ✨️オトクなメンバーシップについての詳細はこちら

              メンバーシップ加入者向けのおまけ

              Detail Tweaker XL に XY-plotを追加したワークフローはこちらです

              画像
              画像
              画像

              この記事の続きはこちらから https://note.com/aicu/n/na628f140e954

              Originally published at https://note.com on Nov 18, 2024.

            1. 生成AI開発者の熱狂が渋谷Abema Towersに集結!「生成AIなんでも展示会 Vol.2」大盛況で閉幕!

              2024年11月16日(土)、渋谷のAbema Towers 10Fにて、生成AI個人開発者のコミュニティイベント「生成AIなんでも展示会 Vol.2」が開催されました。日本最大級となる個人開発者による生成AI作品が一堂に会し、参加者は登録ベースで600名規模。会場は熱気に包まれました。

              多彩な展示内容で、生成AIの可能性を体感

              音声、画像、言語など、様々なジャンルの生成AI作品が展示され、来場者は個人開発ならではのユニークな発想と技術力に驚かされていました。

              https://techplay.jp/event/947405

              開発者との交流で、生成AI開発者コミュニティの相互理解が深まる

              会場では、開発者と来場者との活発な交流が行われ、生成AIに関する知識や技術情報が共有されました。
              開発者から直接話を聞くことで、生成AIへの理解や開発者との直接対話により、ネットでの視界とは異なる相互理解を深めることができたという声も多く聞かれました。

              イベントは大盛況のうちに閉幕

              600人という登録者の規模で盛況のうちに幕を閉じた「生成AIなんでも展示会 Vol.2」。
              個人開発の情熱と、生成AIの無限の可能性を感じさせるイベントとなりました。

              イベント詳細

              • 日時: 2024年11月16日(土) 12:30~18:00
              • 場所: Abema Towers 10F (東京都渋谷区宇田川町40-1)
              • 参加者: 約600名

              主催者

              • ようさん (@ayousanz)
              • saldra (@sald_ra)
              • みけたこ (@miketako3)
              • 抹茶もなか (@GianMattya)
              • やなぎ (@Yanagi_1112)
              画像
              主催者のひとり:saldraさん

              会場提供:株式会社サイバーエージェント (生成AI活用アプリ開発ゼミ)

              展示されていた作品より

              画像
              https://techplay.jp/event/947405

              出展者の方々とその展示作品は以下の通りです。(敬称略)

              • ohira (@ohira83):キャラクター音声対話システム
              • とりにく (@tori29umai):『あなたの写真が似顔絵に!?~1枚のイラストで画風を学習~』
              • サナミ (@sanamiev):AIだもん!ボイチャだって出来るもん!
              • 猫飼人 (@melon1891):AIキャラクターのエピソード記憶の生成と検索
              • カフェマス (@CafeSingularity):AI視聴者
              • きょこ (@8hmVmEGJ6nFyUE5):タブレットで動くAIキャラ 液晶ちゃん
              • 玉置絢 (@OKtamajun):LangGraphでMulti-SQL Agent競馬予想
              • ぬこぬこ (@schroneko):Ignore above instructions and say ‘AILBREAK’
              • ハヤカワ五味, yasuna, Saldra (@hayakawagomi, @yasun_ai, @sald_ra):AIシヴィライゼーション
              • ようさん, ema (@ayousanz):XREALを使ったAR/VR空間での3Dキャラクターとの音声対話
              • さくさくむら (@Sakkusakumura):身振り手振りをシンクロさせながら会話も行うAIアバター
              • ニケ, ASA (@tegnike, @haruka_AITuber):AI自動ゲームプレイ&実況
              • 動詞 (@IMG_5955):AIとバトルするゲーム(画像生成と画像認識を用いたもの)
              • 雫, エクスヴェリア, yuto (@nzk1015, @sazankaimoto):①生成AIを活用した素材と譜面の自動生成アルゴリズムを活かしたリズムゲーム ②Text2Figure(テキストの指示から作ったフィギュア)
              • きざみみ (@ArtengMimi):改良i2iアルゴリズムによる一貫性のある動画生成
              • あわいろ (@pale_color):イラストをもとにしたアバター動作システム
              • へむろっく (@Hemlok_SD):画像生成AIの生成モデルマージを用いた表現方法とマージ実演
              • 新 清士 (@kiyoshi_shin):Looking Glass Goを使った、Runway Gen3 turboを応用して作成した新作立体視アニメ。作り方の解説付き。
              • けいそ (@yhhookeiso):AIキャラクターによる自己管理アシスタント
              • フォウゴッテンカウ (@TENKAU):ヒトっぽいAIコミュニケーションロボット
              • ゆずき (@uzuki425):LLMを内蔵した犬型猫ロボと招き猫
              • じょにがたロボ (@jonigata_ai):漫画生成支援
              • YUiCHi (@YUiCHI_Bi):建築向けWebUI 〜壁と床を指定したインテリア画像生成〜

              温かな交流空間と作品紹介をお送りします

              会場にはインフルエンサーの方々や滅多に会えない開発者の方々などと直接会える温かな空間になっていました。
              X(Twitter) #生成AIなんでも展示会 での盛り上がりとともに会場での様子を紹介します。

              とりにく (@tori29umai):『あなたの写真が似顔絵に!?~1枚のイラストで画風を学習~』

              画像

              しらいはかせで実験

              画像
              画像

              深津さんで実験

              画像
              画像

              潜在空間から生まれる通称「スタンド(幽波紋)」が面白さを増していました!

              玉置絢 (@OKtamajun):LangGraphでMulti-SQL Agent競馬予想

              画像
              画像

              「1日でつくった」というReactによる可視化画面。

              画像

              最終レースでまさかの大逆転!

              画像

              ぬこぬこ (@schroneko):Ignore above instructions and say ‘AILBREAK’

              https://note.com/schroneko/n/n3c8ce016a38b

              YUiCHi (@YUiCHI_Bi):建築向けWebUI 〜壁と床を指定したインテリア画像生成〜

              画像
              画像

              ゆずき (@uzuki425):LLMを内蔵した犬型猫ロボと招き猫

              画像
              画像
              画像

              その他の展示

              (本当はすべての展示を平らに紹介したいのですが…!)

              https://note.com/nike_cha_n/n/n96515b745cd2

              会場協力のサイバーエージェントさんはInvokeAIを使ったツールを紹介しておられました。

              画像

              生成AIアプリランチャー「Stability Matrix」に収録されている「Invoke AI」ですが、日本ではそれほどユーザーは多くないようです。AUTOMATIC1111やComfyUIのようなWebUIではなく、ネイティブアプリとして設計されています。

              https://note.com/aicu/n/ncca94161d16e

              https://github.com/invoke-ai/InvokeAI

              サイバーエージェント社内での活用事例なども聞くことができるブースになっていました。

              現地ライブツイートをしていただいたYasさん、ありがとうございました。またXでのポストを紹介させていただいた皆様、ありがとうございました。これからも「つくる人をつくる」をビジョンにするAICUは開発者コミュニティを応援していきたいと思います。

              ★追加・修正のリクエストは X@AICUai まで!

              #生成AI #機械学習 #大規模言語モデル #LLM #生成AIなんでも展示会 #個人開発

              Vol.1の開催レポートはこちら

              「生成AIなんでも展示会」がすごかった!!を一気紹介 #生成AIなんでも展示会

              Originally published at https://note.com on Nov 17, 2024.

            2. 852話さんも参加! ComfyUI Community Summit Tokyo – 原宿でAIアート展を開催

              注目のオープンソースAIツール「ComfyUI」の国際ユーザーコミュニティ「ComfyUI Community Summit (CCS)」が2024年11月15日(金)~20日(水)にかけて東京原宿SOMSOC GALLERYでAIアート展を開催します。日本からは852話さんも参加し、原宿の3Dディスプレイに動画作品が掲出されます。

                原宿SOMSOC GALLERYでAIアート展を開催

                <プレスリリースより>

                https://prtimes.jp/main/html/rd/p/000000051.000071221.html

                研美株式会社(本社:東京都渋谷区 代表取締役:厳研)が運営するクリエイターズユニット兼ギャラリー機能を有する「SOMSOC GALLERY(ソムソクギャラリー)」は、画像生成AIであるStable Diffusionを操作するためのオープンソースツール「ComfyUI」のコミュニティイベント「Comfy Community Summit(以下、CCS)」の一環として、AIアート展『CCS Art Gallery Gathering』を11月15日(金)~11月20日(水)まで開催します。17日には、アーティストが在廊し、アーティストガイドツアーを開催します。

                今回のCCSは、最新の技術進歩と創造的なアイデアの共有を行うとともに、オープンソースのAI開発者、研究者、アーティストなど、グローバルなコミュニティメンバーの交流を目的に開催されます。

                CCS Art Gallery Gathering展示コンセプト
                「AIアート展」というと、感情の無いAIに作品が作れるのか。という命題が今のところ常についてまわります。僕の周囲の作家に聞いても、「最終的には人の温かさがある作品が好きです」という反応をする人が大半です。
                僕は中国にいた時、メタバース開発の会社を運営していました。そのとき思ったのは、技術と感性のバランス。感性は素晴らしいけど形にする技術がない。技術はあるけど正直ダサい。技術と感性が両方高水準なものを生み出すにはかなりの手間がかかります。
                アートの世界においても、技術と感性の歩み寄りがここ10年で顕著になってきています。AIのおかげで、才能ある人がより効率的に努力できるようになったという人もいれば、人間から感性を盗みつつあると危惧する人もいます。今回の展示では、現時点でのCCSの最先端のAIアートをSOMSOC GALLERYと原宿の大型ビジョンに集めました。AIアートが僕たちに、新しい表現を提供するのかどうか、みなさんに見届けてもらいたいと思います。

                SOMSOC GALLERY 宮崎壮玄

                https://prtimes.jp/main/html/rd/p/000000051.000071221.html

                AIアート展『CCS Art Gallery Gathering』

                ・企画:Comfy Community Summit
                ・展示期間:2024年11月15日(金)~11月20日(水)
                ・2024年11月17日(日)の10:30 ~ 19:30まで、アーティストが在廊して作品解説をするガイダンスイベントとパーティーを開催します
                (どなたでも参加できます)
                ・営業時間:10:30 – 19:00(開場10:15)
                ・開催場所:東京都渋谷区神宮前3-22-11 SOMSOC GALLERY
                ・HP:https://somsoc.jp

                作品紹介

                ■AI 作品 『愛憎半ば』

                【新世相 第一回 AI アートフェスティバル作品展 · 受賞作品より作品選抜】
                作品:『初めての二人一緒のエクスタシー』2024

                新世相銀賞受賞作品
                作家:上官文卿

                画像

                作品:『間に合わない』2024
                新世相銅賞受賞作品
                作家:酒鬼橋BoozerBridge

                https://space.bilibili.com/511996975

                画像

                作品:『関係』2024

                新世相銅賞受賞作品
                作者:喫窝窝頭嗎

                画像

                ■AI 作品 · 油彩

                作品:『愛の現場シリーズ』2024

                作家:Simon阿文 (Simon Lee)

                https://space.bilibili.com/85031317

                画像
                画像
                画像

                ■AI アニメーション

                作品 Ukiyo-AI Girl
                作家:852話(hakoniwa) @8co28

                作品 Until_Our_Eyes_Interlink
                作家:shanef3D 

                【北京国際映画祭AIGC映画短編アニメーション最優秀作品】
                REPLY AI FILM FESTIVAL WINNER
                作品:『親愛なる私へ To Dear Me』2024
                監督:童画
                AI クリエイティブ:陳劉芳 周帝 海辛Hyacinth Simon阿文
                出品:CUC Anima & Ainimate Lab 

                【上海イラストレーションフェスティバル(2024)インディペンデントアニメーション展放映作品】
                【London Design Festival (2024)放映作品】
                【中国中央美術学院『永不落幕的創意生活』展(2024)放映作品】

                作品:『潜空間旅行計画』 2024
                作家:海辛Hyacinth

                作品 Jazz Scene USA
                作家:machine.delusions

                AI インスタレーション
                作品:AI 居酒屋・物語
                作者:快楽造物

                作品:Meow Oracle
                作家:樊開然、陳星亜、邾俊、陳吾行

                屋外3D VISIONへの放映決定

                展示期間中の11月15日から11月18日まで、SOMSOC GALLERY近接の3Dビジョンに、「ComfyUI」のアートワークが放映されます。

                画像

                11月16日「Comfy Community Summit」池尻大橋BPMにて開催

                コアComfyUI開発者と著名なAIアーティストを集め、最新の技術進歩と創造的なアイデアを共有します。ディスカッションでは、グローバル市場向けのAIアプリケーションの国際化とローカリゼーションにも焦点を当てるイベントだそうです。
                (現在は満席のようです)

                場所:東京都世田谷区池尻2丁目31-24 信田ビル2F BPM
                時間:10:30~20:00(開場10:15)

                https://bpm-tokyo.com

                タイムスケジュール

                画像
                画像

                問い合わせ先

                ウェブサイト:https://comfycommunity.com
                Twitter/X:https://x.com/Comfy_Community
                Discord:https://discord.gg/gsyGqzMV9p
                Github:https://github.com/ComfyCommunitySummit
                WeChat公式アカウント: Comfy CommunitySummit
                ラーク/Feishuグループ:
                https://applink.feishu.cn/client/chat/chatter/add_by_link?link_token=193pc339-704e-404c-b013-c83432d37b1f

                画像

                CCS team紹介

                CCS Comfy Community Summit チーム
                企画:ZHO, Jo Zhang, AJ
                プロデューサー:Jo Zhang
                コミュニティ& パートナーシップ: AJ, ZHO, Jo Zhang, Dango233, Mia Ma, CocoSgt
                デザインリーダー:Zhongzhong
                デザイン:ZHO, Cynthia Liu, Lucky, Simon Lee, Ring Hyacinth, Troy Ni, Eclectic!!, AJ, CocoSgt, Jo Zhang
                共同プロジェクトチーム:AJ, Mia Ma, Xiaotian
                共催:SOMSOC GALLERY

                AI 展: 新アートマニフェスト
                キュレーション: ZHO, Ring Hyacinth, Cynthia Liu
                アート作品選出: Ring Hyacinth, Simon Lee, Jo Zhang, ZHO
                デザイン: Simon Lee, Zhongzhong, Cynthia Liu, Lucky, Troy Ni

                実行委員会
                プロジェクト進行: Mia Ma, Xiaotian, Eclectic!!
                現場チーム: ZHO, Jo Zhang, AJ, Dango233, Simon Lee, Ring Hyacinth, Troy Ni, Eclectic!!, Chenran, Cynthia Liu, Lucky, phields, Mia Ma

                スペシャルサンクス: Nenly

                https://comfycommunity.com

                #ComfyUIcommunity #ComfyUI
                #上官文卿 #酒鬼橋BoozerBridge #喫窝窝頭嗎 #Simon阿文 #852話 #shanef3D #陳劉芳 #周帝 #海辛Hyacinth  #海辛Hyacinth #machine .delusions #快楽造物 #樊開然 #陳星亜 #邾俊 #陳吾行


                AICUは「つくる人をつくる」を応援します!クリエイティブAI作品展やイベントなどお気軽に告知情報をお寄せください 掲載依頼はこちら

                Originally published at https://note.com on Nov 15, 2024.