投稿者: media

  • Houdini使いがレポ! Technical Papers Fast-Forward注目3選!

    コンピューターグラフィックスとインタラクティブ技術の世界最大の国際会議「ACM SIGGRAPH」が東京国際フォーラムで2024年12月3~6日に開催されています。AICUでは X@AICUai も合わせて総力特集を実施中!
    AICU media ライターのやまぐちです!今年のCG研究の最高峰がたった3時間でつかめるTechnical Papers Fast-Forward (以下TPFF)の紹介記事、後編です。後編では前編より詳細な視点で、Houdinist (=Houdini使い; Side Effects Software社が開発した3DCG制作専用のソフトウェア)で流体シミュレーションが好きな私が気になったTechnical Papersを紹介していきます。

    個人的注目Technical Papers

    こちらがSIGGRAPH Asia 2024公式サイトによるTPFFの情報です。
    Technical Papers Fast-Forward 

    Particle Laden Fluid on Flow Maps (粒子が混ざった流体のフローマップ)

    画像

    ▶︎Particle Laden Fluid on Flow Maps
    こちらは今年のTPFFのトレーラーにて注目Technical Papersにも選ばれていた研究です。この研究では、インク拡散シミュレーションを扱っています。忠実度の高いシミュレーションが、2つの粒子系を結合してシミュレーションを行う手法によって可能になったとのことです。ここではパーティクル(粒子)フローマップという、パーティクルの動きの情報を持ったフローマップシステムが使われています。既存のフローマップの技術では粘性や抗力などの散逸力の扱いに限界がありましたが、本研究はそれらの課題を克服しています。
    発表は、4日目(2024年12月6日)の「Fluid Simulation」のセッションで午前10時45分から行われます。
    筆頭著者はZhiqi Liさん。ジョージア工科大学の所属です。他に3人が同大学から参加している他、ダートマス大学のJinyuan Liuさんも共同執筆者です。

    オイラー方程式、ナビエ・ストークス方程式、ポアソン方程式系などを解いているようですが、難しいことは抜きにして、デモ動画を見てとても興味が湧いたので1番目にピックアップしました。私自身、インクのシミュレーションはいつかやってみたいテーマなので参考になりました。「Fluid Simulation」のセッションでは他にも美しいシミュレーションがたくさん発表されているので個人的必見リストです!

    なお、「Fluid Simulation」のセッションは1日目にもTechnical Communicationの枠の中で発表があります。選ばれている研究はTechnical Papersのものとは異なるので、Fluidが好きな方はこちらもチェックすることをおすすめします。
    https://asia.siggraph.org/2024/session/?sess=sess280 

    Efficient GPU Cloth Simulation with Non-distance Barriers and Subspace Reuse (非距離バリアと部分空間再利用による効率的なGPU布シミュレーション)

    画像

    ▶︎Efficient GPU Cloth Simulation with Non-distance Barriers and Subspace Reuse

    この研究では、衣服のシミュレーションパフォーマンスを向上させる手法が提示されています。高解像度の衣服モデルであっても、すべての三角形ポリゴンがもつれないようにし、キャラクターモデルなどに貫通しないインタラクティブなシミュレーションが実現できるとのことです。
    発表は、3日目(2024年12月5日)の「Keep in Touch / No Touching」のセッションで午前9時34分から行われます。
    筆頭著者はLei Lanさん。ユタ大学コンピューティング学部の研究員です。ユタ大学からは他に3人がこの研究に参加しています。また、UCLA、Institute of software、Chinese Academy of Sciences、Style3D Researchからも研究者が参加しており、合計で9人が論文執筆に関わっています。

    ここから少し個人的な話ですが、私はVTuberが好きで3Dライブや「踊ってみた動画」をよく見るんですよね。そういうとき、普段Houdiniでシミュレーションを扱っている側からすると服や髪の動きが気になるわけです。せっかくなら素晴らしいデザインの衣装でもっと破綻なく動けたらさらに盛り上がりますよね。そういった課題にこの技術を活かせれば、Vtuberやバーチャルタレントたちの魅力がさらに伝わると思います。

    URAvatar: Universal Relightable Gaussian Codec Avatars (URアバター:再照明可能なアバター)

    画像

    ▶︎URAvatar: Universal Relightable Gaussian Codec Avatars から引用

    1つ目に紹介したTechnical Paperと同様に今年のTPFFのトレーラーにて注目Technical Papersに選ばれていた研究です。こちらでは、照明の情報が不明なスマートフォンでのスキャンから、フォトリアルで再照明可能な頭部アバターを作成する新しい手法を提示します。この手法で作られたアバターは、どんな環境でもリアルタイムにアニメーションし照明を当てることが可能です。
    発表は、4日目(2024年12月6日)の「My Name is Carl: Gaussian Humans」のセッションで午前11時43分から行われます。
    筆頭著者のJunxuan Liさんをはじめ、8人の著者全員が Meta社のReality Labs Researchの所属です。この研究には日本人のShunsuke Saitoさんが参加しています。日本語が通じないセッションが多く、質問できるか不安な気持ちがある方にとって、日本人の発表者がいるセッションは気軽に参加できるのではないでしょうか。

    この研究のデモ動画を見て、スマートフォンでの撮影だけでどんな環境の光にもアバターを合わせられるところがとても興味深いと思いました。3DCGソフト上ではなく、スマホで撮影した情報だけで照明が作れるのはすごいですよね。映像のポストプロダクションの過程で役に立ちそうです。

    まとめ

    以上が個人的注目Technical Papersでした。皆さんが気になるものもありましたか?今年のTechnical Papersは数えた限り277本あったので、公式ページをなんとなくスクロールして止まったところを覗いてみるのも新しい発見や興味につながりそうです。また、開催当日になって慌てることのないように、準備はしっかりして参加しましょう!

    SIGGRAPH Asia 2024は東京国際フォーラムにて、2024年12月3日~6日です

    次回もお楽しみに!
    この記事に「いいね!」と思ったら、いいねとフォロー、おすすめをお願いします!
    https://note.com/aicu/   X(Twitter)@AICUai

    このようなイベントのレポートに興味がある方はこちらもオススメ

    https://ja.aicu.ai/category/events

    (執筆:やまぐち)Authored by Yamaguchi

    本特集はAICUマガジン1月号に収録される予定です。
    Kindle Unlimitedで無料購読できます

    最新刊はこちら https://j.aicu.ai/MagV6 

    Originally published at https://note.com on May 14, 2024.

     

  • AICUは SIGGRAPH Asia 2024にプログラムスポンサーとして参加中、注目の発表、現地の熱狂・最新情報はこのエントリーと X@AICUai にて!

    「つくる人をつくる」をビジョンに掲げるAICU Inc.は、2024年12月3日から6日にかけて東京国際フォーラムで開催されたSIGGRAPH Asia 2024にプログラムスポンサーとして参加しています。学生ボランティアのユニフォーム協賛、CEO白井暁彦氏による2件の講演、そして関連イベントの企画など、多岐にわたる活動を通してCG分野の発展に貢献させていただいております。
    X@AICUai をフォローお願いいたします!リポストも歓迎です

      AICUの活動内容

      学生ボランティアユニフォームへの協賛

      AICU Inc.は、通常のロゴ掲出に加えて、学生ボランティアのユニフォーム(法被)にロゴを掲出することで、イベント運営を支援しています。世界中から集まる参加者と交流し、イベントを支える学生ボランティアの活動に貢献できたことを光栄に思います。
      https://asia.siggraph.org/2024/about-the-event/supporters-partners/

      画像
      画像

      白井氏による講演

      講演1:「生成AI時代に『つくる人をつくる』国際スタートアップ企業『AICU』活動紹介」

      日時: 2024年12月5日(木) 15:30〜
      会場: 東京国際フォーラム ホールE デジタルハリウッド大学ブース
      内容: AICUの活動紹介、生成AI時代における「つくる人をつくる」国際ビジネスの最前線と取り組み、AICU Japan株式会社の展望について

      https://prtimes.jp/main/html/rd/p/000002462.000000496.html

      画像

      講演2:SIGGRAPH ASIA 2024 Educator’s Forum「Computer Graphics Education in Japan: Current Status and Future Challenges」


      日時: 2024年12月6日(金) 14:30 – 15:30 (JST)
      場所: 東京国際フォーラム G棟5階 G502
      内容: 日本のCG教育の現状と未来の課題、ディープラーニングや生成AIの教育への導入について、国内外の専門家と議論を通して共有します。

      https://asia.siggraph.org/2024/ja/presentation/?id=educur_101&sess=sess299

      登壇者: 伊藤貴之氏 (お茶の水女子大学)、藤代一成氏 (慶應義塾大学)、宮田一乘氏 (北陸先端科学技術大学院大学)、Barbara Mones氏 (ワシントン大学)、白井暁彦氏 (デジタルハリウッド大学 / AICU Inc.)、髙橋誠史氏 (株式会社バンダイナムコスタジオ)

      メディア活動

      メディアとして幅広いクリエイターに向けてSIGGRAPHの熱狂を共有

      AICUのメディア部門である「AICU media」およびAICU Japan株式会社は、SIGGRAPH ASIA 2024を日本市場に向けて X@AICUai および日本最大のブログサイトnote ( note.com/aicu )にて、エキサイティングなCG・インタラクティブ技術のトッププレイヤーが集まる現地の熱狂を世界各地に伝える特集を組んでお伝えしています。

      画像

      従来のメディアとは異なり、Xでのライブ感あふれる現地実況や、注目の研究者・企業の発信などをカジュアルに共有し「つくる人をつくる」、クリエイティブAIをわかりやすく伝えるツイートを心がけております。
      「現地に行きたくてもいけない」という方々に向けて動画も積極的にお送りします。
      X@AICUai をフォローお願いいたします!リポストも歓迎です
      (メディアパスおよび撮影許可を取得しております)

      SIGGRAPH ASIA 2024関連エントリーはこちら

      画像

      SIGGRAPH Asia 2024特集(1) 最先端のCG研究を3時間で!【Technical Papers Fast-Forward】全ジャンル予習リスト #SIGGRAPHAsia2024

      また、月刊誌「AICUマガジン Vol.8」でも特集記事を掲載予定です。

      https://amzn.to/4eRp0mw

      SIGGRAPH ASIA 2024における生成AI・クリエイティブAIについての情報を伝える専門誌として、速報記事を各種オンラインメディアにて「クリエイター視点で」発信するとともに、書籍媒体では月刊誌「AICUマガジン Vol.8」(2024年1月発売)にて特集予定です。東京圏のイベントに参加できる層だけでなく、幅広い「つくる人をつくる」ため、Kindle Unlimitedで無料配信を行っているだけなく、プレミアムカラー印刷版でもお届けしています( https://amzn.to/4eRp0mw )。

      AICU magazine バックナンバー Kindle売場 https://j.aicu.ai/kindle

      イベント企画

      SIGGRAPH終了後の土曜日に参加者交流イベントを開催

      「SIGGRAPHには参加してみたいけど、時間的に難しい」
      「分野的には関係があるけど、会社が費用を負担してくれない」
      「英語でのコミュニケーションは難しいかも……」
      といった未来の「つくる人をつくる」ために、SIGGRAPH ASIA 2024終了後の土曜日に2つの参加交流イベントを開催します。

      画像

      [AiBC-DEF]国際クリエイティブAIビジネスコンソーシアム – 開発者交流フォーラム

      2024年12月7日(土) 10~14時
      [CAiBC-DEF]国際クリエイティブAIビジネスコンソーシアム – 開発者交流フォーラム開催!(2024/12/7) #SIGGRAPHAsia2024 応援企画 

      メタバース、エンタテイメント、アニメ・ゲームなどの分野の国際的なプレイヤーを集め、SIGGRAPH ASIA 2024での体験を共有し、今後のフォローアップを行うイベントです(主要言語は英語)。

      詳細・予約サイト(Eventbrite) https://cabc24.eventbrite.com/

      画像

      2024年12月14日(土)「生成AI忘年会:AIクリエイター勉強会」

      東京科学大学(旧・東京工業大学)INDESTに入居しているAICU JapanとBlendAI共同開催。

      「つくる人をつくる」AICUファン感謝祭!2つのワークショップイベントを開催します

      13:00-15:00 AITuberを作ってみよう
      15:00〜18:00AIアートバトル感想戦
      18:00〜20:30懇親会・ピッチイベント
      参加無料・参加登録必須(申込締切は2024年12月7日を予定)
      [物理参加の申込みはこちら] https://techplay.jp/event/966307

      https://techplay.jp/event/966307

      https://techplay.jp/event/962444

      まとめ

      AICU Inc.は、SIGGRAPH Asia 2024への様々な活動を通して、「つくる人をつくる」というビジョンを体現していきます。学生ボランティアへの支援、CEOによる講演、メディア発信、関連イベントの企画など、多角的なアプローチでCG業界の発展に貢献していきたいと考えています。AICUの今後の活動にも注目よろしくお願いします。

      【関連PR】
      「つくる人をつくる」AICU media
      Coloso「生成AIクリエイティブ AICU」シリーズ
      ■「超入門:Stable Diffusionではじめる画像生成AI」https://j.aicu.ai/coloso1
      ■「初級者:広告企画から動画制作までのプロセス」 https://j.aicu.ai/coloso2
      ■「ComfyUIマスター:カスタムノードとアプリ開発」 https://j.aicu.ai/coloso3

      https://j.aicu.ai/coloso3

      Originally published at https://note.com on Dec 4, 2024.

    1. [ComfyMaster37] SDXL+AnimateDiff+IPAdapterで参照画像から動画を生成しよう!

      前回のAnimateDiffによるtext-to-video(t2v)での生成方法に興味を持った方は、さらに一歩進んだ動画生成を試してみませんか?

      こんにちわ、AICU media編集部です。
      ComfyUI マスターガイド」第37回目になります。
      本記事では、AnimateDiffにIPAdapterを組み合わせることで、ただのテキストからの動画生成を超え、画像の特徴を反映させたより一貫性のあるアニメーションを作成する方法を紹介します。特定のビジュアルテーマやキャラクターを保持したまま、ダイナミックな動画を生成できるこの手法は、クリエイティブなプロジェクトにおいて強力なツールになるはずです。IPAdapterを活用して、これまでにない精度と表現力を持つ動画制作に挑戦してみましょう!

      本連載の初回はこちら。前回はこちら、目次はこちらです。

      [ComfyMaster36] 動画から新しい動画を生成しよう!  #ComfyUI

        1. 概要

        本記事では、AnimateDiffとIP Adapterを組み合わせて、text-to-video(t2v)での動画生成を行う方法を解説します。IP Adapterは、画像の特徴を抽出して生成プロセスに反映させる機能を持ち、これにより元の画像を参照しながら、一貫性のあるアニメーションを作成できます。従来のt2vでの生成に対して、IPAdapterを使うことで、より具体的で視覚的なテーマに沿った動画を作ることが可能です。

        このワークフローでは、複数のカスタムノードやモデルをインストールし、それらを適切に組み合わせて動画生成を行います。具体的には、RealVisXLやSDXL Motion Modelを使用してサンプリング効率を向上させ、CLIP Visionを通じて画像の特徴を抽出し、IP Adapterでそれらを動画生成に反映させます。

        2. カスタムノードのインストール

        以下のカスタムノードを使用するため、ComfyUI Managerからインストールしてください。

        ComfyUI-AnimateDiff-Evolved

        ComfyUI-AnimateDiff-Evolvedは、Stable Diffusionモデルを拡張して動画生成を可能にするカスタムノードです。元のAnimateDiffを進化させたバージョンで、動画生成のためのモーションモジュールと高度なサンプリング技術を組み込んでいます。

        https://github.com/Kosinkadink/ComfyUI-AnimateDiff-Evolved

        ComfyUI-VideoHelperSuite

        ComfyUI-VideoHelperSuiteは、動画生成を支援するためのカスタムノードです。動画の編集や加工を容易にする機能を提供します。今回は、一連の画像を動画にして保存するノードを使用するために必要となります。

        https://github.com/Kosinkadink/ComfyUI-VideoHelperSuite

        ComfyUI IPAdapter plus

        ComfyUI IPAdapter Plusは、ComfyUI上でのIP Adapterの使用をサポートするカスタムノードで、画像をプロンプトとして使用する機能を提供します。キャラクター、スタイル、構図の転写や高度な一括処理が可能で、動画や漫画の生成時に一貫したビジュアルテーマを維持するために使用されます。

        https://github.com/cubiq/ComfyUI_IPAdapter_plus

        3. モデルのインストール

        RealVisXL V5.0 Lightning

        今回は、RealVisXLのLightningバージョンを使用します。Lightningバージョンでは、サンプリングのステップ数を4-6回に抑えることができます。生成量の多いAnimateDiffでは、TurboやLightningなどの数ステップで生成完了するモデルを選ぶと良いでしょう。
        以下のリンクよりモデルをダウンロードし、「ComfyUI/models/checkpoints」フォルダに格納してください。

        https://huggingface.co/SG161222/RealVisXL_V5.0_Lightning/blob/main/RealVisXL_V5.0_Lightning_fp16.safetensors

        SDXL Motion Model

        今回は、SDXLのモーションモジュールとして、「Hotshot-XL」を使用します。Hotshot-XLは、コンテクスト長が8フレームしかありませんが、AnimateDiff-SDXLより品質が良いためです。以下のモデルをダウンロードし、「ComfyUI/custom_nodes/ComfyUI-AnimateDiff-Evolved/models」フォルダに格納してください。

        https://huggingface.co/hotshotco/Hotshot-XL/blob/main/hsxl_temporal_layers.f16.safetensors

        CLIP Vision

        IP Adapterを使用するためにCLIP Visionを使用します。以下のリンクよりモデルをダウンロードし、「ComfyUI/models/clip_vision」フォルダに格納してください。

        CLIP Visionは画像を入力として受け取り、特徴を抽出してトークンに変換します。これらのトークンは、テキストプロンプトと組み合わせて画像生成に使用されます。

        https://huggingface.co/h94/IP-Adapter/blob/main/models/image_encoder/model.safetensors

        IP Adapter

        CLIP Visionで抽出した画像の特徴を画像生成モデルに組み込むためにIP Adapterのモデルが必要になります。以下のリンクよりモデルをダウンロードし、「ComfyUI/models/ipadapter」フォルダに格納してください。

        https://huggingface.co/h94/IP-Adapter/blob/main/sdxl_models/ip-adapter-plus_sdxl_vit-h.safetensors

        4. 使用素材

        今回は、女性の画像と風景の画像を使用します。それぞれ以下よりダウンロードしてください。

        女性の画像

        画像

        https://note.com/api/v2/attachments/download/6e510797a934edbe4ae95dd091d08571

        風景の画像

        画像

        https://note.com/api/v2/attachments/download/3608f75a8949f1124d304471accbed38

        5. ワークフローの解説

        以下がワークフローの全体像になります。このワークフローは、入力画像の特徴を活かしながらアニメーション動画を生成する高度な例です。IP-Adapterを使用することで、入力画像の視覚的特徴(この場合、若い日本人女性の外見)を生成プロセスに組み込みます。AnimateDiffとの組み合わせにより、入力画像に基づいた一貫性のあるアニメーション動画が生成されます。

        画像

        ワークフローは、文末のリンクよりダウンロード可能です。

        このワークフローの構造をフローチャートで表現すると、以下のようになります。

        画像

        以下に、このワークフローの主要な部分とその機能を詳細に説明します。

        1. 入力画像とモデルの準備
          • Load Imageノード: 「girl_01.jpg」という画像ファイルを読み込みます。
          • IPAdapterModelLoader ノード: 「ip-adapter-plus_sdxl_vit-h.safetensors」モデルを読み込みます。
          • CLIPVisionLoader ノード: 「CLIP-ViT-H-14-laion2B-s32B-b79K.safetensors」を読み込み、画像の特徴を抽出します。
          • CheckpointLoaderSimple ノード: 「RealVisXL_V5.0_Lightning_fp16.safetensors」モデルを読み込みます。
        2. AnimateDiffの設定
          • ADE_AnimateDiffLoaderGen1 ノード: 「hsxl_temporal_layers.f16.safetensors」 AnimateDiffモデルを適用し、「autoselect」モードを使用します。
          • ADE_StandardUniformViewOptions ノード: AnimateDiffのビューオプションを設定します(16フレーム、2キーフレーム)。
          • ADE_ViewsOnlyContextOptions ノード: ビューオプションをコンテキストオプションに変換します。
        3. サンプリング設定
          • FreeInit Iteration Optionsノード: FreeInit samplingのパラメータを設定します。イテレーション回数が多いほど、生成される動画の詳細度や一貫性が高まります。今回は、最低回数の2回だけイテレーション処理を行います。
          • Sample Settingsノード: AnimateDiffのサンプリング設定を構成します(FreeNoiseモード)。
        4. IP-Adapter処理
          • IPAdapterAdvanced ノード: 入力画像の特徴を抽出し、生成プロセスに組み込みます。重み1.0、「ease in」ブレンドモード、「concat」適用方法を使用。
        5. プロンプト処理
          • ポジティブプロンプト: 「Japanese young girl, casual dress, black hair, bob cut, upper body, looking at view, green background」
          • ネガティブプロンプト: 「(worst quality, low quality, illustration, 3d, 2d, painting, cartoons, sketch), open mouth,」
        6. 画像生成
          • KSampler ノード
            • Seed: 118362085301702
            • Steps: 4
            • CFG Scale: 2.0
            • Sampler: dpmpp_sde
            • Scheduler: karras
            • Denoise: 1.0
        7. 出力処理
          • VAE Decode ノード: 生成された潜在表現を実際の画像にデコードします。
          • VHS_VideoCombine ノード: 生成された画像シーケンスを16fpsの動画に変換し、「AnimateDiff」というプレフィックスで保存します。

        6. ワークフローの実行

        それでは、ワークフローを実行してみましょう。女性の画像を参照した場合と、風景の画像を参照した場合、それぞれの結果を確認してみます。

        女性の画像を参照しての動画生成

        まずは、Load Imageノードに女性の画像を設定し、以下のプロンプトをポジティブプロンプトに入力し、実行してみます。

        Japanese young girl, casual dress, black hair, bob cut, upper body, looking at view, dynamic expressions, green background

        実行結果は以下になります。参照元画像の特徴を捉えて生成されていることが分かります。しかし、あくまで参照なので、参照元画像のままで生成されていません。また、参照により動きがあまり変化しない特徴があります。

        画像

        IPAdapterの強度を下げれば、動きの変化が強くなりますが、その分参照元画像に似なくなります。以下は、IPAdapterの強度を0.5に下げて生成した動画です。

        画像

        風景画像を参照しての動画生成

        次に風景の画像を参照し、そこから動画生成したいと思います。Load Imageノードに風景の画像を設定し、以下のプロンプトをポジティブプロンプトに入力し、実行してみます。

        wide landscape view, sunset, golden hour, large clouds, pink sky, ocean in background, water reflections, distant mountains, lush green trees, flowers in foreground, gentle breeze, glowing sunlight, ethereal atmosphere, serene, soft lighting, cinematic composition, high detail, vivid colors, dreamy, fantasy setting

        以下が生成結果です。参照元画像に近い状態で動画生成されています。先ほどの女性と同様、参照元画像に引っ張られるため、動きは小さいです。

        画像

        IPAdapterを使用しない場合は、以下のようにさらに躍動的な動画になります。

        画像

        7. まとめ

        今回の記事では、AnimateDiffとIPAdapterを組み合わせたtext-to-video生成の手法を解説しました。IPAdapterを活用することで、従来の動画生成におけるテキストプロンプトだけでなく、参照画像の特徴を反映した一貫性のあるアニメーション動画を作成することができます。これにより、キャラクターやスタイル、構図の再現が容易になり、より具体的で表現豊かな動画制作が可能になります。

        記事内で紹介した手順を参考に、カスタムノードのインストールやモデルの準備を行い、IPAdapterの設定を適切に調整することで、プロジェクトに合わせた多彩なアニメーションを生成することができるでしょう。今回の手法は、特にクリエイティブな作品や映像制作において、大きな可能性を秘めています。

        今後もこの技術を活用し、自分だけのユニークなアニメーション動画を作成してみてください。次のステップでは、さらに高度なカスタマイズや他のツールとの組み合わせを試して、より洗練された映像表現を目指していきましょう。

        次回は、AnimateDiffでvideo-to-video(v2v)をする方法を紹介します。乞うご期待!
        X(Twitter)@AICUai もフォローよろしくお願いいたします!

        画像生成AI「ComfyUI」マスターPlan

        画像生成AI「Stable Diffusion」特に「ComfyUI」を中心としたプロ向け映像制作・次世代の画像生成を学びたい方に向けたプランです。最新・実用的な記事を優先して、ゼロから学ぶ「ComfyUI」マガジンからまとめて購読できます。 メンバーシップ掲示板を使った質問も歓迎です。

        • メンバー限定の会員証が発行されます
        • 活動期間に応じたバッジを表示
        • メンバー限定掲示板を閲覧できます
        • メンバー特典記事を閲覧できます
        • メンバー特典マガジンを閲覧できます
        • 動画資料やworkflowといった資料への優先アクセスも予定

        ゼロから学ぶ「ComfyUI」マガジン

        https://note.com/aicu/m/md2f2e57c0f3c

        マガジン単体の販売は1件あたり500円を予定しております。メンバーシップ参加のほうがお得です!というのもメンバーシップ参加者にはもれなく「AICU Creator Union」へのDiscordリンクをお伝えし、メンバーオンリー掲示板の利用が可能になるだけでなく、さまざまな交流情報や、ComfyUIを学習するためのメンバー向け情報をお伝えしています。

        https://note.com/aicu/membership/boards/61ab0aa9374e/posts/db2f06cd3487?from=self

        もちろん、初月は無料でお試しいただけます!
        毎日新鮮で確かな情報が配信されるAICUメンバーシップ。
        退会率はとても低く、みなさまにご満足いただいております。
        ✨️オトクなメンバーシップについての詳細はこちら


        この記事の続きはこちらから https://note.com/aicu/n/na46215301e73

        Originally published at https://note.com on Dec 2, 2024.

      1. AICU Magazine Vol.6 特集「エンタテイメントxAI」プレミアムカラー・ペーパーバック版発売開始

        AICU Magazine Vol.6 「Entertainment x AI」
        プレミアムカラー・ペーパーバック版発売開始です!
        https://amzn.to/3Zao1Ii

        「つくる人をつくる・わかるAIを伝える」というコンセプトを貫き通す、すべての人向けクリエイティブAI専門誌「AICUマガジン」第6号。いままでのA5版からさらにスタイリッシュなB5版プレミアムカラーでの提供になりました。

        画像
        編集部に届いたばかりの印刷版です

        表紙はAI界の期待の新人「ガンマミィ」

        裏表紙企画はペーパーバック版だけのお楽しみ!

        画像
        ペーパーバック版だけの裏表紙企画です。美麗な印刷をお楽しみください。

        「つくる人をつくる」あなたをアップデートするクリエイティブAIエンターテイメントマガジン「AICU Magazine Vol.6」特集は「Entertainment x AI」。
        2024年9月26~29日に開催され、過去最多出展者数を記録した東京ゲームショウ(TGS2024)から、感情を分析するスマートウォッチ「OVOMIND」、新型モーションキャプチャー「NOKOV」、そしてレトロなガンシューティングゲームの機械学習技術によるリノベーション「タイムクライシス」、キャラクターデザイン、チャットボット、科学者の先端研究、そして、ゲームAIの研究開発を長年リードされてきた、三宅陽一郎氏をゲストライターにお迎えして構成。

        https://amzn.to/3Zao1Ii

        プレミアムカラーで拡充されたコンテンツ!

        AICU Magazine Vol.6「Entertainment x AI」
        Creative AI Trends – 2024 年 10 月 @AICUai

        特集: Entertainment x AI

        感情がゲームを動かす「OVOMIND」 @Ovomind1 @yann_frachi
        ついにDK1のプレオーダー開始だそうです

        https://ovomind.com/

        SIGGRAPH ASIA 2024でも展示があるらしい
        融合型モーションキャプチャー「NOKOV」 @NokovMocap

        懐かしの「タイムクライシス」AI 技術で再誕!? @tasseidenki

        先端研究が挑む「AI 時代の創作」 @sciportalJST @m_morise @kazmiyata @Jesusxie

        謝先生の研究、明日からのSIGGRAPH Asia 2024 Technical Communicationsに甲骨文字スタイルの画像生成AI「DiffOBI」が採択されたそうです
        画像入力から甲骨文字風の画像を生成する新手法
        人類最古の甲骨文字の特徴を活かしつつ,現代の物体を甲骨文字風に変換できます!



        特別寄稿「著作を振り返って」三宅陽一郎(ゲーム AI 開発者・研究者) @miyayou
        こちらはnote版です

        サクリ!AIツール
        期間限定無料「ガンマミィ・ジェネレーター」を提供開始!

        全力肯定彼氏くん [LuC4] に訪れたサービス開始以来の最大の危機

        日本語で魔法のように GAS 開発がはかどる「GASSISTANT」 @daigo_3_8

        みんな知ってる!? Adobe に搭載されている AI 機能 100

        Stable Assistant を知らないの? 無料トライアルレポート @StabilityAI

        イベントレポート
        ComfyUI を開発する「Comfy Org」が渋谷でミートアップを開催 @ComfyUI
        「CGWORLD vol.315」画像生成 AI による表紙メイキング大公開 @CGWjp @MijoSugiyama @kahofujiyoshi

        画像

        AICU×BlendAI ガンマミィ誕生記念イラストコンテスト結果発表! @BlendAIjp @tomomaga358 @InsBow @kamitashiro_AI

        画像

        ガンマミィジェネレーター

        で すごい作品を製作された

        森にえさん @kamitashiro_AI!! 裏表紙に加えて #デルタもん とテクニックの裏側を解説してくださいました

        ありがとうございます!

        連載漫画: ウワサの大型新人 (2) By わらさん @wara_hirono

        画像

        連載漫画: ウワサの大型新人 (2) By わらさん @wara_hirono

        プレミアムカラーで展開される
        デルタもんとガンマミィの尊い展開に…

        目が…目が…!

        次号はどうなっていくのでしょうか!?

        編集長と Gemini たん: 商用で画像生成 AI をしていないとできない体験

        編集部だより「はるしね〜しょん」

        「GASSISTANT」開発者横田大伍さんより招待コードと100 クレジットをプレゼント!先着300 名までこのクーポンを使用可能です。

        •「ガンマミィ・ジェネレーター」無償試用期間延長中です
        https://gammamygenerator.aicu.ai/

        •明日から開催 SIGGRAPH ASIA 2024 10% OFF!!

        https://registration.asia.siggraph.org/terms_jpn.html

        最後のお会計のタイミングで、「SA24AICU10 」入力することで、10 % OFF となります。

         AICU Creators Union Discord 「つくる人をつくる」を本気でやりたいあなたへ! Discord の招待URLも掲載されています!


        本書は2024年11月25日発売のB5新装版で185ページです。約1ヶ月の校正期間を持ちながらePub版を更新し、プレミアムカラー・ペーパーバック版としてより品質高く幅広い読者に「わかるAIを届ける」ためにお求めやすい価格となりました。ページ番号が残る、刊行物や資料として、生成AIの歴史の1ページとして図書館や贈答用にお買い求めいただければ幸いです。

        Kindle Unlimitedで無料のKindle版はこちらです。

        以上、AICU営業部よりPRでした!

        Originally published at https://note.com on Dec 2, 2024.

      2. AI時代の先端クリエイターが語る「アルバムを整理する方がAIや作品にとって大事」とは?

        デジタルハリウッド株式会社主催の近未来教育フォーラム2024が、”The Great Transition〜ポストAIは来ない〜”というテーマで開催されました。本レポートでは、ブレイクアウトセッションの一つ、「クリエイティブ教育に生成AIは必要か?」の内容を詳しくお伝えします。このセッションでは、現役のAIアーティストである小泉薫央氏を迎え、生成AIクリエイティブ最先端と、教育の未来について議論が深められました。

        https://www.dhw.co.jp/forum

        デジタルハリウッド株式会社は、2024年11月30日(土)、近未来教育フォーラム2024 を開催しました。今年のテーマは 『The Great Transition〜ポストAIは来ない〜』。AI時代を生き抜くための教育のあり方について、豪華なゲストスピーカーと共に探究しており、「つくる人をつくる」をビジョンとするAICU編集部でも複数回の特集で紹介していきたいと思います。

        ブレイクアウトセッション:多様なテーマで教育の未来を考える

        キーノートに先立ち、4つのテーマでブレイクアウトセッションが開催されました。

        • Session1: 教育現場における生成AIコンテンツと著作権法 (上原伸一氏)
        • Session2: クリエイティブ教育に生成AIは必要か? (小泉薫央氏)
        • Session3: DXハイスクール2年目、なにを企画しますか? (鹿野利春氏、小笠原健二氏)
        • Session4: AI時代における人材確保と働き方改革 (村田弘美氏)

        『クリエイティブ教育に生成AIは必要か?』

        画像

        近年、生成AIの活用が注目されていますが、「クリエイターと生成AIに関する意識調査2024」では、「生成AIを積極的に活用したい」と答えた人は33.4%にとどまり、可能性を理解しつつも導入に迷う現場の声が伺えます。そこで今回は、現役映像クリエイターの小泉薫央氏をお招きし、ビジネスの現場で生成AIをどのように活用しているか、具体的な事例とともにご紹介いただきます。

        https://dhw2024educationforum.peatix.com

        画像

        【小泉薫央 (Takio Koizumi)】デジタルハリウッド大学大学院を卒業後、エフェクトアーティストとしてマーザ・アニメーションプラネットに入社、小島プロダクション(当時)に転職し『メタルギアソリッドV』の開発に参加。その後、マーザ・アニメーションプラネットに戻り10年間、映画・ゲーム・アニメ制作に従事。現在はSUPER PRIMEにAIアーティストとして所属し、AIと共に作品制作、表現研究を行っている。

        X@takion0105

        画像

        モデレーターは石川大樹先生(デジタルハリウッド大学大学院 特任准教授)

        いしかわ・ひろき●拓殖大学外国語学部スペイン語学科卒業後、大手キー局にて報道編集・ストリーミング配信・番組制作を担当。2004年デジタルハリウッド株式会社入社以来、数多くの新規事業に携わる。 その経験を活かし、現在は映像教材や教育メディアを開発。またeラーニング教育手法、動画を活用した学ばせ方を研究している。
        デジタルハリウッド株式会社 まなびメディア事業部 まなびメディアグループチーフ 教材開発責任者
        デジタル表現基礎A・B・C(アダプティブラーニング)

        https://gs.dhw.ac.jp/faculty/hiroki-ishikawa

        ブレイクアウトセッションで、特に満席率が高く注目されたセッションでした。

        画像
        画像

        生成AIを業務に使うようになった背景は

        画像

        小泉氏は子どもの頃から、SF作品やゲーム、そしてパソコンに夢中になる時間を過ごしてきました。それらを通じて、CGやAI、そして最新のテクノロジーに強い関心を抱くようになります。特に、『メタルギアソリッド』の制作に携わることを目標に掲げ、CG業界を目指す決意をしました。

        画像

        その夢を追いかけるため、小泉氏はデジタルハリウッド大学に進学。在学中は、CGの基礎から応用まで幅広く学び、技術を磨く日々を送りました。そして大学院を修了後、エフェクトアーティストとしてCG業界に飛び込み、さまざまな作品制作に携わりながら経験を積んでいきました。

        そんな小泉氏のキャリアにおける大きな転機となったのが2014年でした。この年、Googleが発表した生成AI技術「DeepDream」と出会います。初めてその生成ビジュアルを目にしたとき、その衝撃は計り知れないものでした。この出会いをきっかけに、小泉氏は生成AIという新たな領域に本格的に関心を抱き始めます。

        さらに2021年には、VQGAN+CLIPやDALL-Eといった技術が登場し、プロンプトから直接画像を生成するという革新的な可能性が示されました。この時期、小泉氏はデータセットや学習プロセスの重要性を深く認識し、生成AI活用のための知識を積極的に学んでいきました。

        2022年には、Stable Diffusion、ChatGPT、Midjourneyといった次世代AIツールが登場。生成AIの実用化が一気に加速する中、小泉氏もこれらのツールを活用しながら、独自のデータセットを用いてAIモデルを制作するなど、スキルを実践的に磨いていきました。

        そして2023年、小泉氏は生成AIがクリエイティブ業界で重要な役割を果たすようになったことを実感します。この年、「生成AIスキル」や「ディレクションスキル」の重要性を強く感じ、さらなる成長と挑戦を目指して転職を決意しました。

        小泉氏のこれまでの歩みを振り返ると、技術の進化に触れるたびに視野を広げ、新たなステージへと挑戦を続けてきたことがわかります。生成AIの可能性を信じ、その力を最大限に活用することで、さらなる未来を切り開いていく姿勢を持ち続けています。

        具体的にどう生成AIを活用し、クライアントワークを行っていますか?

        画像

        Learning Toon

        画像

        NTTドコモグループの新規事業創出プログラム「docomo STARTUP TM」からスピンアウトした生成AI系スタートアップ企業SUPERNOVA社の、生成AI技術を活用した縦読み学習マンガサービス「Learning Toon®(読み:ラーニング・トゥーン)」に関わるお仕事紹介がありました。

        https://startup.docomo.ne.jp/service/learningtoon

        ★小泉氏から共有いただいた事例は数多く、ビジュアルも含めてお話いただいたのですが、クライアントワークのため、本稿ではごく一部を厳選してお届けします。

        プロンプト自動生成+クオリティチェックAIシステム

        画像

        バーチャル試着やinpaintなどの別のワークフローではSAM2を使ったシステムを開発しているそうです。

        【編集部補足】ComfyUIでのSAM2によるセグメンテーションの例を紹介

        自由が丘南口商店街 ポスター制作

        画像
        画像

        デジタルハリウッド校友会

        キービジュアル、ロゴの製作。

        画像

        デジタルハリウッド校友会 – Digital Hollywood Alumni Association

        きちんとCGの進化を学んだからこそできる、クライアント企業への説明。

        画像

        モデレーターからの質問として「生成AIを活用していることをクライアントの企業は知っていますか?また生成AI作品に対してセンシティブな企業もあるかと思いますが、どのように企業と折り合いをつけたのか?」という問い掛けが投げられました。

        小泉氏は生成AIを活用していることを、クライアント企業に丁寧に説明しているそうです。

        画像

        これだけの資料を説明しているそうです。
        (あえて読めない解像度なのがプロですね!)

        また質疑応答では、モデレーターから教育機関における生成AI教育の必要性について質問が投げかけられました。

        画像

        生成AI活用が必須の時代、教育機関では何を教える必要があるか?

        画像

        モデレーターからの質問として「Q: クリエイティブ業界において生成AIを活用することはマストになると思いますか?もしも生成AI活用がマストな場合、生成AIを活用するクリエイターになるために、学校教育機関では何を教える必要があると思いますか?」という問い掛けがありました。

        小泉氏は、多くの企業において、生成AIを「最終アウトプットには使わないが、カンプ(下書き)として活用している」と述べました。「今後は大手、例えばAdobeなどの主要ツールに組み込まれ、より一般的になっていく。またアップスケール機能のように当たり前のように活用されていく」とも明言しています。

        大学では、一連の流れ、データセットを作って、学習などをやる事が大事で、追加学習などであれば数枚から数十枚でこれぐらいの画像が作れるということ、人間として何が必要になってくるのか、そして歴史などを踏まえる、「近未来が見える教育が大事だ」と強調しました。

        若者にもある「AIを嫌う、避ける風潮」に対して

        画像

        モデレーターからの突っ込んだ質問として「若手クリエイターからは『AIを嫌う、避ける風潮』もあるが、どう思いますか?また、それに対して教育機関はどうあるべきだと思いますか?」という問いが投げられました。

        「AIを触ってみて、自分が納得できない…。
         そこを納得できるところまで持っていくことが大事」

        小泉氏は自身の経験も踏まえ、「AIを嫌う、避ける感覚はすごく大事。一回自分で考えることが重要」と答えました。若手クリエイターの「AIを嫌う、避ける風湖」については『自分も悩んだ。その感覚がすごく大事。一回自分で考えることが大事』と答えました。
        印象深い発言としては(あれこれ発言するよりも)『自分のアルバムを整理する方がAIや自分の作品にとっても、とても大事』という点でした。機械学習という意味でも、ポートフォリオの整理という意味でも、自分の個性を磨き上げるという意味でも、非常に興味深い視点だと思います。

        モデレーターの石川氏も「まずは体感、納得するところまで学んでいく」ことが重要だと述べ、小泉氏の意見を支持しました。小泉氏はさらに、「大体のSF作品では(人間とAIの共存について)揉めている」とユーモラスに語りつつ、「触ってみて、自分が納得できないそこを納得できるところまで持っていくことが大事」と締めくくりました。

        画像

        HALを活用したAI学習と共創の歩み

        小泉氏は、3年間にわたり約530万枚の画像を収集し、それらを活用して完全に独自の学習モデルを制作してきました。この膨大なデータセットには、幼少期からの写真や記憶を象徴する画像、CGエフェクト素材、そして生成AIによって生み出された作品など、さまざまな種類のデータが含まれています。これらのデータを基盤とすることで、AIの学習プロセスにおいて豊かなパーソナルな情報を提供しています。

        また、近年ではCreative Commonsの権利的に問題のないデータセット「Common Catalog」を活用することで、さらなるモデルの精度向上と柔軟な活用を可能にしました。この取り組みによって、AIが社会的な責任を果たしながら成長する道を模索しています。

        この学習プロセスを経て誕生したAIモデルに「HAL」という名前を付け、小泉氏はHALを単なるツールとしてではなく、共創のパートナーとして扱っています。HALは小泉氏自身のパーソナルな情報や記憶を学び、それをもとに新たなクリエイティブな提案や成果を生み出しています。

        写真や記憶、CG素材、そして生成された作品のすべてが、HALの学習に不可欠な要素となっています。これにより、HALは個人的な要素と創造性を兼ね備えたモデルとして進化を続け、クリエイティブな共創を可能にしています。

        小泉氏にとって、この取り組みは単なる技術開発に留まらず、自身の過去や記憶を振り返りながら未来を創造するプロセスそのものなのです。これからもHALと共に、さらなる可能性を模索していくことでしょう。

        小泉氏の「Elemental Anima」はそのような未来を含めて、継続されている発信活動のようです。興味を持って見守っていきたいと思います。

        まとめ

        生成AIはクリエイティブ業界の未来を大きく変える可能性を秘めており、教育機関もその変化に対応していく必要があります。本セッションでは、AIツールを効果的に活用するだけでなく、AI時代において人間に何が求められるのかを深く考える必要性が示唆されました。「まずは体感し、納得するまで学ぶ」という小泉氏と石川氏の言葉は、生成AI時代に求められる学習姿勢を端的に表していると言えるでしょう。生成AIに対する漠然とした不安や抵抗感を乗り越え、積極的に活用していくためには、教育機関における適切な指導と、学習者自身の主体的な探求が不可欠です。

        AI時代に求められる教育とは何か?

        AIの急速な発展は、私たちの社会、経済、生活を劇的に変化させています。そして、この変化は「The Great Transition」と呼ばれる大きな転換期を迎えていると言えるでしょう。デジタルハリウッド創立者の杉山知之氏は、近未来教育フォーラムにおけるテーマを「ポストAI時代は到来しない」と設定し、AI技術の進化が継続する未来において、私たちがどのように文化を築き、社会を形成していくべきかを問いかけています。

        キーノート:3名の専門家が「The Great Transition」を語る

        本フォーラムのキーノートには、以下の3名の専門家が登壇します。

        • 安野貴博氏 (AIエンジニア、起業家、SF作家): AIが人間社会のコミュニケーションをどのように変えていくのか、そしてAIが様々な物事のやり方を変えるポテンシャルについて、東京都知事選での実践例を交えて語りました。
        • 岡瑞起氏 (筑波大学准教授、人工生命研究者): 人工生命研究の知見とOpen-endednessの概念から、未来の創造プロセスと社会のあり方を探ります。創造性の概念がどのように変化していくのか、その未来像を提示しました。
        • 藤井直敬卓越教授 (デジタルハリウッド大学大学院): 脳科学者の視点から、「The Great Transition」における教育の役割について、他の2名のスピーカーと共に議論を深めました。

        続く特集もお楽しみに!

        #小泉薫央  #近未来教育フォーラム #教育 #AI #人工知能 #TheGreatTransition #デジタルハリウッド

        https://j.aicu.ai/MagV6

        https://j.aicu.ai/Coloso3

        Originally published at https://note.com on Dec 1, 2024.

      3. 教育現場における生成AIコンテンツと著作権法

        上原伸一氏の近未来教育フォーラムにおける講演「教育現場における生成AIコンテンツと著作権法」よりお送りします。

        https://www.dhw.co.jp/forum

        デジタルハリウッド株式会社は、2024年11月30日(土)、近未来教育フォーラム2024 を開催しました。今年のテーマは 『The Great Transition〜ポストAIは来ない〜』。AI時代を生き抜くための教育のあり方について、豪華なゲストスピーカーと共に探究しており、AICU編集部でも複数回の特集で紹介していきたいと思います。

        ブレイクアウトセッション:多様なテーマで教育の未来を考える

        キーノートに先立ち、4つのテーマでブレイクアウトセッションが開催されました。

        • Session1: 教育現場における生成AIコンテンツと著作権法 (上原伸一氏)
        • Session2: クリエイティブ教育に生成AIは必要か? (小泉薫央氏)
        • Session3: DXハイスクール2年目、なにを企画しますか? (鹿野利春氏、小笠原健二氏)
        • Session4: AI時代における人材確保と働き方改革 (村田弘美氏)
        画像

        『教育現場における生成AIコンテンツと著作権法』

        AIにより生成されたコンテンツは著作権法上どのように位置づけられているのか。また、授業過程において、生成AIおよびAI生成コンテンツはどのような扱いになるのか、基本的な解説を行います。

        https://www.dhw.co.jp/press-release/20241106_kmkf/

        画像
        講演者:上原 伸一 氏

        【上原伸一】デジタルハリウッド大学特命教授、国士舘大学知財大学院客員教授、大阪工業大学大学院客員教授。東京大学文学部社会学科卒業後、朝日放送に勤務、著作権部長等。1999年から2010年まで文化庁の著作権の審議会で専門委員。2018年から社団法人日本音楽著作権協会理事。
        著書:「海の楽園パラオ~非核憲法の国は今」(あみのさん)「クリエイトする人たちのための基本からの著作権」(商事法務)など。
        (https://dhw2024educationforum.peatix.com/ より引用)

        上原氏はまず、著作権の基本について触れ、「著作権は『思想または感情』の創作的表現を保護するもの」と説明しました。そして、AIが生成するものはこの定義に当てはまらないため、著作物ではないと述べました。

        続いて、著作権に関する国際的な違いについても言及しました。各国で法律が異なるため、同じ事案でも裁判の判決が変わる可能性があることを指摘し、「春风送来了温柔(春風が優しさを送る)」事件を例に挙げました。

        Stable Diffusionで生成した画像(漢服風の白い衣装を着た、三つ編み風ヘアスタイルの若い女性の上半身をポートレート写真風に描写したもの)に著作物性を認めた北京インターネット裁判所の判決、AI機械翻訳サービスを利用して内容を概ね把握した。 もっとも、私は、中国語を全く解しないため、翻訳結果が正しいかどうかを評価する能力がないことから、翻訳エンジンの違うDeepLとChatGPT-4にそれぞれ和訳させ(和訳が分かりづらいところは、部分的に英訳させ)、その結果を突き合わせる作業を一応行った。なので、細かいところは別として、大きな部分では把握した内容は大体大丈夫かなと思ってる(著作権法の基本的な考え方に照らしても大きな齟齬はない)。 ちょっと時間がないので、すぐには無理だけど、米国の判決をスライド2枚にまとめたような感じで、近いうちにまとめてみたい。 一言だけコメントすると、日本や米国の基本的な考え方(AIを用いて人間が創作したと言えないと著作物性は否定される)と共通した考え方を採用しているように思われる。その意味で、日米とは異次元の論理が採用された特殊な判決ということではないんじゃないかなと思ってる。 ポイントは、その当てはめの部分で、米国(の現在公表されている裁判例や著作権局の決定など)が、前記考え方を極めて厳しく当てはめるのに対して、今回の中国の判決はかなり柔軟に当てはめているという部分かな。 個人的には、今の米国の当てはめは厳しすぎると思ってて、一方、中国の今回の当てはめも色々考えるべきところは多いように思うし、結局、最終的には、日米中とも、今の米国と今回の中国の間ぐらい(どっち寄りかも、又興味あるところだけど)に落ち着く形になるのかも、と思っている。 本当に興味深い判決である。

        最終更新午後8:02 · 2023年12月4日 1.9万件の表示

        https://x.com/OKMRKJ/status/1731629990939447719

        【AICU編集部補足】AICU編集部しらいはかせも中国の最近の学生さんについてまとめていましたので引用します。

        https://note.com/o_ob/n/n2add5461fea5

        生成AIを道具として使った創作コンテンツについては、「著作物になりうる」と説明しました。例として、人間が原作とセリフを、AIが絵を担当した漫画「Zarya Of The Dawn(夜明けのザーリャ)」のケースを紹介。このケースでは、絵の部分は著作物と認められなかった一方で、原作とセリフは著作物として認められたとのことです。

        【AICU編集部補足】ZARYA OF THE DAWN

        https://en.wikipedia.org/wiki/Zarya_of_the_Dawn

        『暁のザーリヤ』はクリス・カシュタノヴァ(Kris Kashtanova)が執筆し、人工知能ソフトウェアMidjourneyで完全に描かれた短編漫画であり、著作権紛争を引き起こした。
        【プロット】ザリアは記憶を失ったまま、廃墟となったニューヨークで目を覚ます。ポケットからラスティという人物からのポストカードが落ち、名前と自宅の住所を思い出す。家に帰って新しい服を手に入れた後、ザリアは「世界間のアシスタント」であるラヤと出会い、2023年の精神的危機が地球上の生命のほぼ完全な破壊につながったことを告げる。その後、ラヤはザリアを受容の世界であるザトゥーラワールドに連れて行く。そこでザリアは謎の女性と出会い、自分の感情を受け入れることを学ぶ。セントラルパークに戻ると、そこは温室で覆われていた。ザリアは「受け入れることは手放すことの第一歩です」と語る。
        【著作権紛争】
        2022年9月、カシュタノワは米国著作権局に漫画の著作権保護を申請したが、イラストが人工知能画像ジェネレーターであるMidjourneyを使用して作成されたことは明らかにされなかった。漫画は著作権保護を認められたものの、著作権局はその事実を発見した後、アートワークの保護を取り消す手続きを開始した。アートワークの著作権保護は2023年2月に取り消され、著作権局は人間が作成した作品のみが保護を受けることができると説明した。画像自体は著作権で保護されていないが、画像の配置と本のテキストとストーリーは人工知能ではなくカシュタノワの創作物であるため保護されている。

        https://en.wikipedia.org/wiki/Zarya_of_the_Dawn

        編集部による日本語翻訳

        https://www.instagram.com/kris.kashtanova/p/CoC1NDFOVux

        さらに、生成AIに極めて具体的な指示を出して生成されたコンテンツについては、「著作物になりうる可能性がある」と述べました。『CGWORLD』11月号に掲載された、大学学長からの具体的な指示に基づき、担当者が試行錯誤してAIで生成した作品が著作物と認められた事例を紹介し、そのポイントは受発注の関係にあることだと解説しました。Wordで作文をするのと同様の行為だと例えて説明しました。

        https://amzn.to/41b6VN3

        【AICU編集部補足】「CGWORLD vol.315」画像生成AIによる表紙メイキング、大公開。Webによる記事に加え、書籍文献版が「AICU Magazine Vol.6」にて入手可能です。

        https://j.aicu.ai/MagV6


        生成AIコンテンツが著作物と認められた場合、著作権法による保護を受けます。逆に、著作権が蔑ろにされた場合、契約違反には該当するものの、権利の侵害には当たらないケースもあることを、具体的な事例を挙げて説明しました。

        生成AIを使用してコンテンツを作成する際の注意点として、AIの学習自体には既存著作物の利用が認められているものの、生成されたコンテンツが既存著作物を想起させるほど似ている場合、著作権侵害になる恐れがあると指摘しました。また、既存の著作物に依拠した類似コンテンツを作成した場合も、著作権侵害になる可能性があると注意喚起しました。

        さらに、裁判官の判断には個人差があるため、同じ事案でも判決が異なる可能性があると述べ、中国では既に2万件ものAI関連の著作権訴訟があり、豊富な判例が蓄積されていることを紹介しました。日本ではまだ訴訟は出ていないものの、今後の動向に注目する必要があるとしました。

        最後に、教育現場における著作権の特別規定について触れ、授業に必要な範囲内であれば複製が可能だが、著作権の利益を不当に害してはならず、授業外に持ち出す場合は許諾を得る必要があると説明しました。

        まとめ

        AI技術の急速な発展に伴い、著作権に関する理解はますます重要になっています。特に生成AIの登場は、従来の著作権の概念を揺るがす可能性を秘めています。今回の講座は、生成AIと著作権に関する最新の情報を学ぶ貴重な機会となりました。今後、AI技術がさらに進化していく中で、著作権に関する知識をアップデートし続ける必要性を強く感じました。生成AIを利用する際には、今回学んだ内容を踏まえ、著作権侵害のリスクを理解した上で、適切な対応を心がけたいと思います。

        画像

        AI時代に求められる教育とは何か?

        AIの急速な発展は、私たちの社会、経済、生活を劇的に変化させています。そして、この変化は「The Great Transition」と呼ばれる大きな転換期を迎えていると言えるでしょう。デジタルハリウッド創立者の杉山知之氏は、「ポストAI時代は到来しない」と述べ、AI技術の進化が継続する未来において、私たちがどのように文化を築き、社会を形成していくべきかを問いかけています。

        キーノート:3名の専門家が「The Great Transition」を語る

        本フォーラムのキーノートには、以下の3名の専門家が登壇します。

        • 安野貴博氏 (AIエンジニア、起業家、SF作家): AIが人間社会のコミュニケーションをどのように変えていくのか、そしてAIが様々な物事のやり方を変えるポテンシャルについて、東京都知事選での実践例を交えて語りました。
        • 岡瑞起氏 (筑波大学准教授、人工生命研究者): 人工生命研究の知見とOpen-endednessの概念から、未来の創造プロセスと社会のあり方を探ります。創造性の概念がどのように変化していくのか、その未来像を提示しました。
        • 藤井直敬卓越教授 (デジタルハリウッド大学大学院): 脳科学者の視点から、「The Great Transition」における教育の役割について、他の2名のスピーカーと共に議論を深めました。

        続く特集もお楽しみに!

        #上原伸一  #近未来教育フォーラム #教育 #AI #人工知能 #TheGreatTransition #デジタルハリウッド

        https://j.aicu.ai/MagV3

        https://j.aicu.ai/MagV6

        Originally published at https://note.com on Nov 30, 2024.

      4. 魅力あふれたプレゼンテーション「第3回 AI アートグランプリ最終審査会」(後編)

        「AI をもっと身近に」をコンセプトとして始まった AI フェスティバル。その第2回となる AI フェスティバルが11月9日(土)にベルサール秋葉原で開催されました。今回はその後編として、その中で行われた「第3回 AI アートグランプリ」の最終審査である、ファイナリストたちによるプレゼンテーション。各作品に込められた想いをAICU編集部のhikonyanがお伝えします。

        激戦!名作揃いの「第3回 AI アートグランプリ最終審査会」(前編)

        プレゼンテーションの概要

        最終審査として、総合部門の最終審査に残った10名による最終プレゼンテーションが行われました。プレゼンテーションのルールは以下のとおりです。

        1. 持ち時間は3分以内
        2. PowerPoint等を使用する場合は5ページ以下
        3. 動画のみによるプレゼンテーションも可
        4. 最終審査会に欠席する場合は事前にプレゼンテーション動画を事務局に提出する
        画像

        今回プレゼンテーションに臨んだファイナリストは以下のとおりです。(掲載順は発表順)

        1. 「異邦人」 志村翔太さん
        2. 「ゼロイチ、「ニ」」 野火城さん
        3. 「象牙のナイフ」 elimさん
        4. 「AI と kawaii の融合」  Starm.productsさん
        5. 「付喪神ジェネレーター」 異業種データサイエンス研究会(関東)さん
        6. 「墨」 Samさん
        7. 「MOMO TARO」 北澤和巳さん
        8. 「100 TIMES AI HEROS」 Masaさん
        9. 「Qveria – 空想世界事典」 koguさん
        10. 「Chronovital Resonance」 米城陽さん
        画像

        プレゼンテーション審査

        審査委員長の河口洋一郎先生による挨拶の後、いよいよプレゼンテーションがスタートしました。

        画像

        1.異邦人/志村翔太さん

        志村さんは欠席のため、事前に提出された動画での発表でした。

        画像

        志村さんの作品「異邦人」は、日本語の五十音図に存在しない音素を元に、画像生成 AI で既存の言語体系では読めない新たな形状の日本語文字を生成し、その文字を日本語に存在しない不明瞭な音声と結びつけることで、人間の言語体系では理解ができない新たな言語体系による日本語の世界の物語をシミュレーションした映像作品です。これにより、従来の日本語の枠を超えたコンピュータによってのみ語ることができる新しい日本語の可能性を探究する作品となっています。 

        プレゼンテーション動画の中では、この作品について次のように説明されています。

        「AI によって生成された素材を動画編集によって最終的な作品に仕上げています。この過程では、AI が生み出す無限のバリエーションの中から人間が良いと思って特定の要素を選び取り、編集することで、人間の恣意性が込められています。具体的には AI が生成した、不明瞭な文字や音声の中からどの部分をどのように映像に結びつけるかを編集者が決定し、視覚的・聴覚的に再構成しています。これにより、AI と人間の共同作業によって新しい日本語の可能性を探求するという作品のコンセプトをさらに深めています」

        画像

        「この作品が暗示する未来は、AI による知性の拡張と人間と AI が競争する新たな制作活動の形です。AI が 言語や表現の可能性を拡大することで、人間は従来の枠を超えた新しい言語を獲得し、コミュニケーションや創造の領域が広がっていくでしょう。さらに、AI が大量の素材やアイデアを生成し、それを人間が選び、編集していく競争プロセスは、私たちの制作活動に革命的な変化をもたらします。しかし、完成した作品は人間には理解ができない。それが本作・異邦人のキーポイントです」

        画像

        <審査員による質疑応答>
        質疑応答は志村さんが欠席のため、省略されました。

        <hikonyanの感想>
        存在しない文字と音を AI で生成するという発想が面白い作品ですね。AI に全工程を任せるのではなく、AI はあくまで大量のアイデアを生成するものであって、最終的には作り手の個性が作品に反映される結果となるというのは、AI の理想的な使い方であるように思えました。

        2.ゼロイチ、「ニ」/野火城さん

        野火城さんの作品「ゼロイチ、「ニ」」は、自分で描いた絵を AI に学習させて生成した漫画作品です。情報量の多い AI 画風でかつ自然に読める漫画に挑戦するため、特に AI の情報量が多い一番の見せ場では背景を使う演出にした作品となっています。

        画像

        画像 AI 活用方法 は画像 AI モデルを白黒絵が生成しやすいように調整。この漫画に向いた画風を考えて、自分の手で描いて AI に学習させました。下絵を描いて AI で 清書することで作り上げたそうです。

        AI 漫画を描こうと思ったきっかけについて、野火城さんは次のように語りました。

        「自分が本格的に漫画を描き始めたきっかけは、二次創作でした。しかし、その後、さまざまな事情が相まって プロの編集さんのもとで漫画 力を鍛えることになった。つまり、一次創作を始めた。一次創作と二次創作は全然別物だと思っていたが、実際やってみるとそうでもなかった」

        画像

        「スタートが二次創作だった自分には、一次創作は「現実」を原作にした二次創作という感覚がある。つまり、ゼロイチ、ニを図にすると、ゼロ=物質。イチ=物質の運動に影響を受け、人間に感情が芽生える。ニ=自分の感情を表現したい「欲」が発生。欲が高まると「創作」を始める。人間の「欲」が強くにじみ出る「創作」は人の心に刺さる。そして2022年、画像 AI が一般人にも使えるようになる。AI が自動で生成する創作に「欲」は乗らないが、AI を使う人間には欲がある。特に AI を取り巻く現在の環境は、人間の「欲」まみれだ。己の「欲」と改めて向き合う良い機会だと思った」 

        画像
        画像
        画像

        野火城さんは最後に「生成 AI の健全な発展を願っています」と言葉を締めました。

        <審査員による質疑応答>
        質疑応答では、審査員の安倍吉俊さんから質問が出ました。
        安倍:漫画の中のキャラクターとか背景は、基本的には全て生成 AI で描いたものなんですか? 
        野火城:下絵は全部自分で描きまして、背景は3Dを下絵にしております。ある程度自分でキャラクターを描きまして、それを生成 AI で清書するという形です。
        安倍:なるほど。やってみたいなと思っていたことを先にやってる方がいて、非常に面白かったです。

        画像

        <hikonyanの感想>
        手描きの漫画を、一次創作、二次創作とも描いた経験がある野火城さんだからこその作品ですね。「現代の生成AI事情」という「原作」を活かした二次創作漫画という位置付けという発想も面白いと思いました。AI で清書する過程での工夫なども知りたかったですね。

        「ゼロイチ、「ニ」」は野火城さんのX(旧Twitter)で読むことができます。ぜひ皆さんも読んでみてはいかがでしょうか?

        https://note.com/nobisiro_2023/n/nb64258d32855

        3.象牙のナイフ/elimさん

        elimさんの作品「象牙のナイフ」は、実写か CG か AI か見分けのつかない、そして AI 特有のバグをバグとして見せない映像作品を実現したミュージックビデオです。

        画像

        elimさんは作品の動画を流しながら次のように語りました。

        「最近、私は SNS にあるたくさんの画像や動画などを見るときに、AI が作ったものだとわかるとなぜか冷めてしまう、萎えてしまう自分がいることに気づきました。それはなぜかと考えたときに、使う AI が だいたいみんな同じで、AI で生成する人物、背景の絵柄や色味、構図が似通っているからだとわかりました。海外のアーティストが作ったクオリティの高い作品で、これは実写か CG か AI なのかわからなくて魅了され、集中して見入っていると AI 特有の映像として、面白みに欠けるバグが映り込み、また気持ちが冷めてしまうこともありました」

        「そういったこともあり、自身が AI の作品を作るときは、実写なのか CG なのか AI なのかわからないところまで、生成する画像と映像を追い込み、こだわりました。例えば、本編でバイオリンを演奏しているきのこのクリーチャーたちを選ぶときにこだわったことは、実際に人間が精巧な特殊メイクや被りものをして出演しているような絵柄を動きに選んだところです。この映像のきのこのクリーチャー たちが人間に近い、骸骨のような顔をしているとホラー色が強くなり、人間より小さくなるとファンタジー色が強くなるので、この楽曲と歌詞に合わせて、ちょうどいいダークファンタジーになるように AI を活用して仕上げました。採用した AI のバグに関しても、よく見るような自然の摂理は人体構造に反した浅はかなバグに合わせて、これはバグではなくて AI 特有のスキルだと思えるようなものを採用しました」

        画像

        elimさんはひと通りの説明を終えると、イベントのテーマである「活きる」に沿った今回のMVの歌詞を、生のラップで披露しました。

        画像

        <審査員による質疑応答>
        質疑応答では、審査員の安倍吉俊さんから質問が出ました。
        安倍: AI を使った感じを非常に薄くすることをポイントにしていたというのが、作っているほうもそうだったんだなと思って。ちゃんとその狙いがこちらに伝わっています。違和感とかバグを取っていくために、 AI の側の進化もあるんでしょうけど、人間の側でやっている工夫や試行錯誤はあったりするのでしょうか?
        elim:ずっと付き添って、自分が出したいイメージに近い画像・映像になるまで突き詰めるっていうことです。実写を撮っているときとか CG を作っているときとかとそんなに変わりはなかったですね。 

        <hikonyanの感想>
        おそらく記事の読者の皆さんも動画のスクリーンショットを見ただけでも「おぉ!」と思ったんじゃないでしょうか。個人的には実写の映像制作経験があるのですが、AI でここまでのリアリティのある映像を作り出せるのかとただただ驚きでした。elimさんのように AI 特有のバグもスキルとして捉えながら根気強く作品を作っていくことで、今後は実写と CG 、AI の境目がなくなっていくんだろうなと、未来の映像制作環境への期待が高まりました。

        4.AI と kawaii の融合/ Starm.productsさん

        Starm.productsさんの作品「 AI と kawaiiの融合」は、AI と kawaii の融合をテーマに、見ているだけで嬉しくなるようなキラキラ kawaii AI アートや動画を、自己紹介を通じて表現した映像作品です。幸福感や美しさを象徴する、「発光する」という意味の Luminous なイメージが動画内に盛り込まれています。

        画像

        AI の活用方法について、次のように説明しています。

        「テーマをより効果的に伝えるため、楽曲や映像の構成をはじめとした多くの要素を AI によって生成いたしました。 AI の技術を活用することで、視覚的にも聴覚的にも皆様に楽しんでいただけるように願いを込めた作品に仕上げています。多彩な AI ツールで動画を生成しています。楽曲生成にも AI を使用。編集は Canva で行いました」

        画像

        「この動画を制作した当時は自身の持てるスキルを最大限に活かしました。しかし、約2ヶ月が経過した今見返すと、技術や経験が未熟であり、最新の AI ツールを活用すれば、さらにクオリティを高められると感じます。AI は日々進化し、できなかったことが次々と可能になっていますが、ツールを使いこなすには、使用者の経験や技術、そして生き方が重要だとも 強く感じます。これからも kawaii を世界に届けるために、AI とともに未来を模索し続けたいです」

        画像

        <審査員による質疑応答>
        質疑応答では、審査員の諏訪道彦さんから質問が出ました。
        諏訪:日本の kawaii 文化って 20 世紀初頭と 21 世紀初頭 ぐらいに結構世界に広まっていっていて、これは今も続いてるんですよね。あえてこの AI というものと融合、コラボさせて今やっているということの本来の kawaii というものに対して、作者の方がどういう可愛さを求めていたのか、これからどうなるか、すごく気にはなっています。その答えは僕にはまだ見えてないんですけども、その辺は意見としてありますか?
        Starm.products:コンセプトテーマに「キラキラと kawaii 」がありまして、セーラームーンやプリキュアとかが大好きなのと、あとはいわゆるギャル文化がすごく好きなので、そういったものを盛り込んだイメージで作っております。
        諏訪:日本の kawaii が世界に注目されているのは事実なので、 AI という武器を取り込んでいくってのはとても良いことかな と思います。 

        画像

        <hikonyanの感想>
        コンセプトのとおりキラキラ輝く宝石や光が印象的な作品で、純粋に可愛いと思いました。もう少し AI ならではの要素があるとさらに見ていて楽しい作品になったのかなという気はします。

        今回の作品は、Starm.productsさんのYouTubeチャンネルで公開されていますので、皆さんも一度視聴してみてはいかがでしょうか?

        5.付喪神ジェネレーター/異業種データサイエンス研究会(関東)さん

        異業種データサイエンス研究会(関東)さんの作品「付喪神ジェネレーター」は、無機物のモノも 生き物として活動するような、そんないきいきとした世界を表現するため、モノと人、モノとモノが会話できるようにした アプリケーションです。

        画像

        異業種データサイエンス研究会(関東)さんは次のように説明しました。
        「子どものときを思い出してください。筆箱の鉛筆1本1本、ずっと握りしめていたクッション、いつも相棒だった自転車。それらに名前をつけたり話しかけたりしていませんでしたか? 未来はきっと全てのモノがお喋り好きな、そんな世界。毎日手に取るその缶コーヒー。小さな一歩を身近から」

        すると、男性の顔が描かれた缶コーヒーを手に取り、缶コーヒーと会話をし始めました。

        画像

        缶コーヒー:どうしたんだい? 元気ねぇじゃないかい。
        発表者:普段生成 AI のアプリを作っているんですけど、 初めて AI アートを使ったアプリを作って疲れたんだよね。しかも、徹夜で作っていて、お酒を飲みながらやっていたので余計に疲れましたよ。
        缶コーヒー:そりゃ大変だったね。徹夜で頑張った成果が出たなら疲れも吹っ飛ぶんじゃないかな? どんなアプリを作ったの?
        発表者:何を言っているんですか。あなたですよ!

        画像

        このように、人とモノ、モノとモノがお喋りをする世界を考えているそうです。今度はモノとモノが会話する事例として、女性の顔が描かれたペットボトルの紅茶と、男性の顔が描かれた缶コーヒーが会話しているところを見せてくれました。

        画像

        発表者:コーヒーと紅茶、どちらがヘルシーですか?
        紅茶:お茶のほうがカフェインが少ないのでヘルシーですが、個人の好みによると思いますわ。
        コーヒー:ワイは缶コーヒーを飲むので、紅茶を飲む人にはちょっと言いたい。コーヒーも紅茶もヘルシーですが、どちらも砂糖を加えて飲みたくなるかもしれません。

        「こんな風にモノ同士が喋る、そんな世界が来ると思っています。 AI エンジニアのメンバーで開発を行いました。AI によってモノが生きるようになる。皆さんの持っている飲み物 から喋りだしたらとても面白い世界になると思います」と説明しました。

        <審査員による質疑応答>
        質疑応答では、審査委員長の河口洋一郎先生から質問が出ました。
        河口:生き物の生命を含むということは非常に面白いなと思ってるんですけども、モノを 生命化するということの発想の原点はどこだったんですかね? 
        異業種データサイエンス研究会(関東):私たちはハッカソンでこの作品を作成しまして 、そのときに目の前にあったのが缶コーヒーだったんですね。普段缶コーヒーって大量消費の社会の中でひたすら消費されて、愛着ってそんなに持ってないかなと思うんですけど、 AI が吹き込まれて喋るようになったらもっと愛着を持って面白いんじゃないか、とそういったところが発想にあります。 

        画像

        河口: AI 同士で繰り返し会話をするというのが生まれたきっかけは何ですか? その苦労話を聞きたいな。
        異業種データサイエンス研究会(関東):別々の AI を使っていまして、それぞれ 人格が異なるんですね。面白い会話をしたら面白いだろうなと。そういうところがモノとモノを喋らすという発想の原点にあります。
        河口:会話の繰り返しのミニマルなところが良いなと思いました。

        <hikonyanの感想>
        誰しも一度は思い描くであろうモノが喋る世界が、現実味を帯びてきたなと感じました。AI アートで顔にも個性があるのが良いですね。 AI の発展により、さらに高度な会話のやり取りや表情の変化ができるようになると面白そうです。

        6.墨/Samさん

        Samさんの作品「墨」は、1滴の墨を通して世界観を表現し、さまざまな生命の形が同じ宇宙でどのように共存しているかを示す映像作品です。この作品を通じて、楽しく想像力豊かな旅を提供し、生きることやその意味について、新たな視点を与えることを目指したそうです。

        画像

        墨を題材としたことに対して、次のように語っています。

        「私は書道に対して深い鑑賞の念を持っています。私は一筆一筆の筆致を感じることが好きです。それぞれの筆跡にはまるで独自の生命があるように感じます」

        画像

        制作過程については次のように説明しました。

        画像
        画像

        「全ての絵コンテの画像をMidJourneyで作成しています。多くのいきいきとしたビジュアルを制作しています。その後、LumaのDream Machineを使って各フレームにアニメーションをつけ、動きでそれらをつなげています。Lumaを用いたことで、清水に墨が広がる過程にもよく似合っており、その変化に富んだ動きが魅力です」

        画像

        「音声については、SUNOを使用して音楽を作成しました。この作品には宗教哲学に根ざした概念が含まれています。いくつかの特別な言葉をプロンプトとして選びました」

        <審査員による質疑応答>
        質疑応答では、審査委員長の河口洋一郎先生から質問が出ました。なお、実際には英語で質疑応答が行われました。
        河口:この作品のコンセプトを教えてください。
        Sam:私の作品のコンセプトは、清水に墨が広がる様子を見たときに、人間について考えさせられたことにあります。その一つは、人生は常に変化するものであり、人間が社会に出たとき、私たちは常に誰からも攻撃されるものだからです。もう一つは、私たち以外の全ての生命や生き物が、お互いにつながりを持っているということです。
        河口:なぜそんなにエネルギッシュなパワーを発揮できるんですか? とても興味深いアイデアですね。

        画像

        <hikonyanの感想>
        墨の質感も伝わってくるようなビジュアルと流動的な動きがとても印象的で、宗教的な要素を入れたという音楽とも調和がとれていて美しいですね。制作する中で生まれた、作りかけの段階の映像も見てみたくなりました。

        7.MOMO TARO/北澤和巳さん

        北澤さんの作品「 MOMO TARO 」は、昔話の桃太郎を題材にした、クレイアニメーション風の映像作品です。誰もが楽しめるような人肌を感じてアナログ感がある、AI っぽくない作品を目指して制作されました。

        画像

        これまでずっとCG制作に携わってきたという北澤さん。今回、 AI を使った制作に挑戦するにあたって、かなり試行錯誤したと語ります。

        画像

        「これは 画像生成の RunWay のプロンプトを入れて作っていたときの画像のキャプチャー になります。動画生成も同じRunWayのほうが相性がいいなと感じています。プロンプトに入れて漫画的な表現、クレイアニメーションな感じをかなり試行錯誤して作りました。AfterEffectsで並べて、カラコレやレンズエフェクトなどを入れつつ、音と合体させて動画として完成させました」

        画像

        「今回桃太郎の諸々のストーリーを英語のラップにして面白おかしく楽しめる、親しみがある、温かくなる 生き生きとした動画を目指して作りました」

        <審査員による質疑応答>
        質疑応答では、審査員の諏訪道彦さんから質問が出ました。
        諏訪:この全編にほとばしるチャイナ感、まぶされたコミカル感について、どのようなことを意識されましたか?
        北澤:ラップをベースにしたところもそうなんですけども、クレイアニメーションとか漫画とか僕が幼少期から見ていた人形劇とかいろんなものの影響を受けてのコミカル感です。今回、思いっきりフルデジタルのピアノの作品なんですけども、その逆のアナログをどれだけ表現できるかということを意識してトライしました。

        画像

        諏訪:鬼が死んじゃうところは爆発したりしますけども、それがコミカルに見えます。見る人を楽しませるっていうのが原点だと思いますので、コミカルさはとても好感が持てました。中国的なところは表現しやすかったからなんですか?
        北澤:ワールドワイドにラップを英語詞にした中で、日本でもありつつ、ちょっとアジアっぽさは許容し、楽しさとして位置付けたところはあります。どうしても作っているとOKテイクは打率3割くらいで、実際にはその何倍ものテイクを作ってるんですけども、その中でガチガチに固めずにちょっとゆるく広げて、アジア感というものは今回は許容して、幅を出して楽しむという位置づけを狙っておりました。
        諏訪:また新たな世界を期待したいなと思います。

        <hikonyanの感想>
        可愛らしいクレイアニメーション風な作品も AI でここまで表現できる、しかも6月から AI 生成を始めたばかりで、というのが驚きでした。なかなか難しい様子ですが、日本らしい作風のクレイアニメーションも見てみたいですね。

        8.100 TIMES AI HEROS/Masaさん

        Masaさんの作品「 100 TIMES AI HEROS 」は、生成 AI を活かしてキャラクターのナラティブ(願望、能力、役割の組み合わせから生まれるキャラクター特有の事情)、ビジュアルを創出するもので、新しいキャラクターのアイデアを100倍に拡張することを目指したシステムです。

        画像

        生成 AI を活かしてキャラクターの創出の生産性を100倍にするものだとMasaさんは説明します。

        画像

        「例えば、人間を傷つけたくない × 何でも食べることができる × 餓鬼の王がいたらどうでしょうか? キャラクターは物語の中で自身のナラティブに従って振る舞います。作家は自身の経験や願望を、ナラティブを物語に持ち込むことによってキャラクターにとって身につまされる問題、のっぴきならない状況を作り出します。物語とはキャラクターがのっぴきならない状況に向き合うことと言えます」

        画像

        「このシステムでは、AI を使ってキャラクターの願望、能力、役割をスプレッドシートに格納します。スプレッドシートから取り出した情報に、さらに年齢・性別・種族をランダムに取り出し、組み合わせます。ポーズ、サイズ、カメラアングルを加えて画像生成用のビジュアルプロンプトを生成します。15分で100通りのキャラクターコンセプトとビジュアルプロンプトを生成することができます。同時に AI が新たな願望・能力・役割のアイデアを生成し、スプレッドシートに格納します。無尽蔵にほぼ独自のナラティブとビジュアルを持ったキャラクターを作り出し続けることができます」

        画像

        続けて、Masaさんは観客に次のように問いかけます。

        画像

        「AI が無尽蔵にキャラクターと物語を生成し続けるようになったら、人間はそれらを読み続けることができるのでしょうか? AI がナラティブを生み出し、ストーリーを生み出し、自らそれを享受し続けることができるなら、人間には何の役割が残るのでしょうか?」

        画像

        Masaさんは自分の口で次のように語りました。

        「私は人間には社(やしろ)を造り、まつりごと、つまりフェスティバルを行う役割が残ると考えています。 古い神社とかに行っていただくと感じられると思うんですけども、社というのは 心地いい場所にあります。何千年も前から人々がその場所に集って心地よさを感じてきたということ、そしてそれがこれからも続いていくということ。そういう個人の生命の時間軸を超えた長い長い人の営みに接続するために、人間は社を造り続けてきたんだと思います。私は私の営みとして、そして社として作品を作り続けたいと思いますし、皆さんもぜひ何か作ってほしいと思います。皆さんにもできると思っています。そして、このように集まってフェスティバルを行えたら最高だと思いますので、ぜひ一緒に何か作っていきましょう」

        画像

        <審査員による質疑応答>
        質疑応答では、審査員の安倍吉俊さんから質問が出ました。
        安倍: AI でこういうことができたらいいのになと、自分が思っていたまさにそういうものだったので、非常に興味を持ちました。これは一般の人も使うことができるのでしょうか?
        Masa: GitHub にコードを置いてあるので皆さん使えると思います。

        画像

        安倍:これを使って自分で何か作品を作ってみましたか?
        Masa:僕にとって、 AI で作るとか手描きで作るとかはあまり問題ではなくて、とにかく作りたいという気持ちが強いです。これも自分の一つの作品だと思っています。人生が全然足りないと思っていて、これを使って自分の作るスピードも早くできたらいいと思いますし、そんな風に作りたい気持ちはあるけど全然時間が足りないなという人のための助けになった り、何かのアイデアのインスピレーションになったらいいなと思って作っているって感じです。
        安倍:これを使うと非常にアイデア出しが捗りそうでいいなと思いました。

        <hikonyanの感想>
        これぞあってほしい AI の姿ですね。今回はキャラクターの創出を手助けしてくれるシステムでしたが、設定値を変えれば他のアイデア出しやインスピレーションを得る手段にも応用できるかもしれません。システムのさらなる発展に期待したいですね。

        9.Qveria – 空想世界事典/koguさん

        koguさんの作品「Qveria – 空想世界事典」は、生成 AI を使って制作した、空想の世界の事典です。インデックスや個々の記事で構成されています。記事には、AI で生成した象徴的な画像と本文が記述されているそうです。

        画像

        この事典の制作過程について、次のように語りました。

        画像

        「仕組みとしては、だいたい 60 万文字のテキストを用意して、それを削って 20 万文字ぐらいにして RAG として LLM に渡しています。そこから事典の本文も画像生成用のプロンプトで作っています」

        画像

        なぜこのような事典を作ったのか。koguさんは次のように説明しました。

        画像

        「いろんな技術が登場するたびに変わってきたんですが、 AI はちょっと毛色が違って、ものすごくたくさんの表現を直接もう 1 回導出できます。それが可能になってくるときに、そのプロンプトというものすごくか細い方法でこれからやっていけるんだろうか?と考えたときに、可能な限り分厚い世界を用意して、それを通して何か創作をしていくっていうのが必要じゃないかと、こういう実験をしています」

        画像

        「いずれはこの分厚い世界の部分自体が創作として流通をしたり、例えば誰かの世界を借りて自分だけの物語を作ったり、そういうことが可能になっていくんじゃないかと考えています。というのも、プロンプトで出てくるものっていうのが、モデルが十分性能が上がっていけばいくほど、プロンプトには忠実でそれ以外はもう AI にお任せっていう部分が大きくなっていって、もう AI 任せになってしまう。結局、この分厚い世界の部分にこそ、自分を込めてそれを通した創作にすべきじゃないか?ということで、こういうことをやっています」

        <審査員による質疑応答>
        質疑応答では、審査員の諏訪道彦さんから質問が出ました。
        諏訪: AI の力を借りたということよりも、空想の世界の事典を自分たちで作ったということに、驚く以外になかったですね。最初にこういうことを考えられたきっかけはあるんですか?
        kogu:元々名前をつけた世界を創るのが 8 つ目くらいで。子どもの頃にゲド戦記を読んで以来、世界を創るのは趣味みたいにやっていて、たまたま AI を使うのに題材として向いてそうだったので、自分の世界事典を作るっていうところからスタートした感じです。
        諏訪:辞書を作るのに「船を編む」という言葉がありますけど、この AI の場合はどういう風に言葉が適するのかわかりませんけども。一番苦労されたところはありますか?
        kogu:どういうものを作っていくか順序が大変で、作った後にはやっぱり自然科学的な動かしがたいものから定義していくべきなんだなっていうことが知見としてありました。その次が言語で、物の名前というのは一度つけると代え難いと感じながら設定をしていきました。

        画像

        諏訪:ベースになっているストーリー、世界観っていうのはご自分の中にあるんですか? 今回はそのうちの 1 つの世界の事典になっているということですか?
        kogu:人間より強いものがいっぱい出てくる世界が好きなので、そういうことが可能な原理ってのはどういうものだろう?みたいなところから始めて、今回の世界を作っています。 
        諏訪:アニメーションになることもすごく 期待したいなと思います。

        <hikonyanの感想>
        事典を作るという発想もそうですが、 AI で創作していく中で分厚い世界が必要だろうと思い至るまでのお話がとても興味深いですね。紙の事典だと数年がかり、時には何十年がかりで作ると聞きますが、全体で何ページ分あるのか、どこまで細かく定義されているのか、制作にかかった期間など気になることがいっぱいです。

        10.Chronovital Resonance/米城陽さん

        米城さんの作品「Chronovital Resonance」は、Apple Watchを用いて取得した人間のバイタルデータ(活きた状態)をもとに AI で生成した音楽作品です。楽曲タイトルは「Chronovital Resonance(Chrono:時とともに変化する、vital:バイタルデータを、Resonance:音楽と共鳴させる)」です。

        画像

        プレゼンは、ゲーム画面のようなテキストベースの会話を展開し、そのBGMに作品が流されていました。

        画像

        音楽的な側面から作品のブラッシュアップ、音楽制作のためのコーディング、人間の心の状態を音楽で表すための具体策、すなわちエンジニア、クリエイター、そして人間としての働きを AI にお願いし、協働で制作したと説明します。

        画像
        • 「テンポ(BGM)」歩数を線形補完してマッピングしたもの
        • 「ベロシティ(音の強さ)」心拍数を線形補完してマッピングしたもの
        • 「音の持続時間」ストレス変動性でマッピングしたもの
        • 「リズムパターン」ストレス指数に応じて変更したもの
        • 「メロディ」ストレス指数をもとに十二音技法を活用したもの

        という提案を AI から受けたそうです。

        画像

        コーディングも AI が行い、midiで出力するためのPhthonのコードを書き上げました。そして、コードを米城さんのほうで実行してDAWで編集して完成させたとのこと。後半につれてテンポが速くなっていく、おどろおどろしい音楽になってきました。

        十二音技法というものを採用した背景について、次のように説明した後、AI に依頼する意義について説明していました。

        • midi作曲のコーディングはやったことがない。
        • 「人間が思う人間らしさ」には主観が入る可能性があるため、人間以外の存在が客観的に「人間らしさ」を考え「活きる」を表現したかった。
        • 仮にその発想があったとしても、それをもとに各音楽パラメータをマッピングするノウハウや発想がなかった。
        画像

        すると、楽曲はさらに速くなっていきました。その理由について、制作期間が約3日間と短くて焦ったことや、側転や回し蹴りなど体を動かしながらデータを取得したことが想像できるような説明がされました。

        今回、作品を制作・応募しようと思った背景として、「音楽のポテンシャルを最大化したい」という目標があるとのこと。せっかくの機会なのでいろんな切り口でアプローチしてみたいとも思ったと説明していました。

        画像

        <審査員による質疑応答>
        質疑応答では、審査委員長の河口洋一郎先生から質問が出ました。
        河口:今までにない エントリーだったんですけども、この「音」から始まったというその着眼点をちょっと聞かせていただければと思います。
        米城: 私は医学系の大学院に在学していまして、音楽を健康に活かす活動、その関連活動に取り組んでおりまして、学部生の頃から研究 だけではなく演奏や作曲といった形で音楽にも取り組んできています。それらの要素が合わさって、そのバイタルデータを音楽のパラメータと結びつけて、それを音楽として成立させたいという着想に至りました。
        河口:今後の発展について聞きたいです。

        画像

        米城:先ほどのプレゼンテーション動画でもざっくりと申し上げたのですが、音楽の持つポテンシャルを最大化したいという風に大きく考えていて、その中でも私の専門と合わせて、音楽が持つ人の健康に対するポテンシャル、癒しを得られたり、元気を得たりといったそういったポテンシャルを高めたいというところがすごく大局的な部分にあります。そのための その一歩としてバイタルデータを音楽のパラメータに結びつけることで、今回の作品ではリアルタイムではなく私がコードを実行することで作った曲ではあるんですが、この曲をリアルタイムで音楽に変換することができることがスモールステップといったところです。
        河口: バイタルデータの活用に期待したいですね。ぜひ頑張ってください。

        <hikonyanの感想>
        バイタルデータをパラメータとして AI と協働で音楽を作るという発想が面白いですね。とても約3日で制作されたとは思えないクオリティです。制作過程の焦りや不安感はとても感じられますが(笑)。

        まとめ

        「第3回 AI アートグランプリ」の最終審査である、ファイナリストたちによるプレゼンテーションの様子をお伝えしました。どの作品も制作者の意図や想いが詰まった、未来の AI への期待感が高まるような発表ばかりでした。

        誰がどの賞を受賞したか気になる方は、結果発表の様子をまとめた記事を公開中ですのでぜひご覧ください!

        また、今回の審査会の様子は AI アートグランプリの公式チャンネルに動画がありますので、気になった方は動画もぜひご覧ください。

        最後までお読みいただきありがとうございます。
        主催された清水亮さんほか関係者の皆様へも感謝を記させていただきます。発表された作品の作家の皆様へ、作品の引用をさせていただいております。もし可能なら作品へのリンクなどもいただけましたら幸いです。

        AICUでのAI関連イベント取材依頼はこちらから

        この記事への感想は X@AICUai へのメンションをつけていただけますと幸いです。分厚いレポートを書いてくれた AICU編集部 hikonyanさんへの声援もお待ちしております!

        Originally published at https://note.com on Nov 29, 2024.

      5. [ComfyMaster36] 動画から新しい動画を生成しよう!

        既存の動画をトレースして、新しい動画を作る方法、知りたくないですか?
        本記事では、そんな期待に応えるべく、AnimateDiffとControlNetを使って参照動画から動きを抽出し、それを基に新しい動画を生成する方法を解説します。

        こんにちわ、AICU media編集部です。
        ComfyUI マスターガイド」第36回目になります。
        本記事では、前回ご紹介したAnimateDiffとControlNetを組み合わせて、動画から異なる動画を生成する「video-to-video (v2v)」を行う方法を解説します。
        「どんなクリエイティブなことができるのか?」と想像を膨らませながら、ぜひ最後まで読み進めてください。きっと新しい発見やアイデアが得られるはずです。

        ★本内容については著作権侵害の可能性がある技術を取り扱います。実験、研究目的とする場合も、参照元にする画像との依拠性・類似性については十分に配慮し、業務的な製作においては所属機関の法務部や担当弁護士などに法的見解を確認してから実施することをおすすめします。

        本連載の初回はこちら。前回はこちら、目次はこちらです。

        [ComfyMaster35] ここから始める動画編!SDXL+AnimateDiffでテキストから動画を生成しよう! #ComfyUI [無料]

          1. 概要

          前回は、AnimateDiff+IP Adapterでテキストから動画の生成を行いました。AnimateDiffに関しては、前回の記事で解説していますので、前回の記事と合わせてご覧ください。

          今回は、動画を参照し、その動画と同じ動きで別の動画を作成します。作成にはControlNetを使用し、参照元動画の動きをトレースし、それを動画生成に適用します。

          2. カスタムノードのインストール

          ★復習[ComfyMaster4]ComfyUIカスタムノード導入ガイド! 初心者でも安心のステップバイステップ解説

          Google ColabでのComfyUI環境設定から学びたい方はこちら
          ★復習[ComfyMaster1] Google ColabでComfyUIを動かしてみよう!

          準備ができたら、以下のカスタムノードを使用するため、ComfyUI Managerからインストールしてください。

          ComfyUI-AnimateDiff-Evolved

          ComfyUI-AnimateDiff-Evolvedは、Stable Diffusionモデルを拡張して動画生成を可能にするカスタムノードです。元のAnimateDiffを進化させたバージョンで、動画生成のためのモーションモジュールと高度なサンプリング技術を組み込んでいます。

          https://github.com/Kosinkadink/ComfyUI-AnimateDiff-Evolved

          ComfyUI-VideoHelperSuite

          ComfyUI-VideoHelperSuiteは、動画生成を支援するためのカスタムノードです。動画の編集や加工を容易にする機能を提供します。今回は、一連の画像を動画にして保存するノードを使用するために必要となります。

          https://github.com/Kosinkadink/ComfyUI-VideoHelperSuite

          ここまでが、前回の「Text to Video」を実現するカスタムノードのインストールと共通部分になります。

          ここから先は、ControlNet環境を作っていきます。

          ComfyUI-Advanced-ControlNet

          ComfyUI-Advanced-ControlNetは、ControlNetの機能を強化するカスタムノードです。ControlNetの強度をタイムステップやバッチ化された潜在変数にわたってスケジュールする機能を提供します。

          https://github.com/Kosinkadink/ComfyUI-Advanced-ControlNet

          ComfyUI’s ControlNet Auxiliary Preprocessors

          ComfyUI’s ControlNet Auxiliary Preprocessorsは、ControlNetの前処理を支援するカスタムノードです。高度なヒント画像を生成し、画像の質と正確さを向上させる機能を提供します。

          https://github.com/Fannovel16/comfyui_controlnet_aux

          ComfyUI-KJNodes

          動画サイズのリサイズのためにComfyUI-KJNodesを導入します。ComfyUI-KJNodesは様々な便利なノードを格納しています。

          https://github.com/kijai/ComfyUI-KJNodes

          3. モデルのインストール

          RealVisXL V5.0 Lightning

          今回は、RealVisXLのLightningバージョンを使用します。Lightningバージョンでは、サンプリングのステップ数を4-6回に抑えることができます。生成量の多いAnimateDiffでは、TurboやLightningなどの数ステップで生成完了するモデルを選ぶと良いでしょう。
          以下のリンクよりモデルをダウンロードし、「ComfyUI/models/checkpoints」フォルダに格納してください。

          https://huggingface.co/SG161222/RealVisXL_V5.0_Lightning/blob/main/RealVisXL_V5.0_Lightning_fp16.safetensors

          SDXL Motion Module

          今回は、SDXLのモーションモジュールとして、「Hotshot-XL」を使用します。Hotshot-XLは、コンテクスト長が8フレームしかありませんが、AnimateDiff-SDXLより品質が良いためです。以下のモデルをダウンロードし、「ComfyUI/custom_nodes/ComfyUI-AnimateDiff-Evolved/models」フォルダに格納してください。

          https://huggingface.co/hotshotco/Hotshot-XL/blob/main/hsxl_temporal_layers.f16.safetensors

          ControlNet Union SDXL

          video-to-video (v2v)にControlNetを使用します。以下のControlNetをダウンロードし、「ComfyUI/models/controlnet」フォルダに格納してください。

          https://huggingface.co/xinsir/controlnet-union-sdxl-1.0/blob/main/diffusion_pytorch_model_promax.safetensors

          4. 素材

          v2vで使用する参照元動画を用意します。以下の動画を利用し、DWPoseとDepthで動きを抽出し、ControlNetでこの動きを再現します。

          画像

          以下のリンクより無料でダウンロードできます。

          https://www.pexels.com/ja-jp/video/2795746

          5. ワークフローの解説

          このワークフローは、AnimateDiffを使用して動画を生成する高度な例です。入力動画を基に、AIモデルを使用してスタイライズされたアニメーション動画を作成します。

          画像

          この記事の続きはこちらから https://note.com/aicu/n/n54988052abb7

          Originally published at https://note.com on Nov 28, 2024.

        1. 激戦!名作揃いの「第3回 AI アートグランプリ最終審査会」(前編)

          「AI をもっと身近に」をコンセプトとして始まった AI フェスティバル。その第2回となる AI フェスティバルが11月9日(土)にベルサール秋葉原で開催されました。今回、その中で行われた「第3回 AI アートグランプリ」の最終審査会の様子をAICU編集部のhikonyanが前後編でお伝えします。 

          今回の審査員の紹介

          審査委員長を務めたのは、メディアアーティストで東京大学名誉教授である河口洋一郎先生。

          画像

          イラストレーターである安倍吉俊さん。

          画像

          名探偵コナンなどのアニメの企画プロデューサーである諏訪道彦さん。

          画像

          この日は欠席でしたが、映画監督の樋口真嗣さん、弁護士の柿沼太一さんの計5名による審査が行われました。

          画像

          AIアートグランプリの概要

          近年にわかに注目を集めている作画 AI や作曲 AI など、人間の芸術的想像力を高める AI の進歩を受け、来るべき時代に人間と AI が共生し、人間がより自らの能力を拡張するため、2023年3月にスタート。第3回となる今回は、新たに AI アート グランプリ絵画部門も追加されました。総合部門43作品、絵画部門96作品が集まりました。10月初旬に Web サイト上で一次先行審査者が発表され、今回は審査員の皆様による最終審査会と表彰式が執り行われました。

          画像

          グランプリの審査基準は次のようになっています。

          ●        人間らしい表現のための手段として AI を正しく活用していること。

          ●        独創性のある表現が行われていること。

          ●        他者の権利を直接的に侵害していないもの。

          ●        日本国内法を遵守していること。

          画像

          気になる賞品ですが、絵画部門ではグランプリに輝いた方には賞金5万円と副賞として GALLERIA R-Series ノートブックモデルが送られます。GALLERIA 賞に輝いた方には AI フェスティバル2025 Powered by GALLERIA のメインビジュアルとして作品が使用されます!

          画像

          総合部門では、グランプリに輝いた方には賞金15万円と、副賞としてGALLERIA U-Seriesデスクトップモデルが授与されます!

          画像

          審査委員長による挨拶

          審査委員長の河口洋一郎先生からの挨拶では、次のようなお話がありました。

          <以下、河口洋一郎先生のご挨拶より>

          画像

           「激動の AI 時代に入ってきていて、その中で僕たちが AI に対してどのくらいの関わりを持って良いものを、コンテンツを作れるかっていうのは結構重要なことです。今日のこのグランプリ審査の出来具合を見ながら、未来に向けてエネルギーを得たいなと思います」

          「皆さんご存知なように、 AI って賢くて出力されるものは似てるんですよね。だけど、アルゴリズムがわからないところを端折って動かすと破綻する場合もあるんです。文章のほうもそうだと思うんですけど、いわゆる映像だけなくて音楽のほうも含めて、対談とかしていると今はAIが完璧に理解してそれを出してくれるのは難しいかもしれないけど、近い将来、ひょっとしたらそれに追いついてくれることを何か感じています。だから、今のAIをまだまだといっても半年後、1年後、2年後はわからないですね。乗り越えられるかもしれない。これを肝に銘じてコンテンツを作っていくほうが良いかなと思います。 

          それと世界中で新しい AI 時代のコンテンツがどんどん出てきているので、僕らも高めるために各自の専門分野からどんどんそれを利用して自分を高める。僕らは眠っている才能の50、60%しか使ってないかもしれないです。眠っている40%を AI で高めるとか、その方向で考えていったほうがこれからの突破口かなって思うんです。だから、AI のこれからのある特異点を突破口に新たな未知なる世界を探していくことを期待して、新たな流れを作っていってほしいなと思います。

          今日の AI グランプリは基本的にデジタルワールド、デジタル空間の出来事ですけど、僕たち審査員はみんな生きています。リアルワールドが面白くないとデジタルワールドも面白くないです」

          画像

          「これは10mくらいの彫刻です。エアプレッシャー、空気圧で動いているんです。要するに AI でこういうリアルとどうコラボするか、リアルワールドとデジタルワールドをつないでいくという日本独特のデリケートな世界をどう高めていくかっていうのが重要かな」

          画像

          「これは2mくらいのカニをリアルに作ったんですね。これは AI で何回もやり取りして動かすんです。こういうメカニックな動きを」

          画像

          「これは逆にさらに AI を使って宇宙カニを進化させていく、そのときの挙動、ロコモーションとかですね。そういうのを含めてどんどん専門的にさせていく、そんなことを考えています。

          今日言いたかったのはせっかく AI グランプリを始めたので、ぶっ飛んだような新しい世界がこのグランプリで生まれてほしいと期待しています。皆さん各自が大衆の波に流されるんじゃなくて我が道をゆく、自分を鍛える AI としてやってもらったほうがより良いかなと思います」

           

          河口洋一郎先生の熱いメッセージによって、今回のコンテストへの期待、ワクワク感がますます高まってきました。

           

          最終審査会 – プレゼンテーション

          審査委員長による挨拶の後は、総合部門の最終審査に残った10名による最終プレゼンテーションが行われました。プレゼンテーションのルールは以下のとおりです。

          画像

          プレゼンテーションの様子は後日別途記事にまとめますので楽しみにしていてください!

          画像

          絵画部門の表彰

          プレゼンテーション終了後、事前に最終審査が終了していた絵画部門のGALLERIA賞とグランプリの表彰式が執り行われました。

          画像

          絵画部門 GALLERIA 賞

          絵画部門のGALLERIA賞に輝いたのは、はんなり女史さんの「希望の夜明け」。タイトルのとおり、明るい未来に向けて手を伸ばしていて、希望を感じさせる一枚ですね。AIで生成された絵とはパッと見では信じられない、油絵のようなタッチがとても印象的です。

          画像

          この「希望の夜明け」について、GALLERIA 賞のプレゼンターである株式会社サードウェーブ取締役社長・最高執行責任者の井田晶也さんから講評がありました。

          画像

           <株式会社サードウェーブ・井田晶也さんの講評>

           (はんなり女史さんの作品について)「活きる」というテーマの中で、デジタルワールドとリアリティのワールドっていうところの融合と、子どもが光に向かって手を広げてそこに植物や動物や昆虫がいるという姿が「活きる」というテーマと「生命力」、live のほうの「生きる」のほうとの両方の意味合いで非常に深く刺さりました。

           はんなり女史さんは今回の受賞を受けて次のようにコメントしました。

          画像

          はんなり女史と申します。本日は GALLERIA 賞を頂き、喜びで胸がいっぱいです。「希望の夜明け」はどんなときも皆様が希望を持ち続けられますように、願いを込めて生成しました。今回受賞した GALLERIA 賞を糧に、私はこれからも皆様の心に響く AI 画像生成に励んでまいります。本日は本当にありがとうございました」

           

          絵画部門 グランプリ

          絵画部門のグランプリに輝いたのは、owl_digitalartさんの「不易流行」。葛飾北斎を思わせる迫力ある大波、そこから生まれる鳥やチョウチョ。とても力強い生命力を感じる作品です。GALLERIA 賞を受賞した作品と同様、まるで人の手で描いたような油絵のタッチで、平面なはずなのに手触りの質感が感じられます。

          画像

          この「不易流行」について、副賞のGALLERIA を提供する井田さんからコメントがありました。

          画像

          <株式会社サードウェーブ・井田晶也さんの講評>

          (owl_digitalartさんの「不易流行」について)油絵かと思うような非常に迫力があって、この赤色の発色の仕方、その赤がまた波としてはじけたところから鳥になったりとかチョウチョになったりしているというところがすごく印象的。この AI の中でも熱い、ふつふつとしたものがここから湧き出ているっていうような情熱をすごく感じた、印象に残る作品でした。

          画像

          そして、審査委員長の河口洋一郎先生からの講評も行われました。

          <審査委員長の河口洋一郎先生からの講評>

          絵画部門は今回から始まった部門ですけども、やっぱりオープニングで言ったように、「AI という技術を乗り越えて、その先に行きたい」っていうのが最初から願いなので、副作用を乗り越えて欲しいなと。井田社長もおっしゃったように、非常に本物のようなテクスチャーをやっているのも愛した理由の一つです。フラットな平面なんですけども、あれを逆にもうたっぷり重量感あるような感じで、AI 的なものを乗り越えて未来の希望がいっぱい見えてくる、前向きなところは非常にポジティブでいいなと思いました。今後は国際的にこの AI グランプリを世界にドンと出すときに、やっぱりこういう作品は象徴的な役割があるなということで、審査員の中で好評を得ました。おめでとうございます。

          画像

          owl_digitalartさんは今回の受賞を受けて次のようにコメントしました。

          「今回のイラストを作るにあたって考えたことは、海外のサービスを使いながら日本らしさをいかに表現するか。そして、過去・現在・未来、これを全てレイヤードすることで過去の葛飾北斎の描いた波、作っている現在、そして AI を用いて作り出すことの未来。そういったいろんな思いを一枚に込めました。過去と現在と未来、全てにおいて人間は水とともに生きてきました。水がないと人間は生きてはいけません。命を得る。すごく重要な要素です。しかしながら、悲しい現実ですが、昨今水によって命を落とす方々も大変多くいらっしゃいます。その水とどう向き合っていくか。AI とどう向き合っていくか。そういった一枚に仕上げております。そして、これも常々考えていることですが、我々は AI を使うときに言葉を用いています。こんなに言葉の意味合い、使い方、文章、さまざまな文法体系が見直される時代になったということは、ある意味で原点回帰かもしれません。非常に面白い時代になったと思います。よって、未来に向かいながら過去を振り返る。これも人間の非常に重要なファクターだと考えております。そういったいろんな思いを込めて作りました1枚が、このような賞を頂くことができまして、大変嬉しい思いでいっぱいです」

           

          総合部門の表彰

          最終審査会の終了後、いよいよ総合部門の発表です。どの作品がグランプリに選ばれたのかドキドキですね。

          総合部門 佳作

          佳作には以下の5作品が選ばれました。

          異邦人」志村翔太さん

          https://eizo100.jp/video/77353

          画像

          付喪神ジェネレータ」異業種データサイエンス研究会 (関東)さん

          画像

          MOMO TARO」北澤和巳さん

          画像

          Qveria – 空想世界事典」koguさん

          https://qveria.allai.art

          画像

          「Chronovital Resonance」米城 陽さん

          画像

          総合部門 優秀賞

          総合部門優秀賞には以下の3作品が選ばれました。

          ゼロイチ、「ニ」」野火城さん

          https://note.com/nobisiro_2023/n/nb64258d32855

          画像

          AIとkawaiiの融合」Starm.productsさん

          画像

          「墨」Samさん

          画像

           

          総合部門 審査員特別賞

          総合部門の審査員特別賞に輝いたのは、Masaさんの「100 TIMES AI HEROES」でした!

          https://note.com/msfmnkns/n/naa7eaadc5054

          画像

          生成 AI を活かしてキャラクターのナラティブ(願望、能力、役割)、ビジュアルを創出するもので、新しいキャラクターのアイデアを100倍に拡張することを目指した作品です。これがあればさまざまな物語も作れてしまいそうです。AI が持つ可能性を最大限に活かした作品に感じられますね。

          画像

          審査委員長の河口洋一郎先生は次のようにコメントしました。

          <審査委員長の河口洋一郎先生からの講評>

          今年はもうほんと激戦区で、審査員の皆さんで方向性も違うし、みんな非常に個性的で、この最後のノミネーションに入った作品を選ぶのは大変でした。苦渋の選択という感じはします。来年以降更に発展するために、発展の伸びしろを含めてですね、審査員一同で無事に選ばれました。おめでとうございます。

          画像

          Masaさんは今回の受賞を受けて次のようにコメントしました。

          「光栄でございます。AI で何でもできるようになると思うんですけども、何でもやりたいのは AI ではなく、やりたいのは私たちだと思います。私はもう作りたくてたまらないので、AI を使っているということだと思いますし、皆さんも別にアートじゃなくても表現したいことってあると思うんです。それはアートである必要は全然なくて、例えば毎日自分が食べるご飯とかを気持ちの良いものにしたいですよね。見た目で自分が食べたいと思うものにしたいと思います。仕事の企画書だって人が読んで気持ち良いものにしたいと思うんです。そういうのが、皆さんの中の表現したいという気持ちだと思うので、皆さんの中にも表現したいという気持ちはきっとあると思うんです。それを見つめていただいて、その小さな炎かもしれないですけど、それを AI で燃え上がらせてもらって、今回は総合部門も40数名、それから絵画部門は90名だったと思うんですけど、来年は10倍ぐらいになってほしいです。参加者が増えて審査員が大変だと思うんですけど。もっとみんなが表現できる世界になったらいいなと思いますので、ぜひ皆さんも取り組んでみてください。今度は皆さんが主役になってほしいと思います。よろしくお願いします」

           

          総合部門 グランプリ

          総合部門のグランプリに輝いたのは、elimさんの「象牙のナイフ」でした!

          画像

          実写か CG か AI か見分けのつかない、そして AI 特有のバグをバグとして見せない映像作品を実現したミュージックビデオです。プレゼンテーションの最後には、MVの世界をさらに表現するラップを披露しました。この作品の一部分を見ただけでも凄まじいクオリティで、何で作られた作品なのかが気になって、より作品に引き込まれます。これぞグランプリにふさわしい作品ですね。

          画像

          副賞の GALLERIA を提供した井田さんからの講評も行われました。

          <株式会社サードウェーブ・井田晶也さんの講評>

          絵画部門と同じように、このリアリティとデジタリティというのがすごくうまく融合していて、とても不思議な感覚がありました。あと、音楽と映像のリンクがすごくされていて、すごく入っていきやすい作品だったなと。プレゼンテーションでのラップもすごく良かったです。僕は審査には入ってないんですけれども、すごく印象に残った作品でした。

          画像

          elimさんは今回の受賞を受けて次のようにコメントしました。

          「選んでいただいてありがとうございます。AI と作業してると実写の良さがわかってきて。実写を撮りに行ったときにお金と時間はかかるんですけど、風の匂いだったり、空気だったり、そういう実写の良さがわかるという体験もしました。なので、これからは実写の良いところ、CG の良いところ、そして AI の良いところを全部取って作品を作っていこうと思っています」

           

          最後に審査員3名から総評が行われました。

          <審査員の安倍吉俊さんからの総評>

          画像

          1回目からずっと審査をしてきて、今年は AI 固有の違和感みたいなものがあまり感じられない作品が増えました。今回優勝された作品もそうだと思います。今までずっとこういう表現をしたいんだけど、AI がプロンプトを打ってもこういう風にしか出力してくれないからこうなってしまった部分とか、あるいは AI はこういう風にしか出してくれないのでその表現を前提に人間のほうが妥協するというか、AI のほうにちょっとすり寄る形で表現するものがどうしてもあったと思うんですよ。だからこそ、突飛なものが出たりもしたんだけど。

          今年は非常に全体的に作品の粒が揃ってきて、今言ったみたいに違和感がないというか、人間が作ったように見える作品が僕の中では非常に印象に残りました。僕みたいに手を使ってまだ描いている人間にとっては非常に恐ろしいと同時に、非常に未来を感じるし、自分もそういうものを何かうまく取り入れられたらいいなと思いました。

           

          <審査員の諏訪道彦さんからの総評>

          参加された皆さん、本当にお疲れ様でした。私も第1回から審査員をやっておりまして、AI という言葉もやっぱり世の中でひとり歩きしてるようなムードはいっぱいあると思います。我々アニメーションの世界でもそうで、AI は 私たちには今のところ新しい大きな武器の筆みたいな感じです。アニメでは背景とかいろんなキャラクターも含めて出ているんですけども、今回の作品の絵は AI というものの過渡期に違いないと思う確信が一つありました。

          画像

          それは AI の中にもジャンルがあるということです。当然そのジャンルは漫画やアニメ、世界観、生き物、クリーチャーみたいなものがあると思うんですけども、そのジャンルの中でどういう風にみんなを魅せて表現していくか。その表現されたものを我々見る人間はどう楽しめるのか。その辺のことをすごく問われた選択でした。非常に激戦な作品が並ぶ中で、今回はやっぱり説得力があった映像だなと思いました。

           

          こういうのを見て感動はもちろんですけども、驚くことと、そして心の中に染み込むこと。こういう風に映像が持つ力をきちっと待たせるということが、AI でもっていうのはちょっとおかしいんですけど、AI で表現できるようになってきたっていうのは明らかな進歩だと思いますし、これからもっと期待したいなと思います。それぞれのジャンルは絶対にあります。好きなジャンルを選ぶというよりも、やっていく。そういう時代になると思うんですけども、そこを目指して皆さんに頑張っていただきたいなと思っております。本当にお疲れ様でした。

           

          <審査委員長の河口洋一郎先生からの総評>

          オープニングでも言ったんですけど、このデジタルスペースをどんどん進化させるために AI っていうのは、その魅力的な世界を作らないといけないんですけど、やっぱり自分を高めながら AI を使っていってほしいなと。やっぱり AI と自分が高め合う、これに尽きるなって。軽く刹那的に使う AI じゃなくて、日常的に巡回していく、AI とそういう世界になっていくと本物になるかなという気がします。

          画像

          デジタルスペースにはやっぱりリアルスペースも重要なんですけど、リアル、つまり個人の世界が面白いとデジタルスペースも面白いんです。今回もそうだし、第1回もそうだったけど、デジタルスペースとリアルスペースが混在、巡回しているんですね。あれは非常に良いかなと思います。最後のリアルなスペースでのラップ、良かったです。やらないよりはやったほうが勝ちです。

          だから、来年以降、AI グランプリはデジタルスペースの中のことだけど、リアルがそれを支えているんだよという、血と肉のリアルな魅力的な世界に持っていきたいと思います。さらに来年からはジャンルの可能性も高めたいので、そちらのほうでまたどんどん進化していってほしいです。よろしくお願いします。今日はありがとうございました。おめでとうございます。

          まとめ

          第3回 AI アートグランプリの最終審査会の様子をお伝えしました。審査員のコメントにもありましたが、AI は過渡期にあり、実写、CG に続く新たな表現として確立しつつあるんだなと思わせる作品の数々でしたね。特に総合部門のグランプリ作品は圧巻でした。どこまでが AI でどこまでが実写やCGを使っているのかとても気になるので、いつか制作過程も見てみたいですね。

          今回は最終審査会の様子をお伝えしましたが、総合部門ファイナリスト全10名の最終プレゼンテーションの発表内容や質疑応答などの様子も後日記事を公開予定! 楽しみにお待ちください!

           AICU編集部 hikonyanさんへの声援もお待ちしております!


          編集部注・作品へのリンクはAICU編集部の手作業による調査によって付加しています。公開されている作品への適切なリンクが見つからなかった作品について、情報をお持ちの方は X@AICUai までご一報いただけますと幸いです。

          Originally published at https://note.com on Nov 27, 2024.

        2. AICU代表 しらいはかせ がAIアートバトル「AIBATO」にて優勝! 作品とAICU開発技術を公開解説 [期間限定メンバーシップ先行]

          AICU Inc./AICU Japan株式会社 代表 白井暁彦(aka しらいはかせ/AICU編集長/Dr.Hakase:以下「しらいはかせ編集長」)が、AI人工知能EXPO内で開催された「AIアートバトル」チャンピオンシップ決勝に4人のファイナリストとして選出。Stable Diffusion部門で初代優勝を勝ち取りました。

          AICU media編集部は、しらいはかせ編集長の個人クリエイターとしての活動は、(業務に支障がない限り)他の所属クリエイター同様、個人活動として平らに尊重して扱っております。改めておめでとうございます。

          画像
          https://x.com/o_ob/status/1859883395855384816

          本稿では開催概要にあわせて、決勝での作品について紹介し、AICUがこれまで開発に関わってきた技術とともに公開解説いたします。

          AIBATO (AIアートバトル) イベント概要

          https://prtimes.jp/main/html/rd/p/000000006.000147393.html

          主催: 株式会社LimerenceAI
          イベント名: AIBATO (アイバト) – 国内初*のオフラインAIアートバトル
          *注: 国内初の「オフラインAIアートバトル」として (2024年8月時点、株式会社LimerenceAI調べ)

          公式サイト: https://aiartbattle.jp/

          イベントの目的: クリエイターとAIの融合による新しい芸術表現の開拓、AIクリエイターの発掘・支援。

          ポイント:

          • 国内初のオフラインで開催されるAIアートバトル。
          • MidjourneyとStable Diffusion、それぞれでチャンピオンが決定。
          • 著名なクリエイターやAI業界関係者が審査員を務める。
          • 予選はポートフォリオ審査、決勝はリアルタイムのバトル形式。

          開催日時:
          2024年11月21日(木): チャンピオンシップ決勝 (Midjourney使用)
          2024年11月22日(金): チャンピオンシップ決勝 (Stable Diffusion使用)

          開催場所: 幕張メッセ NexTech Week 2024 (AI・人工知能 EXPO) 内 LimerenceAIブース

          審査員:

          • 木下健太郎 (THE FIRST TAKE 映像プロデューサー)
          • 佐藤カズー (TBWA HAKUHODO CCO)
          • 平久江勤 (TBWA HAKUHODO プロデューサー)
          • 元木大介 (KandaQuantum 代表取締役社長)
          • 本田崇人 (株式会社メロン 共同代表CTO)
          • マドカ・ジャスミン (タレント、KandaQuantum CMO)
          • Hakushi (ShiftAI AIクリエイティブ講師)

          大会MC: トンピ (eスポーツキャスター)

          画像
          https://x.com/AI_Marika1018/status/1859923877369168212

          競技形式

          • 予選 (作品選考): ポートフォリオによる審査。MidjourneyとStable Diffusionそれぞれ8名が決勝進出。
          • チャンピオンシップ決勝 (リアルイベント): 主催者からのお題に基づき、制限時間内に画像生成。シングルエリミネーション方式。

          使用ツール: Midjourney, Stable Diffusion


          しらいはかせ本人の個人ブログにて手記が公開されております

          準備編

          https://note.com/o_ob/n/n3ed4cc5266c1

          予習編

          https://note.com/o_ob/n/ndf85d8b24d46

          実況編

          https://note.com/o_ob/n/nf7a760746933


          [PR]使用された技術について

          使用された画像生成テクノロジーにつきましては大会レギュレーションに基づき、多くはAICUメディア編集部より発行されております以下の技術群によって構成されています。

          GPU不要で利用できるAUTOMATIC1111学習のための教科書
          「画像生成AI Stable Diffusionスタートガイド」(SBクリエイティブ刊)

          https://j.aicu.ai/SBXL

          Stability AI APIに関する日本語の情報発信(note無料マガジン)

          Stability AI Fan!|AICU media

          https://note.com/aicu/m/m6000f560d1db

          AICUマガジン Vol.5特集「Stability AI Forever!」

          https://j.aicu.ai/MagV5

          「CGWORLD vol.315」画像生成AIによる表紙メイキング、大公開。
          #デジタルハリウッド30周年 記念寄稿

          上記の原稿はAICU Magazine Vol.6特集「エンターテインメントxAI」に収録されております。 https://j.aicu.ai/MagV6

          Google ColabとGoogle Slidseを使った再現性の高い絵作り技術についてはこちらの記事「#10分で学べるAI」が関連あります。

          https://note.com/aicu/n/n4fcc8c200569

          AICUマガジン5月号「次世代まんが制作術!」に収録されております

          https://j.aicu.ai/Mag2405

          Coloso「生成AIクリエイティブ AICU」シリーズ

          Stability AI API、Google Slides、Google Colabを使った画作りについて短時間で実用的な技術を学ぶことができます。

          ■「超入門:Stable Diffusionではじめる画像生成AI」

          https://j.aicu.ai/coloso1

          ■「初級者:広告企画から動画制作までのプロセス」

          https://j.aicu.ai/coloso2

          ■「ComfyUIマスター:カスタムノードとアプリ開発」

          https://j.aicu.ai/coloso3

          詳細なテクニックにつきましては今後も、AICUマガジンにて特集を組んで紹介予定です。

          https://j.aicu.ai/mag

          「つくる人をつくる・わかるAIを伝える」
          AICU media https://note.com/aicu

          チャンピオンシップ決勝での作品

          しらいはかせのコメントや実際に使われたプロンプトとともに、期間限定メンバーシップ向け先行でお送りします。


          ウォーミングアップ編

          当日のMCが前日のMidJourney部門の報告を行うタイミングや、第1試合が実施されている傍らでリアルタイム生成した画像はこちらになります。

          画像
          正確な文字盤を持った目覚まし時計と、ベッドで横たわる青年
          “prompt”: “photorealistic, detailed, highly detailed, alarm clock with accurate dial, young man lying on bed, bedroom scene, realistic lighting and shadows”, “negativePrompt”: “blurred, blurry, out of focus, low quality, distorted, disfigured, deformed, mutilated, extra limbs, poorly drawn, bad anatomy, bad proportions, ugly, monstrous, mutation, mutant, extra body parts, extra heads, extra faces, extra arms, extra legs, extra hands, extra feet, extra fingers, extra toes, malformed hands, malformed feet, malformed legs, malformed arms, malformed digits, malformed limbs, malformed face, malformed body, malformed proportions, poorly rendered, poorly rendered face, poorly rendered hands, poorly rendered body, poorly rendered proportions, artifacts, errors, defects, low resolution, text, watermark, signature, username, logo, ui, hud, bad quality”
          画像
          “prompt”: “photorealistic, highly detailed, young girl, squinting, blinded by bright flash, dazzled, overwhelmed, dramatic lighting, dynamic pose, intense expression, detailed facial features, detailed eyes, detailed hair, intricate clothing”, “negativePrompt”: “blurred, blurry, out of focus, low quality, distorted, disfigured, deformed, mutilated, extra limbs, poorly drawn, bad anatomy, bad proportions, ugly, monstrous, mutation, mutant, extra body parts, extra heads, extra faces, extra arms, extra legs, extra hands, extra feet, extra fingers, extra toes, malformed hands, malformed feet, malformed legs, malformed arms, malformed digits, malformed limbs, malformed face, malformed body, malformed proportions, poorly rendered, poorly rendered face, poorly rendered hands, poorly rendered body, poorly rendered proportions, artifacts, errors, defects, low resolution, text, watermark, signature, username, logo, ui, hud, bad quality”
          画像
          “prompt”: “movie poster, intense, gripping, thrilling, action, suspense, drama, security, robust, impenetrable, fortress, stronghold, armored, shielded, protected, guarded, cinematic, photorealistic, highly detailed, dynamic composition, dramatic lighting, bold typography”, “negativePrompt”: “blurred, blurry, out of focus, low quality, distorted, disfigured, deformed, mutilated, extra limbs, poorly drawn, bad anatomy, bad proportions, ugly, monstrous, mutation, mutant, extra body parts, extra heads, extra faces, extra arms, extra legs, extra hands, extra feet, extra fingers, extra toes, malformed hands, malformed feet, malformed legs, malformed arms, malformed digits, malformed limbs, malformed face, malformed body, malformed proportions, poorly rendered, poorly rendered face, poorly rendered hands, poorly rendered body, poorly rendered proportions, artifacts, errors, defects, low resolution, text, watermark, signature, username, logo, ui, hud, bad quality”

          まず、これらの非常に長いプロンプトを英語で表現する上で、シードやモデルとともに一貫性を維持するため、プロンプトエンジンとしてAWSを利用した自社開発のシステムを運用しております。

          ベースになっているシステムはAWSが公開しているオープンソースでのGenUであり、AWS 生成 AI 実用化推進プログラムの協力もあり、実用レベルでの実証実験を行っております。

          例えば、AICUが実施を担当している、神奈川県「ともいきメタバース講習会プロジェクト」でも障害者むけワークショップでiPad等で利用されており、以下の書籍でも報告されております。

          ■メタバースとAIで「ともに生きる」を実装する本 ~ 神奈川県の障害福祉現場で開発してみた!(技術書典17:DHGS_CAIL デジハリ大学院「クリエイティブAIラボ」)

          https://techbookfest.org/product/2wMwe21GnNdPPpQeby4Dc9?productVariantID=pD8wVXcUzd5zcvXRwH122L

          ネット環境やPC、GPU環境が乏しい環境においても安定して日本語でStable Diffusion XLを用いた画像生成が行える環境になります。構築についてのご相談はAICU AIDX Labまでお問い合わせください。

          画像

          さらに続きます。
          上記のプロンプトエンジンは、あくまでベースモデルとなるStable Diffusion XL (SDXL)での生成となります。このプロンプトをベースに複数のモデルにおいて、適した画像を生成していく方針になります。またSDXLは2023年6月に公開されたモデルであり、ベースモデルとしてオープンに公開されており、また光の表現や構図構成力、解像度などはSD1.5系とは一線を画すレベルですが、指の表現や人物・人種の偏りには難があります。またメモリ消費が大きくローカルGPUでの複数モデル同時利用は現実的ではありません。そのため、近年公開されたSD3系のモデルを複数並列してAPIを経由して利用します。

          例えばGoogle ColabやGoogle Slides、Windowsのバッチファイルなど、ありとあらゆるインタフェースやツールを使い、並列して再現性高く評価していきます。また同様に、SD3だけでなく、SD3.5やFlux、またそのLoRAなども並列して評価を行っています。

          Shot1テーマ: ”息が止まる”

          画像
          “prompt”: “manga, comic panel, underwater scene, swimmer, holding breath, intense gaze, blue water, bubbles, athletic body, dynamic pose, comic shading, manga line art”, “negativePrompt”: “blurry, low quality, watermarks, text, logos, inappropriate content, explicit nudity, gore, violence”,

          例えばこちらは、Google Slidesでのテストです。

          画像

          Google Driveに生成された中間生成群です。

          画像

          もともと「AIバリエーション広告」(AICU用語で制御高く広告のバリエーションを生成するテクニック、またAIでスタイルを制御しながらA/Bテストなどを準備して入稿するところまでを指すこともあります)のためにStability AIさんの協力でAICUが開発したものです。

          実際にお手元のGoogle Slidesでお使いいただけるリンクも紹介します。

          第2テーマは「最新AIツールの広告」

          作品「AI代供養に出資しませんか?」、こちらは上記の手法で、Google Slides上でできています。「実況編」にあるとおり、主催の平田茉莉花さんの「AI仏壇」をテーマにキャッチコピーとビジュアルコンセプトを考えたものですが、Google Slidesなので文字のタイプセットやフォント、装飾などもスタイリッシュにテンプレートを作り込むことができます。

          画像
          “prompt”: “futuristic buddhist altar, money printing, stacks of cash, blonde short-haired businesswoman, black suit, tight skirt, boots, slick advertising, unethical business practices, ai technology”, “negativePrompt”: “blurry, low quality, watermarks, text, logos, offensive content, illegal activities, extreme views, hate symbols, religious insensitivity, sexualized imagery, inappropriate elements”,
          画像
          Style used: digital-art Prompt=futuristic buddhist altar, money printing, stacks of cash, blonde short-haired businesswoman, black suit, tight skirt, boots, slick advertising, unethical business practices, ai technology NP=NSFW, worst quality, ugry, blurry, low quality, watermarks, text, logos, offensive content, illegal activities, extreme views, hate symbols, religious insensitivity, sexualized imagery, inappropriate elements

          処理としても、プロンプトを設定してから数十枚の画像の結果を見るまで、他の処理系や評価に集中できるので、確実に短い時間で、確実に品質の高いアウトプットを、確実に制御性高く出力することができます。

          画像

          このGoogle Slidesを使ったツール内部はGoogle Apps Scriptで書かれており、一番最初のスライド上の各テキストオブジェクトにプロンプトやパラメータを設定するという風変わりなツールになっています。
          これは画像生成AI時代の「ガトリング砲」のような手法であり、プロフェッショナルな画像生成案件において培われたノウハウでもあります。

          決勝Shot1お題は「ニルヴァーナ」

          作品「魑魅魍魎曼陀羅」です。同様の手法で作られていますが、仕上げの段階が異なってきます。

          画像
          画像
          画像
          画像
          画像
          画像
          画像

          AICU-Stability-AdGenerator を使った絵作りの利点として、スライド上での評価が高速に行える点があります。写真を比較して差分を確認して、より良い広告を作るためのノウハウは先に述べたとおりですが、表情やスタイルの違いを横断的に評価できます。またレイアウトも自由に検討できます。
          さらにバッチ処理の待ち時間に並行してGoogle Colabを使ったスタイル学習を試しています。

          [AIBATO]AICU_Coloso1_Original_Tool.ipynb という Coloso第一弾の購入者向けに開発したツールであり、プロンプトを分割して Stable Image Ultraで生成したり、シードを横断的に指定したり、スタイルを学習させることができます。

          画像
          画像

          例えばこの絵は「ニルヴァーナ感は高いですが、平田茉莉花さんのキャラクターとしては神々しさよりももっと邪悪な狡猾さをきちんと組み込んでいきたいな」といった判断があります。大会レギュレーションに沿うと縦長画像を生成する必要がある一方で、ディスプレイとしては横長であり、PCモニタとディスプレイの色味も異なるので、生成しつつもどちらで勝負するかは考えながら審査表示用の画像やツイートなども準備しています。

          ツイートに関しては、勝負を馬鹿にしたり余裕を噛ましているのではなく、「余裕時間や区切りを作っている」というテクニックになります。「時間最後までギリギリにやるぞ」と考えていると、画像生成にかかる時間を逆算できなくなりますので、「最後はツイートまでするぞ」と保存やツイートにかかる時間を逆算しつつ、タイムスタンプとしての時系列を記録しています。また後ほどこの原稿のようにタイムラインを振り返るためにも必要な行為です。こうして、制御性の高いプロフェッショナルの絵作りノウハウが積み重ねられていく、以上が解説になります。

          最終テーマは「背水の陣」

          以上が基本テクニックです。エンターテインメントとしての生成AIアートバトルを意識して、これまで作ったプロンプトを合体させつつ斬新なコンセプトやウィットの利いたジョークをキャッチコピーと画像のコンセプトに忍ばせつつ、品質の高い制御された絵作りをツイート込みで続けていきます。

          最終テーマは「背水の陣」ですが、ここでゼロからの絵作りを勝負するのは良い戦法ではありません。審査員も観客も、すべての手の内を見ておりますので、目も肥えてきます。隠し武器はたくさん持っているのですが、文字通り「背水の陣」であれば、いままで使ってきたテクニックだけでより完成度の高い統合や、世界観、広告としてのエンゲージメントを勝ち取らねばなりません。

          特に世界観を支える背景や、キャラクターデザイン、それを支えるモデルやシードは運ではなく、開発して錬成して制御していく要素なので、短い時間で緊張感のある現場ですが、丁寧にログが残る形でGoogle Colabノートブックで生成しています。

          画像
          画像

          リクエストはREST APIによって行われ、繰り返し構文「For」を使ってシードやフィデリティパラメータを調整していきます。ファイル名にプロンプトやパラメータが残るようになっています。

          画像
          画像
          画像
          画像

          一見余裕を噛ましているように見えますが、こういうときは「この系は一旦終わりにしよう」という意味でもあります。
          息を吐くようにツイートし、写真や漫画やイラストレーションなどで経験があるしらいはかせならではの行動かもしれませんが、絵師さんがツイートするときも同じような気持ちの切り替え行動をしていると想像します。

          なお、表情の探求についてはプロンプトとスタイル制御で行います。このあたりは細かいところはColoso動画で紹介しています。

          画像

          これは「半目閉じ」を指定しつつ、背景に魑魅魍魎が足りなかった、また曼荼羅としての方位を示す要素が甘かった、などで没になった画像です。このような画像の評価もGoogle Colabは便利ではなく、Google DriveやSlidesを使うように連携しています。

          画像
          画像

          最後の方は秒単位まで集中していますので、コピーライティングとしての文字や漢字のトンマナ調整、レイアウトなども整理させていただくとこんな感じになると思います。これもGoogle Slidesでの作業です。

          画像

          以上が主なツールや技術の紹介になります。
          Coloso第一弾企画の復習ですね! 
          本当に良い講座なので、幅広い人にみてもらいたい。

          https://j.aicu.ai/coloso1


          作品の文字なしクリア素材や中間生成物、ツールなどについては有料パートに置かせていただきます。

          ここから先はAICUマガジンの特集の方で公開していく予定ですが、ご質問等はコメントいただけましたら、解説を拡充していきたいと思います。

          以上ご報告でした。
          今後ともAICU mediaをよろしくお願いいたします。

          寄稿・生成AIクリエイター しらいはかせ (@o_ob)


          この記事の続きはこちらから https://note.com/aicu/n/n26c3001b2b13

          Originally published at https://note.com on Nov 26, 2024.