タグ: SIGGRAPH ASIA2024

  • 国際Creative AIビジネスコンソーシアム – 開発者交流フォーラム開催レポート!

    SIGGRAPH ASIA 2024が終わった翌日、2024年12月7日(土)、東京科学大学 INDESTにて、[CAiBC-DEF]国際Creative AIビジネスコンソーシアム – 開発者交流フォーラムが開催されました。

    会場となった東京科学大学INDESTは東京工業大学田町キャンパスとして歴史ある場所であり、隣は付属高校があります。

    画像

    会場から付属高校の運動場が見えます

    画像

    ピッチ会場の様子

    画像

    午前はモーニングコーヒータイム
    機材の準備と交流会

    機材やデモのセットアップをしながら、名刺交換、アニメーションやVTuber、AIキャラクター、動画生成についての交流が始まりました。

    画像
    画像
    画像

    NOKOVによるハイブリッドモーションキャプチャー

    マーカーレスモーションキャプチャの設営が始まりました。

    画像

    カメラは片側4台構成で、「2Dアニメーション向けのレイアウト出し」を意識したセットアップになっています。写真奥のUnreal Engine上で確認できますが、これでも3D座標が撮れています。

    画像

    意外とシンプルなPoEハブによる給電です。

    画像

    Manusというハンドキャプチャーも装備しています。

    画像

    ワンドは小道具です。こちらにのみマーカーを使っています。

    画像

    ここまで30分ぐらいでセットアップされています。
    キャリブレーションはマーカーを使って行います。

    画像

    1台の1脚に赤外線カメラPlutoとRGBカメラがセットになっています。

    画像

    マーカーレスの人物とワンドがきちんと融合しています。指もしっかり。

    画像

    VTuber力を発揮するPONOTECH早野さん

    画像

    デモ動画はこちら

    ランチタイム!

    スポンサー協賛のPONOTECH、MagoよりBENTO BOXの提供がありました。
    ありがとうございます!

    画像
    画像
    画像

    ピッチ大会

    NOKOV

    NOKOV Leiさんと、日本代理店ディテクト小嶋さん

    画像

    https://www.nokov.jp/about.html

    今回のセットアップは
    ・4台のRGBカメラ+4台の赤外線カメラ(Pluto)
    ・マーカーレス
    ・2Dアニメーション向けのポーズ収録
    以上を機材設営30分、キャリブレーション
    ・MotionBuilder + UnrealEngine = RealTime + Rec

    もちろん3D高精細マーカーでの構成も可能とのことで、
    詳細は日本代理店の株式会社ディテクトにお問い合わせくださいとのこと。
    AICUでも積極的に開発に使っていきたい!

    3Dマーカーによるデモの様子なども紹介されました

    画像

    BlendAI 小宮さん

    画像

    “AI-powered creation with human soul.” というスローガンとともに、 デルタもん、ガンマミィ、小説「堕天使に祝福を」 852話さん(@8co28)による美麗なイラストなども紹介がありました。

    画像
    画像

    新キャラクターについての話題も!

    画像

    Ponotech 早野さん

    ChatGPTのadvanced voice modeを使ったハイブリッドプレゼンです。
    裏で動いているのは4oではないかとのこと。$20のプランでも使えますが、$200のプランにすると、その上限がなくなるようで、さっそくのデモでした。

    画像
    画像
    画像
    画像
    画像
    画像
    画像
    画像
    画像

    Mago アンドレ ダ・コスタさん

    アーティスト、VFXデザイナー、3Dアーティスト、でもあるフランスの動画生成ツール「Mago」のクリエーター André Da Costaさん
    めちゃ流暢な多言語プレゼンが見事でした。

    画像

    あくまでクリエイター視点なのが興味深いです。

    画像
    画像
    画像

    スタイル適用と高い一貫性。

    画像
    画像

    Webによるユーザーインタフェース

    画像
    画像
    画像

    様々な機能
    AI native user flow:短いレンジで反復的に最低な設定を見つける
    Comparison features:結果を左右で比較 
    Masking:シーンの部分を隠したり分離したりする
    Keyframing:キーフレームによって違う設定にする

    画像

    ロードマップとしてはα版リリースが今月、来年初頭にベータリリースとのことです。Mago.Studioではウェイトリストがありますので興味のある方は登録してみては! https://www.mago.studio/

    Manmaru AI よしかいさん

    AI Radio Makerなどを開発する株式会社ManmaruAI 代表のよしかいさん。
    AIで織りなす息づくキャラクターAIキャラクター開発の専門家として、企画から運用まで、AIキャラクター活用を包括的に支援していらっしゃいます。

    画像

    AITuberまめひなた(非公式)」についての技術紹介です。

    画像

    歩いて、お散歩実況をしてくれています!

    画像

    3D空間での生撮影画像を LLM に直接送ってYAMLを生成するのではなく、まずLLMにシーンのテキスト記述を生成させて、そのテキストをLLMに戻して YAML命令を生成しているそうです。この2段階のプロセスにより、精度とエラーが改善されるとのこと。
    視覚による自己認識により、モデルが自分自身をよりよく認識できるようになりますが、精度はまだ 100% ではないといった技術的な課題が共有されました。

    国際的なクリエイティブAIに関わる未来を感じるセッション

    その後も

    ・アニメ制作会社 の幹部の方

    これまでの絵作りと、新しい技術を使っていくうえでの課題感の共有

    ・AICU 代表 白井より

    こちらに近いお話とセッションのまとめがありました。

    https://note.com/o_ob/n/n2b00406ec07e

    その後もディープなディスカッションが続くCABC-DEFでした!

    画像

    次回のCABC-DEFはまだ予定されてはいませんが、来週は同じ会場「INDEST」にて国内向けにBlendAIさんと共同で忘年会が予定されています。まだ申込み受付中です!皆様の積極的なご登録をお待ちしております。

    前半がAICU Japanで、SIGGRAPH ASIA 2024振り返り&AIアートバトル感想戦

    https://techplay.jp/event/966307

    後半がBlendAI主催の交流会になります

    https://techplay.jp/event/962444

    それぞれお申し込みください!

    Originally published at https://note.com on Dec 8, 2024.

  • Houdini使いが気になる研究7選!植物の種子を飛ばしたり粉と水を混ぜたり!

    AICU media ライターのやまぐちです!現在開催されているSIGGRAPH Asia 2024の中で気になった研究7選をお届けします。
    Technical Papers Programの各セッションの開催情報についてはこちら

    InstantDrag: Improving Interactivity in Drag-based Image Editing (InstantDrag:ドラッグ操作で画像編集のインタラクティブ性を向上)

    発表セッション: It’s All About Change: Image Editing (変えることのすべて:画像編集)

    https://asia.siggraph.org/2024/?post_type=page&p=32163&sess=sess116

    ドラッグベースの画像編集は、そのインタラクティブ性と精度から最近人気を集めています。しかし、テキストから画像へのモデルは 1 秒以内にサンプルを生成できるにもかかわらず、画像コンテンツを維持しながらユーザー操作を正確に反映するという課題のため、ドラッグ編集はまだ遅れをとっています。既存のアプローチの中には、計算集約的な画像ごとの最適化や複雑なガイダンスベースの方法に依存しているものがあり、移動可能な領域のマスクやテキスト プロンプトなどの追加入力が必要となり、編集プロセスのインタラクティブ性が損なわれます。そこで、最適化不要のパイプラインでインタラクティブ性と速度を向上させ、入力として画像とドラッグ命令のみを必要とする InstantDrag を紹介します。InstantDrag は、ドラッグ条件付きオプティカル フロー ジェネレーター (FlowGen) とオプティカル フロー条件付き拡散モデル (FlowDiffusion) という 2 つの慎重に設計されたネットワークで構成されています。InstantDrag は、タスクをモーション生成とモーション条件付き画像生成に分解することで、実際のビデオ データセットでのドラッグベースの画像編集のモーション ダイナミクスを学習します。顔のビデオ データセットと一般的なシーンでの実験を通じて、マスクやテキスト プロンプトなしで高速でフォトリアリスティックな編集を実行できる InstantDrag の機能を実証しました。これらの結果は、ドラッグ ベースの画像編集を処理する当社のアプローチの効率性を強調しており、インタラクティブなリアルタイム アプリケーションにとって有望なソリューションとなっています。

    https://asia.siggraph.org/2024/presentation/?id=papers_884&sess=sess116 より翻訳

    画像

    こちらはTPFFでのパフォーマンスが面白かったのでピックアップしました。紹介動画が作り込まれており、とても印象的でした。30秒程度の発表で来場者の記憶に刻み込むのは簡単ではありませんが、成功すると注目度が一気に上がりますね。

    デモのためのソースコードなども開発者によって公開されています
    https://joonghyuk.com/instantdrag-web/

    Computational Biomimetics of Winged Seeds (翼を持つ種子(翼果)の計算生物模倣学)

    https://asia.siggraph.org/2024/presentation/?id=papers_275&sess=sess109

    発表セッション: Geometry and Fabrication (ジオメトリと組み立て)
    https://asia.siggraph.org/2024/?post_type=page&p=32163&sess=sess109 

    本研究は、有翼種子のバイオミメティックデザインを容易にする計算パイプラインを開発する。我々のアプローチは、自然の有翼種子の3Dスキャンを活用し、3D差分同型群の測地線座標でそれらを補間することにより、生物にインスパイアされた設計空間を構築する。我々は、確率的な性能目標を持つ空力設計タスクを定式化し、設計空間を探索し、性能目標の期待値を効率的かつ効果的に最小化するために、勾配のないオプティマイザを適応させる。我々のパイプラインは、長距離散布や誘導飛行を含む空力タスクにおいて、自然界を凌駕する新しい有翼種子デザインを発見する。我々は、設計空間において選択された有翼種子のペーパーモデルを紹介し、シミュレーションと現実における類似した空気力学的挙動を報告することにより、我々のパイプラインの物理的忠実性を検証する。

    概要の翻訳

    画像

    翼を持つ種子がどのように飛ぶか、という研究。種子の飛び方を定式化しています。これにより、自然界を凌駕する新しい有翼種子デザインを発見できるそうです。たくさんの種子を実際に集めて3Dスキャンしているところに魅力を感じました。

    研究者の公開サイトはこちら

    https://leqiqin.github.io/publication/seeds2024

    https://dl.acm.org/doi/10.1145/3687899

    画像

    NeuSmoke: Efficient Smoke Reconstruction and View Synthesis with Neural Transportation Fields (ニュースモーク: ニューラル輸送場を用いた効率的な煙の再構成と視界合成) 

    画像

    発表セッション: Path Guiding, Scattering (パスガイド、散乱)

    https://asia.siggraph.org/2024/?post_type=page&p=32163&sess=sess110

    煙のシーンの新しいビュー合成は困難な問題である。これまでのニューラルアプローチは、不十分な品質と非効率な学習に悩まされてきた。本研究では、ニューラル輸送場を用いた動的煙再構成のための効率的なフレームワークであるNeuSmokeを紹介し、多視点映像からの高品質な密度再構成とノベルビュー合成を可能にする。我々のフレームワークは2つのステージから構成される。第一段階では、輸送方程式と神経輸送場を統合した新しい神経流体場表現を設計する。これには、再構成された煙の空間的・時間的整合性を高めるための、複数のタイムスタンプの適応的埋め込みが含まれる。第2段階では、煙の再構築を洗練させるために畳み込みニューラルネットワーク(CNN)を採用し、斬新な色情報と深度情報を組み合わせる。我々のモデルは、これまでの物理情報に基づいたアプローチよりも10倍以上高速な処理を実現する。広範な実験により、本手法は、実世界および合成データセットにおいて、ノベルビュー合成と体積密度推定において既存技術を凌駕することが実証された。 

    概要の翻訳

    https://dl.acm.org/doi/10.1145/3680528.3687667

    煙を合成するシミュレーション。上の画像からも、2色の煙がとてもきれいに混ざっていることが分かります。TPFFで流れていたデモ動画ではさらに分かりやすく、普段シミュレーションを扱う人間としてとても興味深かったです。

    Quark: Real-time, High-resolution, and General Neural View Synthesis (クォーク:リアルタイム、高解像度、汎用的なニューラル・ビュー合成)

    発表セッション: Look at it Differently: Novel View Synthesis (見方を変えよう: 新しいビューの合成)

    https://asia.siggraph.org/2024/?post_type=page&p=32163&sess=sess113

    高品質、高解像度、リアルタイムの新しいビュー合成を実行するための新しいニューラル アルゴリズムを紹介します。入力 RGB 画像またはビデオ ストリームのスパース セットから、ネットワークは 3D シーンを再構築し、NVIDIA A100 で 30fps で 1080p 解像度の新しいビューをレンダリングします。フィードフォワード ネットワークは、さまざまなデータセットとシーンに一般化され、リアルタイム メソッドとして最先端の品質を生み出します。品質は、いくつかのトップ オフライン メソッドの品質に近づき、場合によってはそれを上回ります。これらの結果を達成するために、いくつかの重要な概念を新しく組み合わせ、それらを結合してまとまりのある効果的なアルゴリズムにします。半透明のレイヤーを使用してシーンを表す以前の研究を基に、反復学習によるレンダリングとリファイン アプローチを使用してそれらのレイヤーを改善します。フラット レイヤーの代わりに、複雑な深度とオクルージョンのあるシーンを効率的に表現するレイヤー化された深度マップ (LDM) を再構築します。反復更新ステップは、マルチスケールの UNet スタイルのアーキテクチャに組み込まれており、解像度を下げて可能な限り多くの計算を実行します。各更新ステップでは、複数の入力ビューからの情報をより適切に集約するために、特殊な Transformer ベースのネットワーク コンポーネントを使用します。これにより、入力ごとの画像処理の大部分をレイヤー空間ではなく入力画像空間で実行できるようになり、効率がさらに向上します。最後に、再構成とレンダリングのリアルタイム性により、フレームごとに内部 3D ジオメトリを動的に作成および破棄し、ビューごとに LDM を生成します。これらを総合すると、ビュー合成のための斬新で効果的なアルゴリズムが生まれます。広範な評価を通じて、リアルタイム レートで最先端の品質を実現できることを実証しました。

    https://asia.siggraph.org/2024/presentation/?id=papers_683&sess=sess113 より翻訳

    Googleによる発表です。3D シーンを再構築し、NVIDIA A100 で 30fps で 1080p 解像度の新しいビューをレンダリングします
    https://quark-3d.github.io/

    ArXivに置かれた論文を解説しながら朗読してくれる動画を見つけました…!

    普通の動画からDepth Mapが生成でき、元の動画の解像度が粗くても高画質な動画に変換して新しいビューを作り出すことができるという研究です。NVIDIA A100といえば、AICUでもGoogle Colabでよく使うプロ向けGPU環境です。この研究にもNeural View Synthesis、Neural 3D、Neural Renderingといった手法が用いられており、今後、NeRFで有名になったNeural Fields (ニューラル場)の応用が一般化していくことが予想できます。

    End-to-End Hybrid Refractive-Diffractive Lens Design with Differentiable Ray-Wave Model (微分可能な光波モデルを用いた端から端までハイブリッド屈折・回折レンズ設計)

    https://asia.siggraph.org/2024/presentation/?id=papers_689&sess=sess223

    ハイブリッド屈折回折レンズは、屈折レンズの光効率と回折光学素子(DOE)の情報符号化能力を組み合わせたもので、次世代の撮像システムとして大きな可能性を秘めています。しかし、このようなハイブリッド設計を正確にシミュレートすることは一般的に困難であり、特に、十分な精度を持つハイブリッドレンズ用の微分可能な画像形成モデルは存在しません。
    本研究では、光学収差と回折位相変調の両方を正確にシミュレートするための新しいハイブリッド光線追跡および波動伝搬(光線波)モデルを提案します。DOEは、最後の屈折面と画像センサーの間、つまりDOEの位置としてよく使用されるフーリエ平面から離れた場所に配置されます。提案された光線波モデルは完全に微分可能であり、勾配逆伝播法を使用して、屈折回折レンズの最適化と画像再構成ネットワークのエンドツーエンドの共同設計を行うことができます。提案モデルの精度は、シミュレートされた点像分布関数 (PSF) を理論結果と比較することで検証し、また、シミュレーション実験では、Zemax などの市販ソフトウェア パッケージに実装されているソリューションよりも当社のモデルの方が正確であることを示しています。実際の実験を通じて提案モデルの有効性を実証し、収差補正と拡張被写界深度 (EDoF) イメージングの両方で大幅な改善が見られました。提案モデルは、計算イメージング、計算写真、高度な光学設計における幅広いアプリケーションへのさらなる調査のきっかけになると考えています。

    https://asia.siggraph.org/2024/session/?sess=sess223 より翻訳

    光学系設計に革命かも。サウジアラビアのキングアブドラ科学技術大学KAUSTの研究チームが、屈折と回折を組み合わせたハイブリッドレンズの設計を可能にするEnd-to-Endモデルを開発しています。このEnd-to-Endモデル「Ray-Wave Model」は、回折光学素子(DOE)の位置を最適化することで、収差補正と被写界深度拡張を同時に実現しており、スマホカメラやHMDにも応用可能。レンズのサイズがとても小さいのですが、それでもレンズとしてしっかりと機能するようで驚きました。どのような使い心地なのか非常に気になります。

    画像

    おまけ:KAUSTの研究者でDeepLensという研究をされている方もいらっしゃいます。Differentiable ray-tracing and wave-propagation model、という研究のようです。

    https://singer-yang.github.io

    https://github.com/singer-yang/DeepLens

    https://arxiv.org/abs/2406.00834

    MiNNIE: a Mixed Multigrid Method for Real-time Simulation of Nonlinear Near-Incompressible Elastics (MiNNIE:非線形近圧縮性弾性体のリアルタイムシミュレーションのための混合マルチグリッド法)

    https://asia.siggraph.org/2024/presentation/?id=papers_148&sess=sess141 

    画像

    発表セッション:Elastics / Solvers / Neural Physics (弾性/ソルバー/ニューラル物理学)
    https://asia.siggraph.org/2024/?post_type=page&p=32163&sess=sess141 

    本研究では、非線形近圧縮性弾性体のリアルタイムシミュレーションのための、シンプルかつ包括的なフレームワークであるMiNNIEを提案する。線形有限要素法(FEM)の高ポアソン比における一般的な体積ロックの問題を回避するために、MiNNIEを混合FEMフレームワーク上に構築し、さらにマルチグリッドソルバの優れた収束を保証する圧力安定化項を組み込む。私たちの圧力安定化戦略は、準ニュートン法を使用して除去することができる節点変位に有界の影響を注入します。MiNNIEは、修正されたスキニング空間補間スキーム、新しい頂点Vankaスムーザー、およびSchur補数を使用した効率的な密なソルバーを含む、特別に調整されたGPUマルチグリッドソルバーを備えています。MiNNIEは様々な弾性材料モデルをサポートし、リアルタイムでシミュレーションを行い、0.5までのあらゆるポアソン比をサポートすると同時に、大きな変形、要素の反転、自己衝突を処理します。

    キャラクターモデルをリアルタイムで変形させたりアニメーションさせたりするための新たな手法とのことです。キャラクターの動きがスライムのようになるのですが、リアルタイムのシミュレーションという点が興味深いです。

    A Unified MPM Framework supporting Phase-field Models and Elastic-viscoplastic Phase Transition (位相場モデルと弾性-粘塑性相転移をサポートする統合MPMフレームワーク)

    https://asia.siggraph.org/2024/presentation/?id=tog_109&sess=sess144 

    画像

    発表セッション: Fluid Simulation (流体シミュレーション)
    https://asia.siggraph.org/2024/presentation/?id=tog_109&sess=sess144 

    近年、流体、固体、およびそれらの微妙な結合に関する物理ベースのモデリングやシミュレーションのアルゴリズムや手法が、コンピュータアニメーションにおいて急速に普及しています。しかし、流体-固体の相転移に伴う複雑な弾性-粘塑性挙動をモデル化し、同じフレームワーク内でシームレスな相互作用を促進することは、依然として困難な問題である。本稿では、粒状流体、粘塑性液体、弾塑性固体、剛体、および相互作用をシミュレートし、溶解、融解、冷却、膨張、収縮など、現実的な相転移を伴う新しい現象をすべて重くサポートできる実用的な手法を提案する。物理学のレベルでは、粒状、弾性、塑性、粘性材料、液体、非ニュートン流体、およびそれらの滑らかな進化の挙動を記述することができる、統一された位相場駆動EVPモデルを確立するために、フォンミーゼスとドラッカー・プラーガーおよびカム・クレイ降伏モデルを組み合わせ、変形させることを提案する。数値計算レベルでは、Cahn-Hilliard方程式とAllen-Cahn方程式の離散化形式を物質点法によって導出し、界面における境界条件の明示的な取り扱いを避けることで、位相場の進化を効果的に追跡する。応用レベルでは、化学ポテンシャル、密度曲線など、ユーザー定義のスキームを用いて特殊な挙動を制御する新しい学問的戦略を設計する。この新しい統一的アプローチの有効性と汎用性を検証するために、困難なシナリオからなる多数の実験結果を示す。この柔軟で安定性の高いフレームワークは、様々な相間の統一的な取り扱いとシームレスな結合、そして効果的な数値離散化を基盤としており、相転移を多用する新しい現象に対して、芸術的な創造性と指導力をもってアニメーションを作成するというユニークな利点がある。

    粘度の違うものを混ぜるシミュレーションです。個人的にはこういうシミュレーションが大好き! デモ動画では小麦粉に次第に牛乳を混ぜているようなシミュレーション結果が流れていました。このセッションは実際に足を運んでみてさらに詳しい情報を知りたいです。

    https://dl.acm.org/doi/10.1145/3638047

    他にも興味深い発表がいっぱい!

    以上、流体好きが選ぶ、論文7本でした!

    TPFFでは277本ぐらい発表があったので、個別に扱うと驚きやさんみたいになってしまいますが、WOW!は大事ですね。
    他にもこんな発表がありました。

    技術的、もしくは数理としての難しさなどはあると思いますが、やはり絵作りにおいて驚きのある映像をつくる、かつ物理的に正しいと考えられる方法を探求されているところは興味深く、本編の発表にも足を向けていきたいと思います!


    この記事に「いいね!」と思ったら、いいねとフォロー、おすすめをお願いします!
    https://note.com/aicu/   X(Twitter)@AICUai

    ★会期中「これを取材して!!」というリクエストもDMでどうぞ!

    このようなイベントのレポートに興味がある方はこちらもオススメ
    https://ja.aicu.ai/category/events/
    この記事に「いいね!」と思ったら、いいねとフォロー、おすすめをお願いします!

    Originally published at https://note.com on Dec 5, 2024.

  • AICUは SIGGRAPH Asia 2024にプログラムスポンサーとして参加中、注目の発表、現地の熱狂・最新情報はこのエントリーと X@AICUai にて!

    「つくる人をつくる」をビジョンに掲げるAICU Inc.は、2024年12月3日から6日にかけて東京国際フォーラムで開催されたSIGGRAPH Asia 2024にプログラムスポンサーとして参加しています。学生ボランティアのユニフォーム協賛、CEO白井暁彦氏による2件の講演、そして関連イベントの企画など、多岐にわたる活動を通してCG分野の発展に貢献させていただいております。
    X@AICUai をフォローお願いいたします!リポストも歓迎です

      AICUの活動内容

      学生ボランティアユニフォームへの協賛

      AICU Inc.は、通常のロゴ掲出に加えて、学生ボランティアのユニフォーム(法被)にロゴを掲出することで、イベント運営を支援しています。世界中から集まる参加者と交流し、イベントを支える学生ボランティアの活動に貢献できたことを光栄に思います。
      https://asia.siggraph.org/2024/about-the-event/supporters-partners/

      画像
      画像

      白井氏による講演

      講演1:「生成AI時代に『つくる人をつくる』国際スタートアップ企業『AICU』活動紹介」

      日時: 2024年12月5日(木) 15:30〜
      会場: 東京国際フォーラム ホールE デジタルハリウッド大学ブース
      内容: AICUの活動紹介、生成AI時代における「つくる人をつくる」国際ビジネスの最前線と取り組み、AICU Japan株式会社の展望について

      https://prtimes.jp/main/html/rd/p/000002462.000000496.html

      画像

      講演2:SIGGRAPH ASIA 2024 Educator’s Forum「Computer Graphics Education in Japan: Current Status and Future Challenges」


      日時: 2024年12月6日(金) 14:30 – 15:30 (JST)
      場所: 東京国際フォーラム G棟5階 G502
      内容: 日本のCG教育の現状と未来の課題、ディープラーニングや生成AIの教育への導入について、国内外の専門家と議論を通して共有します。

      https://asia.siggraph.org/2024/ja/presentation/?id=educur_101&sess=sess299

      登壇者: 伊藤貴之氏 (お茶の水女子大学)、藤代一成氏 (慶應義塾大学)、宮田一乘氏 (北陸先端科学技術大学院大学)、Barbara Mones氏 (ワシントン大学)、白井暁彦氏 (デジタルハリウッド大学 / AICU Inc.)、髙橋誠史氏 (株式会社バンダイナムコスタジオ)

      メディア活動

      メディアとして幅広いクリエイターに向けてSIGGRAPHの熱狂を共有

      AICUのメディア部門である「AICU media」およびAICU Japan株式会社は、SIGGRAPH ASIA 2024を日本市場に向けて X@AICUai および日本最大のブログサイトnote ( note.com/aicu )にて、エキサイティングなCG・インタラクティブ技術のトッププレイヤーが集まる現地の熱狂を世界各地に伝える特集を組んでお伝えしています。

      画像

      従来のメディアとは異なり、Xでのライブ感あふれる現地実況や、注目の研究者・企業の発信などをカジュアルに共有し「つくる人をつくる」、クリエイティブAIをわかりやすく伝えるツイートを心がけております。
      「現地に行きたくてもいけない」という方々に向けて動画も積極的にお送りします。
      X@AICUai をフォローお願いいたします!リポストも歓迎です
      (メディアパスおよび撮影許可を取得しております)

      SIGGRAPH ASIA 2024関連エントリーはこちら

      画像

      SIGGRAPH Asia 2024特集(1) 最先端のCG研究を3時間で!【Technical Papers Fast-Forward】全ジャンル予習リスト #SIGGRAPHAsia2024

      また、月刊誌「AICUマガジン Vol.8」でも特集記事を掲載予定です。

      https://amzn.to/4eRp0mw

      SIGGRAPH ASIA 2024における生成AI・クリエイティブAIについての情報を伝える専門誌として、速報記事を各種オンラインメディアにて「クリエイター視点で」発信するとともに、書籍媒体では月刊誌「AICUマガジン Vol.8」(2024年1月発売)にて特集予定です。東京圏のイベントに参加できる層だけでなく、幅広い「つくる人をつくる」ため、Kindle Unlimitedで無料配信を行っているだけなく、プレミアムカラー印刷版でもお届けしています( https://amzn.to/4eRp0mw )。

      AICU magazine バックナンバー Kindle売場 https://j.aicu.ai/kindle

      イベント企画

      SIGGRAPH終了後の土曜日に参加者交流イベントを開催

      「SIGGRAPHには参加してみたいけど、時間的に難しい」
      「分野的には関係があるけど、会社が費用を負担してくれない」
      「英語でのコミュニケーションは難しいかも……」
      といった未来の「つくる人をつくる」ために、SIGGRAPH ASIA 2024終了後の土曜日に2つの参加交流イベントを開催します。

      画像

      [AiBC-DEF]国際クリエイティブAIビジネスコンソーシアム – 開発者交流フォーラム

      2024年12月7日(土) 10~14時
      [CAiBC-DEF]国際クリエイティブAIビジネスコンソーシアム – 開発者交流フォーラム開催!(2024/12/7) #SIGGRAPHAsia2024 応援企画 

      メタバース、エンタテイメント、アニメ・ゲームなどの分野の国際的なプレイヤーを集め、SIGGRAPH ASIA 2024での体験を共有し、今後のフォローアップを行うイベントです(主要言語は英語)。

      詳細・予約サイト(Eventbrite) https://cabc24.eventbrite.com/

      画像

      2024年12月14日(土)「生成AI忘年会:AIクリエイター勉強会」

      東京科学大学(旧・東京工業大学)INDESTに入居しているAICU JapanとBlendAI共同開催。

      「つくる人をつくる」AICUファン感謝祭!2つのワークショップイベントを開催します

      13:00-15:00 AITuberを作ってみよう
      15:00〜18:00AIアートバトル感想戦
      18:00〜20:30懇親会・ピッチイベント
      参加無料・参加登録必須(申込締切は2024年12月7日を予定)
      [物理参加の申込みはこちら] https://techplay.jp/event/966307

      https://techplay.jp/event/966307

      https://techplay.jp/event/962444

      まとめ

      AICU Inc.は、SIGGRAPH Asia 2024への様々な活動を通して、「つくる人をつくる」というビジョンを体現していきます。学生ボランティアへの支援、CEOによる講演、メディア発信、関連イベントの企画など、多角的なアプローチでCG業界の発展に貢献していきたいと考えています。AICUの今後の活動にも注目よろしくお願いします。

      【関連PR】
      「つくる人をつくる」AICU media
      Coloso「生成AIクリエイティブ AICU」シリーズ
      ■「超入門:Stable Diffusionではじめる画像生成AI」https://j.aicu.ai/coloso1
      ■「初級者:広告企画から動画制作までのプロセス」 https://j.aicu.ai/coloso2
      ■「ComfyUIマスター:カスタムノードとアプリ開発」 https://j.aicu.ai/coloso3

      https://j.aicu.ai/coloso3

      Originally published at https://note.com on Dec 4, 2024.