タグ: AI

  • 「生成AIなんでも展示会」がすごかった!!を一気紹介 #生成AIなんでも展示会

    「生成AIなんでも展示会」がすごかった!!を一気紹介 #生成AIなんでも展示会

    2024年4月21日に開催された「生成AIなんでも展示会」での魅力的な展示内容を一気紹介。AIを使った新たな体験、グラフィック制作や、ネットワーク接続が不要なAI Tuber、独自モデル、日本語VLMの展示など、最新の個人による技術が集結したイベントの様子をお届けします。


    2024年4月21日に渋谷ABEMAタワーで開催された「生成AIなんでも展示会」、登録者限定で500人を超える予約者で実施されたこのイベントですが「会場に行きたいけどいけない!」という人も多かったものと想像します。

    「つくる人をつくる」をビジョンに活動するAICUメディアが勝手取材させていただきました。全部を扱えずにすみません。
    (ご迷惑な写真等がございましたら削除いたします X(Twitter)@AICUai までお伝え下さい)

    ★場所や分野に関係なくランダムで紹介させていただきます

    猩々 博士 @Mega_Gorilla_

    作品予告には「言語」って書いてあったけど展示されていたのは動画。

    いや、これすごいですよ、手、服、顔、髪を Segment Anything を使ってレイヤーにして描き直しをしているそうです。

    本当はプロジェクションマッピングで服を着せたかったらしいんですが、電源が足りなかったそうで…。

    新清士 @kiyoshi_shin

    生成AIとLookingGlassPortraitを組み合わせた裸眼立体視

    新さん、最近はゲーム作ってるんだそうです。

    とよふく @Yeq6X

    イラスト添削AI

    AIによる漫画生成

    すごい好きな漫画の作者に会えました

    開発工程

    AIキャラクターで使える自然な音声合成

    Nanase Watanabe @nanase_ja

    その他 AIを用いたキャラクター、アニメ、PV
    これすごかったんだけど、すごいガチなお話されている方がいて近づけなかった…(小心者)

    ローカルAIや複数LLM統合型AIキャラのデモ(めぐ&さくら)

    ここはガチなハードウェア実装とキャラクターUXが融合していて本当にすごい。

    ガチな紙コップスピーカーとアンプ。

    Ubuntu Desktopで高速に動くコンソールとデモ画面

    RTX A6000 (68万円)が剥き晒しの筐体で組まれているのかっこいい

    フロントの実装もしっかり。しかもネットワーク不要と見た。
    これで次世代カーナビ作れるじゃん・・・

    高解像度画像が入力可能な日本語LVLM

    高性能な日本語VLMを展示されておりました

    VLMについて解説した過去記事はこちら

    期間限定のデモもあります!

    眞泥魚太 @ MudddyWWater

    までぃうぉーたさん
    生成AIを用いたグラフィック制作とワークフロー

    Stable Diffusion Web UIのDynamic Prompts→Photoshop・クリスタ→Krita AI Diffusion→クリスタ・Photoshopというフローだそうです。

    #SD黄色本 もご購入いただいたそうで、ありがとうございます!

    直接取材できなかったみなさま

    混みすぎていてきちんと取材したくても難しかった方々など!

    ネットで見かけた感想

    業界の有名人も!

    みょーすけさん、シェイン・グウさん、ショーティーさん、しらいはかせ

    Stability AIのJerry Chiさんもいらっしゃいました

    主催のひとり、さるどらさん

    関係者の皆様お疲れ様でした!

    事後報告編はこちら

    https://note.com/aicu/n/n44ad7b02f175


    Originally published at https://note.com on April 21, 2024.

  • 2024年3月の 好アクセスランキング #AICU_media

    2024年3月の 好アクセスランキング #AICU_media

    AICU media AI社員の「koto」です。

    2024年3月のAICU media noteでの好アクセスランキングを紹介します。

    第5位以降

    VRoid Studio を使ってキャラクター LoRA を作ろう!
    https://note.com/aicu/n/nba8393a4816e

    イーロン・マスク xAIによる「Grok-1」リリース!明らかに重すぎる重みが重い
    https://note.com/aicu/n/n66144f2997ad

    img2img入門(1) i2iでできることを知ろう
    https://note.com/aicu/n/n08ebe0637a41

    日本人が開発した「Regional Prompter」がなかなかすごい!
    https://note.com/aicu/n/n832941df99c5

    最先端の画像生成AIを深掘りする教科書決定版『画像生成AI Stable Diffusion スタートガイド』3月29日発売 #SD黄色本
    https://note.com/aicu/n/n92682a415d6c

    カリオストロラボ・Animagine XL 3.0 リリースノート日本語翻訳(訳注あり)
    https://note.com/aicu/n/nd05f3a656dd8

    SDXLでのネガティブプロンプト大実験!! AUTOMATIC1111「Textual Inversion」でのembeddingを学ぶ
    https://note.com/aicu/n/n1ebba31e4514

    第5位:写真が簡単に動かせる!Stable Video Diffusionを試してみよう

    https://note.com/aicu/n/n00d9086856c9

    第4位

    AUTOMATIC1111 v1.8.0リリース
    2024年3月2日

    https://note.com/aicu/n/n62f757a2fff8

    第3位


    Stability Matrixがv2.9.0にアップデート:StableSwarmUIとForgeが登場!(1)動画生成があっという間! 2024年3月4日

    https://note.com/aicu/n/n1e3ed147e586

    第2位


    ANIMAGINE XL 3.0 画風が変わる!おすすめプロンプト集 2024年3月9日

    https://note.com/aicu/n/n44085d702617

    そして映えある第1位!


    [保存版] Animagine XL 3.1 生成比較レポート 2024年3月20日

    https://note.com/aicu/n/n70122ef250d9

    月末に公開した有料記事なのにすごい反響です。

    読んでくれた皆さん、スキをしてくれたみなさんもありがとうございました。励まされます!

    カバーアート企画も発表

    今月はじまった、カバーアート企画の結果を発表します!

    作品は はねごろうさん

    採用作品には謝礼をお送りしております

    5月カバーアートの応募および応募規約はこちらのメンバーシップ掲示板から!
    https://note.com/aicu/membership/boards


    Originally published at https://note.com on April 2, 2024.

  • [保存版] Animagine XL 3.1 生成比較レポート

    [保存版] Animagine XL 3.1 生成比較レポート

    つくる人をつくる!AICU media の知山ことねです。

    Animagine XL 3.1リリース

    2024年1月16日に公開された Stable Diffusion の画像生成モデル「Animagine XL 3.0」から、新バージョンとなる Animagine XL 3.1 がリリースされました!

    この記事では、Animagine XL 3.0 と比較して画風などに違いはあるか、また Animagine XL 3.1 から搭載された新たなタグについて紹介していきます。

    【関連記事】

    漫画制作に適したモデルは?Animagine 3.1 vs Animagine 3.0 徹底比較を行いました!

    XL 3.1 では、Animagine XL 3.0 で重要だったプロンプトも引き続き使用できます!

    https://note.com/aicu/n/n44085d702617

    Animagine XL 3.0 リリースノートはこちら。

    https://note.com/aicu/n/nd05f3a656dd8

    Hugging Face はこちら

    https://huggingface.co/cagliostrolab/animagine-xl-3.1

    公式リリース 和訳(一部抜粋)

    Animagine XL 3.1は、前バージョンのAnimagine XL 3.0を強化したもので、より高い品質でアニメスタイルの画像を生成できるように改良されています。有名なアニメシリーズからのより幅広いキャラクター、最適化されたデータセット、より良い画像作成のための新しいタグが含まれています。アニメキャラクターの正確で詳細な表現を生成することで、アニメファン、アーティスト、コンテンツクリエイターにとって価値あるリソースとなることを目指しています。

    Animagine XL 3.0 をより高品質にしたということですね!

    Animagine XL 3.0 との比較

    それでは、実際に生成して Animagine XL 3.0 と比較していきましょう。
    今回生成に使用した環境は、Windows10、NVIDIA GeForce RTX 3060 搭載の VRAM6GB の GALLERIA ノート PC に直接インストールした ComfyUI です。

    画風

    まずシンプルなプロンプトで生成し、Animagine XL 3.0 と比較してみます。

    プロンプト: best quality, 1girl
    ネガティブプロンプト: worst quality, low quality, nomal quality, bad anatomy, NSFW

    Animagine XL 3.0

    Animagine XL 3.1

    強い光源、耳の見える髪型、逆光感などの大きな特徴はそのまま残っていますが、Animagine XL 3.0 の特徴だった切れ長の目とピンクの頬が目立たなくなり、露出度も軽減されました。また Animagine XL 3.0 では肌がつやっとする雰囲気がありましたがそれも軽減され、全体的に落ち着いたように感じます。

    また Animagine XL 3.0 よりも Animagine XL 3.1 の方が線画が細くはっきり出ていて、厚塗り感、立体感が減り少し平面的になった印象を受けますね。

    タグ

    Animagine XL 3.0 には画風を指定する「年代タグ」やクオリティを指定する「クオリティタグ」がありましたが、Animagine XL 3.1 ではそれらがアップデートされたことに加え、「Aesthetic Tags」が追加されました。

    クオリティタグ

    Animagine XL 3.1 公式 Hugging Face より

    従来のクオリティタグから数値が少し調整され、タグ名が一部変更されました。よく使用する「masterpiece」「best / worst / low quality」は変わらないので、今まで通りの感覚で使えそうです。

    年代タグ

    Animagine XL 3.1 公式 Hugging Face より

    「2024」が追加され年が少しずつ調整されていること、「late」が「recent」に変更されたことが主な変更で、年代タグも大きくは変わっていません。

    実際の生成画像比較

    newest (2021–2024)

    Animagine XL 3.0 に似た絵柄です

    recent (2018–2020)

    newestを少し繊細にした雰囲気です。VTuber全盛期ですね。

    mid (2015–2017)

    退廃的な雰囲気が可愛いです
    明らかに画風がVTuber風ではなくなってきました。

    early (2011–2014)

    セピアな雰囲気が出ています

    https://j.aicu.ai/Mag2405

    Oldest (2005–2010)

    年代的には涼宮ハルヒや長門有希が流行った時期ですね。
    90年代風のテイストもありますが、明らかに描きわけができています。

    レーティングタグ(年齢制限タグ)

    Animagine XL 3.1 公式 Hugging Face より

    センシティブな表現を調節するレーティングタグも、Animagine XL 3.0 から大きく変化はありません。プロンプトとネガティブプロンプトを使い分けて露出度を調節しましょう。

    Aestheticタグ

    アニメデータに特化したViT(Vision Transformer)画像分類モデルと、コンテンツの美的価値を評価するモデルshadowlilac/aesthetic-shadow-v2を利用し、視覚的に魅力的であるものを生成するタグです。

    aesthetic

    プロンプト「best quality, 1girl, very aesthetic」

    カメラアングルやポーズがダイナミックになりました!

    「aesthetic」(イェステティック;美的)というプロンプトは Nijijourney や Novel AI でも有効なので、ぜひ試してみてください!

    推奨設定

    公式 Hugging Face で紹介されている推奨設定、プロンプトを紹介します。

    「Absurdres」とは造語で、absurd-res、ありえないぐらい高解像度、という意味のようです。

    プロンプト

    masterpiece, best quality, very aesthetic, absurdres

    ネガティブプロンプト

    nsfw, lowres, (bad), text, error, fewer, extra, missing, worst quality, jpeg artifacts, low quality, watermark, unfinished, displeasing, oldest, early, chromatic aberration, signature, extra digits, artistic error, username, scan, [abstract]

    CFG Scale

    低め(5–7)

    Sampling Steps

    30以下

    Sampler

    Euler a(Euler Ancestral)

    https://j.aicu.ai/Mag2404

    ギャラリー

    お気に入りの生成画像です!

    パステルカラー!

    抜け感

    kotoちゃん

    oldest

    newest

    アニメ風

    皆さんもお気に入りの画像が生成できたら、ぜひご共有ください!

    メンバーオンリー画像投稿コーナー https://note.com/aicu/membership/boards

    https://note.com/aicu/membership/boards/61ab0aa9374e/posts/17273820a798

    Animagine XL 3.0 おすすめのプロンプトはこちら

    ANIMAGINE XL 3.0 画風が変わる!おすすめプロンプト集
    https://note.com/aicu/n/n44085d702617

    Stable Diffusion — ControlNet入門はこちらから
    https://note.com/aicu/n/nde6fe41f077b

    img2img 入門シリーズはこちらから。
    https://note.com/aicu/n/n08ebe0637a41

    この下にGoogle Colabで動作する「AUTOMATIC1111/Stable Diffusion WebUI」へのリンクを紹介しています。

    https://note.com/aicu/membership/boards/61ab0aa9374e/posts/7cab00942b22?from=self

    メンバーシップ向けサポート掲示板はこちら!応援よろしくお願いします!

    AICU mediaによる新作書籍「画像生成AI Stable Diffusionスタートガイド」ついに予約開始です!(2024年3月29日リリース)

    詳細はこちらから https://ja.aicu.ai/sbxl/

    今回の記事の内容はAICUマガジンでもご覧いただけます

    AICU magazine Vol.1 2024年4月号 https://j.aicu.ai/Mag2404

    AICU magazine Vol.1 2024年5月号 https://j.aicu.ai/Mag2405

    AICU:AIクリエイターユニオンでは皆様のご質問をお待ちしております
    https://note.com/aicu/membership/boards

    Originally published at https://note.com on March 19, 2024.

  • img2img入門(1) i2iでできることを知ろう

    この記事では、画像とプロンプトをもとにして新たな画像を生成する『image-to-image』について解説します。

      image-to-imageとは

      『image-to-image』(以下『i2i』)とは、画像とテキストプロンプトをもとにして、新たな画像を生成する方法のことです。これにより、テキストのみでは伝えにくかった細かい雰囲気や色味などが再現しやすくなります。また、t2tで生成した画像の一部分のみの修正も行うことができます。

      画面上部のメニューの左から2番目の『img2img』を選択することで使用できます。

      画像
      この画面になります

      i2iには、『img2img』『Sketch』『Inpaint』『Inpaint scketch』『Inpaint upload』の5種類の機能があります。順番に試してみましょう。

      img2imgの使い方

      まず最初に、『img2img』です。これは、指定した画像とプロンプトをもとに全く別の新たな画像を生成する機能です。実際に試してみましょう。
      まず、t2tで生成した画像を用意します。

      モデル blue_pencil (今回はblue_pencil-XL-2.9.0を使っています)
      プロンプト masterpiece, best quality, ultra detailed, 1girl
      ネガティブプロンプト worst quality, low quality, normal quality, easynegative

      画像
      生成された画像

      これを赤枠内にドラッグアンドドロップ、または枠内をクリックしてフォルダから選択してアップロードします。

      画像

      まずは設定は何も変えずに生成してみます。

      画像

      生成されました。確かに雰囲気が似ていますね。
      では、プロンプトを指定してみましょう。t2tの際と同じようにプロンプトを入力します。
      プロンプト masterpiece, best quality, ultra detailed
      ネガティブプロンプト worst quality, low quality, normal quality, easynegative, 

      画像

      先ほどよりハイクオリティで、もとのイラストの雰囲気を残したイラストになりました。
      では、プロンプトで少し女の子の見た目を変えてみましょう。プロンプトに『smile』を追加してみます。

      画像
      笑顔になりました

      色味や雰囲気はそのままに、笑顔の女の子を生成することができました。
      このように、img2imgでは、画像とプロンプトをもとにして新しいものを生成することができます。
      では、細かい設定を見ていきましょう。これは他のi2iの機能でも共通して使用します。

      画像

      ① Resize mode 
      生成する画像のサイズを変えた時の(④)、元の画像との差の補完方法です。生成する画像の横幅を2倍にし、それ以外の条件を揃えて比較してみましょう。
      元画像

      画像

      Just resize
      元画像をそのまま引き伸ばします。

      画像

      Crop and resize
      縦横比を保ったまま、一部を切り取り拡大します。

      画像

      Resize and fill
      足りない部分を生成し補完します。

      画像

      Just resize(latent upscaler)
      『Just resize』を、異なるアップスケーラーを用いて行います。

      画像

      このように、画像の補完方法が全く異なるので、目的に応じて適したものを選びましょう。

      ②Sampling method
      t2tと共通の設定です。ノイズを除去し画像を生成する過程のアルゴリズムの種類を選択します。t2tの際と同じで、デフォルトのDPM++ 2M Karrasを使うことをおすすめします。

      ③Sampling steps
      こちらもt2tでも使う設定です。ノイズを除去する回数を指定します。詳しくはC3-コラムで解説しています。

      ④Resize to/Resize by
      生成する画像のサイズを指定します。『Resize to』を選択すると縦横のサイズを指定でき、『Resize by』を選択すると拡大縮小する倍率を指定することができます。

      ⑤Batch count
      t2tと共通の設定。指定した枚数の画像を順番に生成します。

      ⑥Batch size
      t2tと共通の設定。指定した枚数の画像を同時に生成します。

      ⑦CFG Scale
      t2tと共通の設定。生成画像をどれだけプロンプトに従わせるかを調節します。

      ⑧Denoising strength
      生成画像をどの程度元画像に近づけるかを設定します。

      Denoising strengthの使い方

      ここからは、先ほどの⑧『Denoising strength』というパラメーターについて実験と解説をしていきます。これは、img2imgの画像をアップロードする箇所の下部にあるメニューで設定する数値です。

      画像

      『Denoising strength』は、元の画像と生成する画像にどれだけ差をつけるかを表します。デフォルトは0.75ですが、0に近づくと元画像に忠実に、1に近づくと元画像とは違う画像になります。実際にi2iで画像を生成して比べてみましょう。

      まず、t2iで画像を生成します。
      モデル bluepencil
      プロンプト masterpiece, best quality, ultra detailed, 1girl, 
      ネガティブプロンプト worst quality, low quality, normal quality, easynegative, 

      画像

      これをi2iのX/Y/Z plotで、『Denoising』の数値を変えて生成します。

      画像

      これらを比較すると、Denoising:0.3のイラストは元のイラストとほとんど同じですが、Denoising:1.0のイラストは、女の子の服装、髪色、背景がかなり変わっていることがわかります。このように、Denoisingの値は小さいほど元のイラストと似たものになり、大きいほど元のイラストとの差が大きくなります。

      続きはこちら!

      https://note.com/aicu/n/n853810115170

      https://note.com/aicu/n/n65145ad4f762

      https://note.com/aicu/n/n0ce22c439af7

      ※本ブログは発売予定の新刊書籍に収録される予定です。期間限定で先行公開中しています。
      メンバー向けには先行してメンバーシップ版をお届けします
      Stable Diffusionをお手軽に、しかもめっちゃ丁寧に学べてしまう情報をシリーズでお送りします。
      メンバーは価値あるソースコードの入手や質問、依頼ができますので、お気軽にご参加いただければ幸いです!

      https://note.com/aicu/membership/join

      この下にGoogle Colabで動作する「AUTOMATIC1111/Stable Diffusion WebUI」へのリンクを紹介しています。
      メンバーシップ向けサポート掲示板はこちら!応援よろしくお願いします!

      https://note.com/aicu/membership/boards/61ab0aa9374e/posts/7cab00942b22?from=self


      この記事の続きはこちらから https://note.com/aicu/n/n08ebe0637a41

      Originally published at https://note.com on Jan 5, 2024.

    1. AI動画生成の大きな一歩 StabilityAIが「SVD Image-to-Video」を公開

      AI動画生成の大きな一歩 StabilityAIが「SVD Image-to-Video」を公開

      2023年11月21日、StabilityAI社は画像から動画を生成する技術「Stable Video Diffusion」(SVD)を公開しました。
      研究者の方はGitHubリポジトリで公開されたコードを試すことができます。ローカルでモデルを実行するために必要なウェイトは、HuggingFaceで公開されています(注意:40GBのVRAMが必要です)。
      さらにStable Video Diffusion (SVD) を使って画像から動画へウェブインタフェースも近日公開予定とのこと。キャンセル待ちリストが公開されています。

      stable-video-diffusion公式アナウンス

      https://stability.ai/news/stable-video-diffusion-open-ai-video-model

      日本語アナウンス

      https://ja.stability.ai/blog/stable-video-diffusion

      https://youtu.be/G7mihAy691g

      ウェイティングリスト

      https://stability.ai/contact

      研究論文

      「Stable Video Diffusion: Scaling Latent Video Diffusion Models to Large Datasets」(21 Nov ,2023)
      安定した映像拡散: 潜在的映像拡散モデルの大規模データセットへの拡張

      高解像度で最先端のテキストから動画、画像から動画生成のための潜在動画拡散モデル、Stable Video Diffusionを紹介する。近年、2次元画像合成のために学習された潜在拡散モデルは、時間レイヤーを挿入し、小規模で高品質なビデオデータセット上で微調整することで、生成的なビデオモデルへと変化している。しかし、文献に記載されている学習方法は様々であり、ビデオデータをキュレーションするための統一的な戦略について、この分野はまだ合意されていない。本論文では、動画LDMの学習を成功させるための3つの異なる段階を特定し、テキストから画像への事前学習、動画の事前学習、高品質動画の微調整の評価を行った。

      Translated from the original paper

      Github: https://github.com/Stability-AI/generative-models

      HuggingFace

      https://huggingface.co/stabilityai/stable-video-diffusion-img2vid-xt

      Stable Video Diffusion Image-to-Video モデルカードより

      Stable Video Diffusion (SVD) Image-to-Video は、静止画像を条件フレームとして取り込み、そこから動画を生成する拡散モデルです。

      モデル詳細

      (SVD)Image-to-Videoは、画像コンディショニングから短いビデオクリップを生成するようにトレーニングされた潜在拡散モデルです。このモデルは、 SVD Image-to-Video[14フレーム]から微調整された、同じサイズのコンテキスト・フレームが与えられたときに、解像度576×1024の25フレームを生成するように訓練されています。また、広く使われている f8-デコーダを時間的整合性のために微調整した。便宜上、標準的な フレーム単位のデコーダのモデル も提供されています。

      研究目的であれば、Generative-modelsのGithubリポジトリリポジトリ: https://github.com/Stability-AI/generative-models

      最も一般的な拡散フレームワーク(学習と推論の両方)が実装されています。
      論文: https://stability.ai/research/stable-video-diffusion-scaling-latent-video-diffusion-models-to-large-datasets

      評価

      https://huggingface.co/stabilityai/stable-video-diffusion-img2vid-xt

      比較チャートは、GEN-2やPikaLabsに対するSVD-Image-to-Videoのユーザー嗜好を評価したものです。SVD-Image-to-Videoは、ビデオの品質という点で、人間に好まれています。ユーザー調査の詳細については、研究論文を参照してください。

      用途:直接利用

      このモデルは研究目的でのみ使用されます。想定される研究分野や課題は以下の通りです。

      ・生成モデルの研究
      ・有害なコンテンツを生成する可能性のあるモデルの安全な展開
      ・生成モデルの限界とバイアスの調査と理解
      ・芸術作品の生成と、デザインやその他の芸術的プロセスにおける使用
      ・教育的または創造的なツールへの応用

      除外される用途を以下に示します
      使用の範囲外
      このモデルは、人物や出来事の事実または真実の表現となるように訓練されていないため、そのようなコンテンツを生成するためにモデルを使用することは、このモデルの能力の範囲外です。またこのモデルをStability AI の 利用規定 に違反するような方法で使用しないでください。

      制限とバイアス

      制限事項
      生成される動画はかなり短く(4秒未満)、モデルは完全なフォトリアリズムを達成しません。
      ・モデルは動きのないビデオや、非常に遅いカメラパンを生成することがあります。
      ・モデルはテキストで制御することができません。
      ・モデルは読みやすいテキスト(legible text)をレンダリングできません。
      ・顔や人物全般が適切に生成されないことがあります。
      ・モデルの自動エンコード部分は非可逆です。

      推奨事項
      このモデルは研究目的のみを意図しています。

      モデルを使い始めるには
      https://github.com/Stability-AI/generative-models をチェックしてください。

      最新の進歩を取り入れたモデルのアップデートに意欲的に取り組み、皆さんのフィードバックを取り入れるよう努力していますが、現段階では、このモデルは実世界や商業的な応用を意図したものではないことを強調しておきます。安全性と品質に関する皆様の洞察とフィードバックは、最終的な商業リリースに向けてこのモデルを改良する上で極めて重要です。

      StabilityAI社のリリースメッセージより翻訳

      AICU media のコメント

      StableDiffusionを2022年8月に公開してから14カ月。ついにStabilityAIがAI動画生成の大きな一歩となる「SVD Image-to-Video」をオープンに公開しました。画像を入力すると動画が生成されるDiffusionモデルのようです。フレーム間の安定性も高いようです。論文も30ページの超大作なので今後のこの分野における革新の一歩になることは間違いありません。今後も注目していきます。

      Originally published at https://note.com on November 22, 2023.

    2. OpenAI DevDayリリース詳細 日本語版

      OpenAI DevDayリリース詳細 日本語版

      2023年11月6日、OpenAI DevDayにて新モデルと開発者向け製品が発表されました。
      https://openai.com/blog/new-models-and-developer-products-announced-at-devday

      DevDayで発表されたモデルと開発者向け製品は主に以下のとおりです。
      以下、公式リリースをできるだけ丁寧に翻訳していきます。

      ・GPT-4Turboの128Kコンテキストと低価格化:
      より高性能で安価で、128Kのコンテキスト・ウィンドウをサポート
      ・新しいAssistants API:
      目標を持ち、モデルやツールを呼び出すことができる独自の支援AIアプリを開発者が簡単に構築できる
      ・GPT-4 Turbo with Vision
      ・DALL-E 3 API
      新しいマルチモーダル機能 視覚、画像作成(DALL-E 3)、音声合成(TTS)が本日午後1時(太平洋時間)から提供されます。

      GPT-4 Turbo 128Kコンテキスト

      OpenAIは今年3月にGPT-4の最初のバージョンをリリースし大きな反響を得ました。7月にGPT-4をすべての開発者が一般的に利用できるようになりましたが、本日、このモデルの次世代であるGPT-4 Turboのプレビューが公開されました。
      GPT-4 Turboはより高性能で、2023年4月までの世界情勢を把握しているようです。128kのコンテキスト・ウィンドウを持ち、300ページ以上のテキストを1つのプロンプトに収めることができます。GPT-4 Turboは、GPT-4と比較して、入力トークンで3倍安く、出力トークンで2倍安く提供されます。
      APIで「gpt-4–1106-preview」を渡すことにより、すべての有料開発者が試すことができます。

      関数呼び出し(function calling)の更新

      関数呼び出しは、アプリや外部APIの関数をモデルに記述し、モデルにそれらの関数を呼び出すための引数を含むJSONオブジェクトを出力するように賢く選択させることができます。1つのメッセージで複数の関数を呼び出す機能など、アップデートが本日リリースされました。
      例えば「車の窓を開けてエアコンを切る」といった複数のアクションを要求するメッセージを1回のリクエストで送ることができます。また関数呼び出し精度も向上しています。より正しい関数パラメータを返す可能性が高くなりました。

      命令追跡とJSONモードの改善

      GPT-4 Turboは、特定のフォーマット(「常にXMLで応答する」など)を生成するときなど、命令に注意深く従う必要があるタスクにおいて、これまでのモデルよりも優れたパフォーマンスを発揮するようになりました。モデルが有効なJSONで応答することを保証する新しい「 JSONモード 」をサポートしています。新しいAPIパラメータ「response_format」は、モデルが構文的に正しいJSONオブジェクトを生成するように出力を制約することを可能にします。JSONモードは、関数呼び出し以外でチャット完了APIでJSONを生成する開発者にとって便利と考えます。

      再現可能な出力とログ確率

      新しい「seed」パラメータは、モデルが一貫性のある補完を返すようにすることで再現可能な出力を可能にします。このベータ機能は、デバッグのためにリクエストを再生したり、より包括的な単体テストを書いたり、一般的にモデルの動作をより高度に制御したりするようなユースケースに便利です(OpenAI社内でこの機能をユニットテストに使用しており、 非常に貴重なものだと感じているそうです)。

      また、GPT-4 TurboとGPT-3.5 Turboによって生成された最も可能性の高い出力トークンのログ確率を返す機能を数週間以内に開始とのことです。

      更新されたGPT-3.5 Turbo

      GPT-4 Turboに加えて、デフォルトで16Kのコンテキスト・ウィンドウをサポートするGPT-3.5 Turboの新バージョンもリリースします。新しい3.5 Turboは、改良された命令フォロー、JSONモード、並列関数呼び出しをサポートしています。例えば、JSON、XML、YAMLを生成するようなフォーマット・フォロー・タスクにおいて、内部検証では38%の改善が見られました。開発者はAPIで「gpt-3.5-turbo-1106」を呼び出すことで、この新しいモデルにアクセスできます。「gpt-3.5-turbo」の名前を使用しているアプリケーションは、12月11日に自動的に新しいモデルにアップグレードされます。古いモデルには、2024年6月13日までAPIで「gpt-3.5-turbo-0613」を渡すことでアクセスできます。 詳細はこちら。

      アシスタントAPI、検索、コード・インタープリター

      今日、私たちは「 Assistants API」をリリースします。これは、開発者が自身のアプリケーション内でエージェントのような体験を構築することを支援するための第一歩です。アシスタントとは、特定の指示を持ち、余分な知識を活用し、モデルやツールを呼び出してタスクを実行できる「目的に特化したAI」です。
      新しいAssistants APIは、Code InterpreterやRetrieval、関数呼び出しなどの新しい機能を提供し、これまで自分で行わなければならなかった多くの重労働を処理し、高品質のAIアプリを構築できるようにします。

      このAPIは柔軟に設計されており、自然言語ベースのデータ分析アプリ、コーディングアシスタント、AI搭載のバケーションプランナー、ボイスコントロールDJ、スマートビジュアルキャンバスなど、使用例は多岐にわたる。アシスタントAPIは、当社の新製品GPTsを可能にする同じ機能、すなわちコード・インタープリタ、検索、関数呼び出しなどのカスタム命令とツールに基づいて構築されています。

      このAPIによって導入された重要な変更点は、持続的で無限に長いスレッドです。これにより、開発者はスレッドの状態管理をOpenAIに委ねることができ、コンテキストウィンドウの制約を回避することができます。アシスタントのAPIでは、既存のスレッドに新しいメッセージを追加するだけです。

      アシスタントは、必要に応じて新しいツールを呼び出すことができます。
      Code Interpreter:サンドボックス化された実行環境でPythonコードを書き込んで実行し、グラフやチャートを生成したり、多様なデータやフォーマットのファイルを処理したりできます。アシスタントがコードを繰り返し実行することで、難しいコードや数学の問題などを解決することができます。
      検索:独自のドメインデータ、製品情報、ユーザーから提供されたドキュメントなど、弊社のモデル外からの知識でアシスタントを補強します。つまり、ドキュメントの埋め込みを計算して保存したり、チャンキングや検索アルゴリズムを実装したりする必要はありません。アシスタントAPIは、ChatGPTで知識検索を構築した経験に基づいて、どのような検索手法を使用するかを最適化します。
      関数呼び出し: アシスタントは、あなたが定義した関数を呼び出し、その関数応答をメッセージに組み込むことができます。
      プラットフォームの他の部分と同様に、OpenAI APIに渡されたデータやファイルは、 OpenAIのモデルを訓練するために使用されることはありません。

      「 Assistantsプレイグラウンド 」に行けば、コードを書かずにAssistants APIベータ版を試すことができます。

      公式による動画紹介:Assistantsプレイグラウンドを使って、コードを書かずに高品質のアシスタントを作成
      https://cdn.openai.com/new-models-and-developer-products-announced-at-devday/assistants-playground.mp4

      Assistants APIはベータ版で、今日からすべての開発者が利用できます。作ったものを「@OpenAI」と共有してください。Assistants APIとそのツールの価格は、 価格ページ で確認できます。

      APIの新しいモダリティ

      ビジョン付きGPT-4 Turbo

      GPT-4 TurboはChat Completions APIで画像を入力として受け付けることができ、キャプションの生成、実世界の画像の詳細分析、図付きドキュメントの読み取りなどのユースケースが可能になります。例えば、 BeMyEyesはこの技術を使用して、目の不自由な人や弱視の人が商品を識別したり、店舗をナビゲートしたりするような日常作業を支援します。開発者はAPIで「gpt-4-vision-preview」を使用することでこの機能にアクセスできます。安定したリリースの一部として、メインモデルの「GPT-4 Turbo」にビジョンサポートを展開する予定です。価格は入力画像サイズに依存します。例えば、1080×1080ピクセルの画像をGPT-4 Turboに渡す場合、$0.00765かかります。詳細は ビジョンガイド をご覧ください。

      DALL-E 3

      モデルとして「dall-e-3」を指定することで、最近ChatGPT PlusとEnterpriseユーザーに提供を開始した「 DALL-E 3」を、Images APIを通じてアプリや製品に直接統合することができます。Snap、Coca-Cola、Shutterstockのような企業は、DALL-E 3を使用して、顧客やキャンペーン用の画像やデザインをプログラムで生成しているそうです。旧バージョンの DALL-E と同様に、API には開発者がアプリケーションを悪用から守るためのモデレーション機能が組み込まれています。様々なフォーマットやクオリティのオプションをご用意しており、生成される画像1枚あたり0.04ドルからご利用いただけます。 API で DALL-E 3 を使い始めるためのガイド をご覧ください。

      音声合成 (TTS)

      開発者はテキスト読み上げ API を使ってテキストから人間品質の音声を生成できるようになりました。新しい TTS モデルでは、6 種類のプリセット音声から選択でき、「tts-1」と「tts-1-hd」の 2 つのモデルバリエーションがあります。価格は1,000文字入力あたり0.015ドルから。まずは TTSガイド をご覧ください。音声サンプルも聞く事ができます。

      モデルのカスタマイズ

      GPT-4ファインチューニング実験アクセス

      GPT-4ファインチューニングの実験アクセスプログラムを作成中です。予備的な結果では、GPT-4ファインチューニングは、GPT-3.5ファインチューニングで実現した大幅な利益と比較して、ベースモデルから意味のある改善を達成するために、より多くの作業が必要であることを示しています。GPT-4ファインチューニングの品質と安全性が向上するにつれて、GPT-3.5ファインチューニングを積極的に使用している開発者には、ファインチューニング・コンソール内でGPT-4プログラムに適用するオプションが提示されます。

      カスタムモデル

      ファインチューニングが提供できる以上のカスタマイズを必要とする組織(特に、最低でも数十億トークンという非常に大規模な独自データセットを持つドメインに適用可能)のために、カスタムモデルプログラムも開始します。これにはドメイン固有の事前トレーニングの追加から、特定のドメインに合わせたカスタムRLポストトレーニングプロセスの実行まで、モデルトレーニングプロセスのすべてのステップを変更することが含まれます。組織は、カスタム・モデルに独占的にアクセスすることができます。OpenAIの既存のプライバシーポリシーに従い、カスタムモデルが他の顧客に提供されたり、他の顧客と共有されたり、他のモデルのトレーニングに使用されたりすることはありません。また、カスタムモデルを訓練するためにOpenAIに提供された専有データは、他のいかなる文脈でも再利用されることはありません。これは非常に限定された(そして高価な)プログラムの開始になります。 登録はこちら 。

      低価格と高い料金制限

      料金の値下げ

      開発者に節約分を還元するため、プラットフォーム全体でいくつかの価格を引き下げます(以下の価格はすべて1,000トークンあたりの価格です):

      ・GPT-4 TurboインプットトークンはGPT-4より3倍安い0.01ドル、アウトプットトークンは2倍安い0.03ドル。
      ・GPT-3.5 Turboの入力トークンは、以前の16Kモデルより3倍安い0.001ドル、出力トークンは2倍安い0.002ドルです。以前GPT-3.5 Turbo 4Kを使用していた開発者は、0.001ドルのインプット・トークンを33%削減できます。これらの低価格は、本日発表された新しいGPT-3.5 Turboにのみ適用されます。
      ・ファインチューニングされたGPT-3.5 Turbo 4Kモデルのインプット・トークンは4倍の0.003ドルに、アウトプット・トークンは2.7倍の0.006ドルに値下げされます。ファインチューニングはまた、新しいGPT-3.5 Turboモデルで4Kと同じ価格で16Kコンテキストをサポートします。これらの新しい価格は、ファインチューンされた「gpt-3.5-turbo-0613」モデルにも適用されます。

      より高いレート制限

      お客様のアプリケーションの拡張を支援するため、GPT-4 のすべての有料顧客の 1 分あたりのトークンの上限を 2 倍にします。新しいレートリミットは レートリミットページで確認できます。また、料金制限の自動引き上げを決定する 使用量階層を公開しましたので、使用量制限がどのように自動的に拡大されるかをご確認いただけます。 アカウント設定 から利用限度額の引き上げをリクエストできるようになりました。

      著作権シールド

      OpenAIは、システムに組み込まれた著作権セーフガードでユーザを保護することをお約束します。本日、さらに一歩進んで、「Copyright Shield」を導入します。お客様が著作権侵害に関する法的請求に直面した場合、OpenAIが介入してお客様を保護し、発生した費用を支払います。これは、ChatGPTエンタープライズと開発者プラットフォームの一般的に利用可能な機能に適用されます。

      Whisper v3 と一貫性デコーダー

      オープンソース自動音声認識モデル(ASR)の次のバージョンである「 Whisper large-v3」をリリースします。また、近い将来、APIでもWhisper v3をサポートする予定です。

      また、Stable Diffusion VAEデコーダーのドロップインリプレースメントである「 一貫性デコーダー (Consistency Decoder)」もオープンソース化しています。このデコーダーは、Stable Diffusion 1.0+ VAEと互換性のあるすべての画像を改善し、テキスト、顔、直線を大幅に改善します。

      ChatGPTのOpenAI DevDayアナウンスについてはこちらをご覧ください。

      Originally published at https://note.com on November 7, 2023.

    3. AICU media 学生インターン募集(2023年11月期)

      AICU media 学生インターン募集(2023年11月期)

      米国法人である AICU社は日米のクリエイティブAIをテーマに活動しているデラウェア州登録、カルフォルニアのシリコンバレーにオフィスがあるAIスタートアップ企業です。
      その中でメディア事業部の運営する「AICU media」はお気付きの通り、広くクリエイティブな方々をAIをより使いこなすことで温めていくようなメディアを学生ライター中心で構築しています。

      ちょうどこちらの記事などが典型ですね。 

      (もちろんメディアなので広告としての商品性の高い記事やリサーチ、そして現在開発進行中の商業書籍の執筆やワークショップ開発などもあります)

      そこで活躍する学生ライターを養成しています。
      いわゆる「学生インターン」ですが、きちんと報酬もお支払いし、教育も行い、将来的に弊社の正社員・幹部候補として育成いたします。

      世の中に数多くあるアフィリエイトサイトのようなあからさまな商品紹介やアクセス数を狙った情報商材サイトとは異なり、メディア事業部の自主事業としての「AICU media」は以下の点を重要と考えています。

      【AICU mediaのビジョン】

      ・「つくるひとをつくる」AICU社のビジョンです
      ・できるだけ原典にあたった正確性・信頼性の高い記事
      ・企業だけでなくグッドユーザを育てる視点に立ったアドボケイト

      を目指しています(2023年11月現在)。

      【やらないこと】

      ・アクセス数を目的にした炎上狙いの記事
      ・「これはすごい」という驚きだけを中心にした記事
      ・引用元や出典不明な噂話
      ・経験則や思い込みだけに基づくノウハウ
      (=画作りにおいても他人に説明できて再現性がある理論が必要)
      ・プロや開発者、専門家、研究者だけが喜ぶ専門用語だらけの記事

      【これからやっていきたいこと】

      ・読んだ人が「使ってみたい」「つくりたい!」と思える記事
      ・プロフェッショナルで食えている人だけでなく、これからこの分野のプロになりたい人が必ず読んでおいてほしい記事や研究・論文を紹介
      ・Stable Diffusionや画像生成に関するプロフェッショナルを目指す人向けの基礎的なテクニック、理論、ノウハウ
      ・既に何かしらのプロだけれど、この技術を使ってさらに自分や所属組織を高めていきたい人向けの情報(企業向けワークショップもあります)
      ・LLMを使ったアプリケーションやサービスの開発(Python, AWS, GCP, Visual Studio Code, Google Colab, node.js など)
      ・生成AIを使った価値あるサービスや、それを開発している人々の紹介
      ・LLMをつくる人々、世界の頂点への挑戦とその意味
      ・AITuberやコミュニケーションエージェント開発技術、事例、解説(Unity, Unreal Engine, OBS, YouTube DataAPI, 音声合成技術、インタラクション技術など)
      ・AIをゲーム開発に活用した事例、PoCの開発など。
      ・AIと社会、特に法律面や倫理面。
      ・AIと社会、特にAIを使うことによるインクルージョン、その事例と課題。

      【どうやったら応募できるの?】

      (1) 会社紹介を読む(メールアドレスの入力が必要です)https://hubs.ly/Q027Kg_j0
      ご興味、ご質問ご感想を X(Twitter)@AICUai までお送りください。
      SPAMフィルタなどにかからない場合、DMにて24時間以内でご返信いたします。その後、予定している流れは以下のとおりです。

      (2) 読めるブログを最低3本ご準備ください
      ご自身の興味、趣味、活動、学習、研究などテーマは何でも構いません。
      noteやtwitter, GitHub, Pixivなどすべてのリンクを辿って調査します。
      もちろん完璧でなくても構いません。
      商業的なアルバイトで書いた記事などでも構いません。
      調査力やモチベーション、文体のイキオイ、商品名などの正確さ、品質、原稿の発行速度感などを評価します。もちろんインターンは指導していきますので、若くて未経験な方(例えば高校生や高専生)でも問題ありません。
      (3) オンライン面談(複数回)
      学生インターンさんは個別の面談があります。同僚となるメディア事業部のメンバー、社員の方々、しらいはかせCEOなど。
      どれぐらいの時間が捻出できるか、雰囲気良く学びながら仕事ができるか、本人の実績としてどのような積み上げをできるか(オンラインでライターとして活動していただく場合は、ペンネームをご準備いただき、どのように参加するかもお聞きします)。
      (4) トライアウト期間
      実際にチームの中でリサーチや執筆、開発といった作業に従事します。オンラインが中心ですが、オフライン(取材や調査など)の活動がありますので、時間帯や参加方法も調整させていただきます。

      よくある質問

      Q: 報酬は?
      A: パフォーマンスをアウトプットと時間で評価し、時給で最低賃金を考慮し支給します。米国法人なので米国ドルでお支払いします(居住地にもよります)日本円で日本の銀行口座にお振込することも可能です。

      Q: 税金とかどうすればいいの
      A: 弊社にて丁寧に指導いたします!

      Q: 理系なのですが
      A: 読んでわかる技術文書を書くのがお仕事です!歓迎!

      Q: 文系なのですが
      A: 社会に伝わる文章を書くのがお仕事です!歓迎!

      Q: 美術・芸術系なのですが
      A: 絵作りおいて、十分なスキルと、他人に短い時間で読んでわかる原稿を描ける/書けるスキルが有れば歓迎です。イラストや漫画が描ける、人当たりがいい人はもっと歓迎!

      Q: 専門学校生ですが
      A: ゲーム専門学校生、AI系の学科は歓迎です。特に学校の課題だけでなく、独自の作品や探求を外部発信している方は大歓迎です。

      Q: 高校生ですが働けますか?
      A: 十分なスキルとモチベーション、そして「学業第一」を守っていただければ歓迎です。

      Q: 学位があります
      A: 専門士、準学士、学士、修士、博士、特に情報系のPhDは優遇し、採用や給与に反映させます。卒業研究や学会等で論文を書いたことがある人は特に歓迎です。

      Q: 既に有名なブロガー/クリエイターです
      A: そういう方の参加を歓迎します!まずは別名義で活躍していただくことも可能ですのでスキルを活かして転生していただくのが良いかと存じます。

      Q: 期間は?
      A: 本人のご希望、パフォーマンスと弊社の成長に従い、1~3ヶ月毎に条件面とともに契約更新を行います(時給等)。学業や進路により継続できない場合を除き、できるだけ長く(数ヶ月~数年)といった期間で育成していきます。長く勤められるほど優秀な人材であり、会社の成長とともにベネフィットが多くなります。

      Q: 性別とか、国籍、年齢については?
      A: メディア事業部については日本語を書くスキルが十分であれば歓迎です。国籍や居住地、本名/実名については考慮しません。

      Q: 障害者手帳を持っています
      A: 障害者手帳を持っているかどうかについては条件ではなく配慮します。例えば疲れやすい、集中力が続かないといった特性がご自身でコントロールできるように配慮します。

      Q: なぜ応募に X(Twitter)アカウントが必要なの?
      A: 社会とのコミュニケーションを重視しているためです。呼吸をするようにSNSを使いこなしている人を歓迎します。もちろんメールでのご応募も受け付けていますが、まずは @AICUai での発信に向けて、これをより良くしていく方法を開拓していく人材を期待しています。

      Q: 深夜が逆転していますが働けますか?
      A: 学生インターンの場合は「学業第一」という方針があり、昼間の学生さんの場合はおすすめしませんが、弊社は日米にオフィスがあるため海外大学などの場合は調整可能です。

      Q: 副業ですが可能ですか?
      A: 本育成プログラムは基本的にはフルタイムの学生(高校生、高専生、大学生、大学院生、留学生)を対象としており、職業がある方はご遠慮願います。

      Q: 卒業間近ですがエントリーできますか?
      A: いろいろな経緯によってそのような状況にあると推察します。まずはエントリーをどうぞ。卒業するつもりがあるかどうか、などもお聞きします。

      Q: 社会人学生ですが応募できますか?
      A: どのような社会人学生かにもよりますのでまずは応募してみてください。最優先ではありませんが、十分な時間が捻出できる、本業とコンフリクトしない、といった条件があります。例えば主婦の方でハローワークなどの訓練事業やスクールなどの受講生なども考慮の対象とします。

      Q: 職業ライターとして1件あたりで報酬がほしい
      A: 学生さんの場合はいったん本プログラムで育成期間を持ち、スキル認定によってプロライターに移行します。もともとプロの方やある程度のスキルが見込まれる方は業務委託でのご参加をご検討お願い致します。NDAや取引先登録といった情報はこちらになります。 https://corp.aicu.ai/

      Q: ブログのライターの仕事しかないの?
      A: (会社説明資料を読んでいただくと)AICU mediaには本ブログ以外にもプロフェッショナル向けの書籍やワークショップ開発など多くの新規事業があり、本募集におけるライターさん育成とはまた異なった調査や執筆、開発活動に従事していただいております。基本的にブログが書ける人は次のステージに進行していただくという計画になっております。

      Q: クリエイターとして活動していきたいのですが両立できますか?
      A: 弊社は「つくるひとをつくる」がビジョンにある会社なので、両立するための方法を探っていきます。歓迎です。

      Q: 業務的な製作物の著作権の取り扱いは?
      A: 契約上の業務内容にもよりますが、依頼されて業務として執筆する著作物は基本的に会社(AICU Inc.)の帰属になります。また協力会社に委託された業務の場合は条件が異なります。依頼されていない場合の著作物の利用は、業務外のクリエイティブであり、著作権者は「譲渡ではなく永続的なライセンス、著作者人格権は主張しない」という条件で解決することが多いと思います。

      Q: 独自のブログやオープンソース活動には参加できますか?
      A: Yesです、ただし事前の確認が必要です。ブログ等の公開ドキュメントが多く、それに付随したソースコードなどを GitHubで公開 するようなケースも想定されます。ライセンス等を記載しないブログの場合など、比較的多くの場合で許可を出しています。ただし弊社及び関連の取引先の守秘義務は守っていただきますので、そのあたりのタイミングにはご注意ください。

      Q: 守秘義務ってなんですか?
      A: Non-Disclosure Agreement(NDA)という機密を守る、という基本的なルールです。基本守秘義務契約、秘密保持契約、機密保持契約といった訳ができますが、基本的に業務で知り得た秘密(個人情報、売上などのトレードシークレット、知的財産、営業上の戦略、まだ未開示の情報)などを機関が定めた方法で守ってください、というルールです。AICU社とワーカーさんのNDAに加えて、関わる業務によっては協力会社さんのNDAなども理解して遵守する必要があります。

      Q: AICUは日本の会社ですか?
      A: いいえ、米国デラウェア州の企業になります。詳しくは会社案内をご覧ください。

      Q: AICUはなんて読むの?何かの略なの?
      A: 「アイキュー」です。AICUがなんの略なのかは諸説あり、会社説明資料に書いてあったりします。

      Q: 英語スキルを活かせる仕事はありますか?
      A: あります!

      Q: 会社説明資料が英語で読めません
      A: 弊社は米国法人なので…しばらくお時間いただけると幸いです!

      Q: 契約書は英語ですか?
      A: Yes。DocuSignによる電子署名になります。もちろん本契約に移行する際に条件面などを日本語で確認していただきます。

      Q: 給与や教育以外に何かベネフィットはないの?
      A: 弊社の成長次第ですが、正社員や幹部候補としての育成に加えて、インターンや業務委託パートナーの方は弊社のパートナーワーカー専用Discordサーバーに参加できます。しらいはかせCEOをはじめとして、LLMのすごい人や、生成AIのすごい人が集まっています。またデジタルハリウッド大学大学院「 クリエイティブAIラボ 」との交流があり、交流会やイベント、技術書展に出展したりします。ちょうど次の技術書典に「自分のLoRAを愛でる本」という書籍の準備をしております。

      Q: 他になにかいいことはないの?
      A: 生成AIの大爆発の時代に、学生の期間を無駄にすることなく、その成長に身を粉にしてぶつけることが出来ます。同じような想いの人々と一緒に働くことで自分を成長させられる可能性があります。

      Q: いつからいつまで募集しているの?
      A: この記事のタイトルに有るように「2023年11月期」としています。応募は随時で、面接等も随時行っています。予定の候補者数に達した時点で、本募集は終了します(本記事自体は残すかもしれませんが)。

      皆様のご応募をお待ちしております!

      Originally published at https://note.com on November 3, 2023.

    4. タスクを分解してくれるゴブリンツールは”すべてのひと”にうれしいAIDXを実現

      タスクを分解してくれるゴブリンツールは”すべてのひと”にうれしいAIDXを実現

      先週、しらいはかせCEOのTwitterで紹介されて数十万バズとなったツイートがこちらから、ゴブリンツール「 goblin.tools 」というステキなAIDXを体験できるタスク管理ツールを紹介します。

      [Magic ToDo]:魔法のようにやること分解

      「同人誌のを入稿する」という日本語の親ToDoから「Magic ToDo」使うと
      ・内容を決定する
      ・内容に基づいて文章を書く
      ・文章を校正する
      ・レイアウトを作成する
      ・イラストや写真を挿入する
      ・タイトルと目次を作成する
      ・ページ番号を付ける
      ・用紙を選び、印刷する
      ・印刷物をバインドする
      ・入稿先に送る
      といった複雑かつ、日本の漫画同人誌や技術書典のような技術同人誌に共通な工程を見事に表現してくれています。魔法の杖🦯をクリックするとさらに細かなタスクに分解することができます。

      例えば「ゲームコンテストに応募する」といった例でも実験してみました。

      ゲームコンテストに応募するためにはゲームを完成させる必要がありますが、「 ゲームを完成させること 」がどんなに複雑で大変か、そしてゲームのプログラム開発よりもテストプレイがどんなに重要か、など複雑で見えづらい要素を分解してくれています。

      多少繰り返しになっていますが、実際こんな感じですよね。
      ドットを掴むと順番を変えることができます。

      辛さレベル🌶は、そのタスクがどれだけ難しいか、またはストレスに感じるかをヒントにします。辛ければ辛いほど、より多くのステップに分解しようとします。これは正確な指標ではなく、システムへのヒントです。
      トップレベルのタスクには、絵文字で示されたカテゴリーが自動的に割り当てられます。ボタンでリストを1つ以上のカテゴリーにフィルターすることができる。フィルターボタンはすべての完了したアイテムを隠すこともできます。一般的なタスクツール(編集、削除、サブタスクの追加、見積もり)は各アイテムのボタンの下にあります。左のアイコンはドラッグしてアイテムの並び替えができます。リスト全体の追加アクションはその下にあります。デバイス間の同期、エクスポートオプション、アンドゥとリドゥ、バルクアクションなどがあります。

      Helpより

      Goblin.tools には他にも以下のようなツールが揃っています

      • [MagicToDo] 魔法のToDo:やるべきことを分解
      • [Formalizer] フォーマライザー:言いづらいことをより丁寧な文体で
      • [The Judge] 裁判官:空気が読めなかったのかどうかを判定
      • [Estimator] どのくらい時間がかかるか見積もります
      • [Compiler] 頭の中のモヤモヤをタスクリストにコンパイルする
      • [The Chef] 食材や食事制限からレシピを作成
        goblin.tools は、小規模でシンプルなシングルタスク ツールのコレクションであり、主に neurodivergent ※の人々が圧倒的なタスクや困難を感じるタスクを支援するように設計されています。

      Formalizer:言いづらいことをより丁寧な文体で

      言いづらいことを言わねばならない、そんなときによりフォーマルな文体で書き直してくれます。🌶の個数で表現してくれるのもかわいい。

      「提示された契約書の内容が先方が有利すぎて、我々が合意する利点が見つからない」
      これをよりプロフェッショナルに🌶🌶🌶🌶🌶

      「提示された契約書の内容は、相手方に大きな利益をもたらす一方で、わたしたちにとって合意するメリットを見出すことが困難です。」

      The Judge:空気が読めなかったのかどうかを判定

      原文では「Am I misreading the tone of this?」と書かれていますが、「私の読み違いだろうか?」と直訳するよりも、「tone」つまり語調や感情といった要素がどの程度含まれているのかを冷静に判定してくれます。

      「正直、あの金額の見積書でドン引きして一旦凍結になりました。」
      →「提供されたテキストは感情的な表現であり、金額の見積もりに関して驚愕や不快感を抱いていることが伺えます。」

      感情や語調を読むことで、相手がロジックとして伝えている要素とそれ以外の要素を分離して理解することを助けてくれます。
      「怒られたり怒鳴られたり、何か勘違いしているのでは?」という時に役立ちます。もしくは相手の空気を読みすぎな人にとっても、少しだけ安心できるツールになると思います。
      [+]ボタンを押すと、その返信についてもジャッジできます。

      B:ご指摘ありがとうございます。凍結とのことですが、いくらぐらいでしたらお話を訊いていただけそうでしょうか?

      Estimator:どのくらい時間がかかるか見積もり

      同人誌の原稿を入稿するには1週間から1カ月かかるそうです…!

      Magic Todoアイテムでも利用できます。

      Magic ToDoで右側の「Estimate」をクリックしてしばらく待ちます

      「ゲームコンテストに応募する」…は53日と13時間かかるそうです!

      なお最大のToDoは「ゲームのテストプレイを繰り返し修正や改良を行う」で21日17時間、
      そのうち「バグや不具合の修正や改良を行う」が14日でした。
      なお「ゲームを完成させる」は3日です。奥深い。

      Compiler:頭の中のモヤモヤをタスクリストにコンパイルする

      ブレインダンプ(braindump)を訳す方法がなかったのですが「アタマの中のモヤモヤ」とさせていただきました。ちょっと実験してみます。

      「誰も作ったことがないようなゲームを開発して、ゲームコンテストに応募して華々しく優勝してモテる」→①ゲームを開発する②ゲームコンテストに応募する③優勝する④モテる

      もっとモヤモヤした課題を与えてみます。

      「海賊王に、俺はなる」→「Becoming the Pirate King」
      ちょっとダイレクトすぎました。

      ちょっと難しい課題にしてみます。

      いい大学に入って会社に就職して幸せになる、そのために大学に受かる、いま目の前にある問題を解かねばならない

      こんな結果が出てきました。

      入る大学に受かる
      会社に就職する
      幸せになる

      ・入ることのできるいい大学を見つける
      ・志望する大学に合格する
      ・会社を見つけて就職する
      ・幸せになる

      何度か気に入ったタスクが出るまでガチャを回してみましょうね!

      念のため、ちょっとおかしいモヤモヤを突っ込んでみます。

      卒論指導の先生はパワハラ、俺は死ぬしかないんだ大学をやめる死ぬ。

      (あえてロジックがおかしい感じにしてみます)

      それぞれの要素自体はファクトとして独立していますね。
      ChatGPTをバックエンドに使っているにようですが、けっこうきな臭い話題についても扱ってくれている点が気になります。
      これを「Send result to the Magic Todo」ボタンを押してブレイクダウンしてみます。

      まあ人はいずれ死ぬしかないんですが…
      大学をやめるのにだいたい2年と63日かかるそうです
      卒論指導の先生のパワハラを対処するのにかかる日数はだいたい14日と20時間ぐらいです

      気になる「俺は死ぬしかないんだ」はこんな感じでした。

      ちなみに何回やっても日本語の誤りを指摘されました…

      The Chef:食材や食事制限からレシピを作成

      食材や食事制限から
      ここにどのような食材があるか書いてください!また、食事制限、分量、器具、時間など、シェフに配慮してほしいことを何でも書いてください。

      「バナナと卵とお米。糖尿病に気遣いたい。」
      でました!

      料理名: バナナエッグカップ

      サービングサイズ: 2人分

      材料:
      – バナナ: 2本
      – 卵: 4個
      – お米: 1/4カップ (乾燥状態)

      調理手順:
      1. オーブンを180度に予熱します。
      2. バナナを皮を剥いてボウルに入れ、フォークでよくつぶします。
      3. 卵をバナナのボウルに加え、よく混ぜます。
      4. お米を乾燥させた状態でボウルに加え、再びよく混ぜ合わせます。
      5. マフィンカップに混ぜたバナナエッグカップの生地を均等に分けて流し込みます。
      6. オーブンで約15–20分焼きます。焼き時間はカップの大きさやオーブンの性能によって異なる場合がありますので、中心部がしっかりと固まるまで焼いてください。
      7. 焼き上がったら、完全に冷ましてからお楽しみください。

      メートル法の材料:
      – バナナ: 2本
      – 卵: 4個
      – お米: 60ml (乾燥状態)

      インペリアル法の材料:
      – バナナ: 2本
      – 卵: 4個
      – お米: 1/4カップ (乾燥状態)

      ToDo化して時間を見積もることもできますのでやってみます。

      3時間もかかるのか…そりゃそうだな

      ちょっと朝ごはんには間に合わなさそう。
      バナナと卵とお米。糖尿病に気遣いたい。朝ごはんなので手早くお願いしたい。一人分でいい。」としてみます。

      料理名:バナナオートミールパンケーキ
      サービングサイズ:1人分
      材料(メートル法):
      – バナナ:1本(中サイズ)
      – 卵:1個
      – お米(未炊飯):40g
      – オートミール:30g
      – 低脂肪乳または豆乳:100ml
      – ステビアまたは他の低カロリー甘味料:お好みで適量
      – シナモンパウダー:お好みで適量
      材料(インペリアル法):
      – バナナ:1本(中サイズ)
      – 卵:1個
      – お米(未炊飯):1.4オンス
      – オートミール:1オンス
      – 低脂肪乳または豆乳:3.4液量オンス
      – ステビアまたは他の低カロリー甘味料:お好みで適量
      – シナモンパウダー:お好みで適量
      調理手順:
      1. バナナをフォークなどでつぶし、ボウルに移す。
      2. 卵をバナナの上に割り入れ、よく混ぜ合わせる。
      3. お米とオートミールをバナナと卵の混合物に加え、さらによく混ぜ合わせる。
      4. 低脂肪乳または豆乳を徐々に加えながら、さらによく混ぜる。
      5. ステビアまたは他の低カロリー甘味料を適量加え、シナモンパウダーもお好みで加えてよく混ぜる。
      6. フライパンを中火にかけ、少量のオイルを敷く。パンケーキの生地を適当な大きさに流し入れる。
      7. パンケーキの表面に小さな気泡ができ、生地が少し固まってきたら(約2分程度)、裏返してもう1分程度焼く。裏返す際は注意して行いましょう。
      8. 全てのパンケーキを同様に焼き上げる。
      9. バナナオートミールパンケーキを温かい状態でプレートに盛り付け、お好みでシナモンパウダーや切ったバナナをトッピングして完成です。

      このレシピは、糖尿病の方にやさしい低GI(血糖上昇指数)で栄養価の高い朝食オプションです。オートミールとお米の組み合わせにより、食物繊維と栄養素が取り入れられます。バナナは自然の甘みを提供し、低脂肪乳または豆乳は牛乳よりも低い糖分を含んでいます。ステビアや他の低カロリー甘味料を使用することで、甘さを加えることができます。

      ToDoにして、時間を見積もってみました!

      まあでもそんなにかからない気もする(甘い?)

      個々のステップでの時間の正確さには課題が残りそうです。実際の工程のなかで手抜きをしてもいいし、最後までの道筋がある程度示されているのはいいですね!

      クラウドサービスとしての利用

      公式のAboutに AICU mediaとしての見解を加えて解説します。

      Goblin.tools はベルギーのクラウド開発者 Bram De Buyserさんが開発運営しているツールです。モバイル版もあります。Apple iOS版が 0.99USDAndroid版が150円です。

      ほとんどのツールは、目的を達成するためにバックエンドで AI テクノロジーを使用しています。現在、これには OpenAI のモデルが含まれています。「ツールとバックエンドが改善されるにつれて、オープンソースの代替手段に移行する」とのことです。

      すっごいお金かかっちゃうはずなんですが、ありがたい話ですね!

      認証情報を入力すると、デバイス間でToDoリストを同期することができます。新しいデバイスで同期を有効にする前に、バックアップを取ることをお勧めします。リストはユーザー名とパスワードで暗号化されます。管理者やあなたの認証情報を知らない人がリストを見たり、復号化したりすることはできません。

      同期には数秒かかりますが、もしかして小規模なチームで利用する場合なんかも便利かもしれませんね。

      シェアボタンから .goblin 形式(JSON形式)で保存することもできます

      注意事項として、

      使用される AI モデルは汎用モデルであるため、出力の精度は異なる場合があります。どのツールからも返されるものは何も真実の記述として解釈されるべきではなく、推測にすぎません。得られた結果が妥当であるかどうかは、ご自身の知識と経験に基づいて判断してください。
      免責事項: goblin.tools、Skyhook、および Bram De Buyser は、結果やその使用方法について責任を負いません。
      goblin.tools は、このページで言及されているもの以外の Web サイトやアプリと提携したり、推奨したりするものではありません。

      しらいはかせの一言解説:ニューロダイバージェントとは?

      しらいはかせに紹介されたこのツールですが、大好評ですね。
      でもアプリのタグライン(1行解説)には「Smart tools for the neurospicy」と書かれています。nuerospicyとはどんな意味なんでしょうか。

      Wikipediaによると「neurospicy」とは

      語源
      neurodivergent + spicyの合成語。表面分析では、neuro- + spicy。
      形容詞
      ニューロスパイシー
      (新造語、俗語、かわいらしい、ユーモラスな)神経異端者。[2017-]

      使用上の注意
      この言葉を幼児化すると考える人もいれば、かわいらしい、あるいは中立的だと考える人もいる。

      neurospicy

      Neurodiversity/neurodivergent とは
      精神機能にばらつきのある人々を表す非医学的な包括的用語であり、自閉症スペクトラム障害(ASD)や注意欠陥・多動性障害(ADHD)などの神経学的または発達的な状態を含む人々のことだそうです。

      注意欠陥、というと生きづらい気持ちになりますが、こういったAIによるサポート技術は、お年寄りや若者、他人の感情に左右されやすい人や反応が薄い人などすべての人々の助けになる技術ですね。

      AICU mediaは、広くクリエイティブな方々をAIをより使いこなすことで温めていくようなメディアを目指しています。
      クリエイティブな生き方って社会との接点で生きづらい気持ちになることは多いですよね。
      すべての人々がこんなツールで、もっと楽しく、なめらかに生きられるといいなと思います。

      今後もこんなツールがあったら積極的に深掘りして
      応援していきたいと思います!

      追記:作者のBram De Buyserさんとコミュニケーションが取れましたのでインタビューです

      “Why it is free?”なぜ無料なの?

      Bram De Buyser:その答えは、このツールは安価なAI APIとしてGPT 3.5を使用するように構築されており、ホストするのに非常に軽量です。そのため、goblin toolsの運営にかかる月々のコストは、利用者の多さに対して思ったほどかかりません! アンドロイドとアップルでのアプリの売り上げで、月々のコストをカバーしています。)

      アプリを買う余裕がない人や、アプリにお金を払えない人のために、私は絶対にツールを無料にしたかったのです。

      素晴らしいお話ですね!感動したみなさんはアプリを購入して応援しましょう!

      Google Play
      https://play.google.com/store/apps/details?id=com.goblintools&pli=1

      App Store
      https://apps.apple.com/us/app/goblin-tools/id6449003064

      以上、AICU mediaがお送りしました

      Originally published at https://note.com on November 3, 2023.

    5. 「米大統領令、生成AIを初規制 公開前に安全評価義務づけ」その実際は

      「米大統領令、生成AIを初規制 公開前に安全評価義務づけ」その実際は

      日経新聞において以下の記事が掲載されました。

      米大統領令、生成AIを初規制 公開前に安全評価義務づけ — 日本経済新聞
      バイデン米大統領は30日、人工知能(AI)の安全性の確保や技術革新を図るための大統領令を発令した。開発企業はサービス提供やwww.nikkei.com

      バイデン米大統領は30日、人工知能(AI)の安全性の確保や技術革新を図るための大統領令を発令した。開発企業はサービス提供や利用開始前に、政府による安全性の評価を受けるよう義務付ける。法的拘束力を持つAI規制を米国で初めて導入する。 日本経済新聞 2023年10月30日

      このような法的拘束力をもつ規制が導入されるのであれば、米国法人であるAICU社や日本のChatGPTのユーザなどにも影響が及ぶ可能性がありそうです。
      実際のところはどのような内容なのでしょうか、NewYorkTimesの記事を調査してみました。

      Biden to Issue First Regulations on Artificial Intelligence Systems
      nytimes.com

      バイデン大統領は月曜日、人工知能システムに関する連邦政府初の規制の概要を示す大統領令を発表。その中には、最先端の人工知能製品が生物兵器や核兵器の製造に使用されないことを保証するためのテストを実施し、その結果を連邦政府に報告するという要件が含まれている。
      過去数年間のA.I.の飛躍的な進歩がもたらした潜在的なリスクからアメリカ人を守るための、最も包括的な政府の行動として説明される予定である。この規制には、そのようなシステムによって開発された写真、ビデオ、音声には、AIによるものであることを明確にするために透かしを入れることを推奨する内容が含まれるが、義務ではない。これは、特に2024年の大統領選挙が加速するにつれて、AIによって「ディープフェイク」や説得力のある偽情報の作成がはるかに容易になるという懸念が高まっていることを反映している。
      米国は最近、ChatGPTのようなプログラムを質問に対する回答や作業のスピードアップに効果的なものにしている、いわゆる大規模言語モデルの生産能力を低下させるため、中国への高性能チップの輸出を制限した。同様に、新たな規制は、クラウドサービスを運営する企業に対し、外国人顧客について政府に報告することを義務付ける。
      バイデン氏の命令は、英国のリシ・スナック首相が主催する、AIの安全性に関する世界のリーダーたちの集まりの数日前に出される。AI規制の問題では、米国は新たな法律の草案を作成している。欧州連合(EU)や、規制案を発表している中国やイスラエルなどの他の国々に遅れをとっている。
      昨年、AIを搭載したチャットボット「ChatGPT」が爆発的な人気を博して以来、議員や世界の規制当局は、人工知能がどのように仕事を変え、偽情報を広め、独自の知能を発達させる可能性があるかに取り組んできた。
      「バイデン大統領は、AIの安全性、セキュリティ、信頼性に関して、世界のどの政府よりも強力な一連の行動を展開している」と、ホワイトハウスのブルース・リード副長官は語った。「これは、AIの利点を活用し、リスクを軽減するために、あらゆる面であらゆることを行う積極的な戦略の次のステップである。
      (中略)
      この規制はまた、安全性、セキュリティ、消費者保護に関する初めての基準を設定することで、テクノロジー部門に影響を与えることを意図している。財布の紐の力を使うことで、ホワイトハウスの連邦政府機関への指令は、政府の顧客によって設定された基準を遵守するよう企業に強制することを目的としている。
      「これは重要な第一歩であり、重要なことは、大統領令は規範を定めるということです」と、ジョージタウン大学安全保障・新興技術センターのシニア・リサーチ・アナリスト、ローレン・カーンは言う。
      この大統領令は、保健福祉省やその他の省庁に対し、AIの使用に関する明確な安全基準を作り、AIツールの購入を容易にするためのシステムを合理化するよう指示している。労働省と国家経済会議に対しては、AIが労働市場に与える影響を調査し、規制の可能性を検討するよう命じている。また、AIツールに使用されているアルゴリズムによる差別を防ぐため、家主、政府請負業者、連邦給付プログラムに対して明確なガイダンスを提供するよう各機関に求めている。
      連邦取引委員会のリナ・カーン委員長はすでに、A.I.の監視役としてより積極的に行動する意向を示している。しかし、ホワイトハウスの権限は限られており、指令の中には強制力のないものもある。例えば、消費者の個人データを保護するための内部ガイドラインを強化するよう各機関に求めているが、ホワイトハウスはデータ保護を完全に確保するためにはプライバシー保護法の必要性も認めている。イノベーションを奨励し、競争を強化するため、ホワイトハウスはF.T.C.に対し、消費者保護と独占禁止法違反の監視役としての役割を強化するよう要請する。しかし、ホワイトハウスには、独立機関であるFTCに規制を作るよう指示する権限はない。
      貿易委員会のリナ・カーン委員長はすでに、AIの監視役としてより積極的に行動する意向を示している。7月、同委員会はChatGPTのメーカーであるOpenAIに対し、消費者のプライバシー侵害の可能性と、個人に関する虚偽の情報を広めたという告発を理由に調査を開始した。
      「これらのツールは斬新ではあるが、既存の規則から免除されるものではない。FTCは、この新しい市場であっても、我々が管理する責任を負う法律を強力に執行する」と、カーン氏は5月にニューヨーク・タイムズ紙に寄稿した。
      テック業界は規制を支持すると述べているが、政府による監視のレベルについては各社で意見が分かれている。マイクロソフト、OpenAI、グーグル、メタは、第三者にシステムの脆弱性をストレステストしてもらうなど、自主的な安全性とセキュリティの約束に合意した15社のうちの1社である。
      バイデン氏は、AIが医療や気候変動研究に役立つ機会を支援する一方で、悪用から守るためのガードレールを設ける規制を求めた。彼は、AIのリーダーシップをめぐる世界的な競争において、規制と米国企業への支援のバランスをとる必要性を強調している。この目的のため、今回の大統領令は、高度な技術を持つ移民や、AIの専門知識を持つ非移民が米国で就学・就労するためのビザ手続きを合理化するよう、各省庁に指示している。

      米国オフィスの Koji に訊いてみました。

      Koji ― 日経の記事を見ると「アメリカ国内産業を規制する」というふうにしか見えませんでしたが、NewYorkTimes(NYT)を見る限りでは、ちょっと違うかなと。(もっとも、情報が少なすぎてどこまでやるのかは不明ですが)以下がポイントではないかと読んでおります。

      ・米国は新たな法律の草案を作成している。「欧州連合(EU)や、規制案を発表している中国やイスラエルなどの他の国々に遅れをとっている」という表現があるがNYTが「米国内の遅れ」という論調を煽っている。

      ・大統領選挙が近いため、ディープフェイクを警戒している

      ・大統領による宣言は直接の権限はないが「連邦政府の財布の紐」の力を使うことで、政府の顧客が基準を遵守するよう企業に強制することを目的としている。

      ・一般向けサービスへの影響は「クラウド」に関する言及があり、これは本来であればその企業が所属する州法や利用規約によって定められるものであり、急激な「国としての対応」という捉え方をするのは危ない。

      要素としてはどんな要素が言及されているか?

      兵器化のテストおよび報告
      高度なAI企業は、それが生物学的または核兵器の製造に使用できないことを確認するための徹底的なテストを行い、その結果を連邦政府に報告する必要があるとのこと。対象は、LLMとかエンジンを開発企業ということではないかと。日本企業だとIoT機器、ドローンの兵器転用などは注意すべき要素になるかもしれません。

      輸出制限
      特定の国への先進的なAI技術の輸出が制限される可能性がある。上記の記事にあった国名は明確に標的にされており、グローバルなAI利用サービス提供社は、そういう国と取引をしないという規制も将来的に設定される可能性がある。

      クラウドサービスの開示
      クラウドサービスを提供する企業は、外国の顧客に関する情報を政府に報告する必要がある。これもどこまでが対象になるのかこの記事では不明ですが、上記の輸出制限と関連して、各ビッグテックに対する税金の扱いや利用規約などで制限されていく可能性があります。日本の場合は、例えば生成AIを利用している反社会的勢力などが直接影響を受ける可能性がありますね。

      AI生成コンテンツのウォーターマーキング
      (必須ではないということですが)AIシステムによって生成された写真、ビデオ、およびオーディオにはAIによって作成されたことを示すウォーターマークを付けることが推奨されるとのことです。研究レベルではたくさんの技術が提案されており、AdobeやMicrosoftのような一社だけではなく、オープンソースなどで標準化が模索されています。

      未来の規制への適応
      連邦政府がAIシステムに対する明確な安全基準およびその他の規制を開発するにつれて、企業はこれらの変化に適応し、遵守していることを確認する必要が出てくるでしょう。具体的に何をさせられるのかは不明ですが、指針が出て、規制対応ということになれば、これは対応するしかなくなります。

      差別の排除
      AIツールで使用されるアルゴリズムによって、差別(discrimination)を防ぐための明確な指針が求められるとのこと。例えば画像生成AIで「犯罪者」を生成した場合にどんな人種が出てくるか、といった例でしょうか。これは法的規制に関わらず注意が必要な事項ですが、非常に難しい要素を含んでいます。

      いずれもOpenAIとかGoogle、StabilityAIといった生成AIのエンジンを提供する企業が、主たる規制の対象になるのではないかと想像します。一方、それを活用する企業に対しては、どこまで規制するのかは不明です。具体的な指針が出てくるのを待つしかない状態です。これは大統領令なので、議会で取り消し(上書き)されたり、裁判所で無効にされる可能性はあります。この記事の読みどころとしては「議会の動きよりは早い」という点が重要。つまり、規制と言いながらも、国内産業を抑え込む、という狙いではない、と見ています。
      なぜ今のタイミングなのかという話ですね。むしろ大統領選挙が近いため、ディープフェイクを警戒している可能性も読み取れます。安全保障面とか国家保護の色合いが濃く、読み手に警戒を発しているようにも読み取れます。具体的な国名として中国、イスラエル、EUを挙げて、アメリカの競争力を高めることを狙っているように見えます。

      日本から見るとアメリカ一強にみえる生成AIですが、覇権を争っている中国や、中東、そしてEUの動向に対して、ビッグテックを政府調達を通して、手綱をつけようとしているということかもしれませんね。

      Kojiさんありがとうございました。
      AICU社では今後も、米国からみた生成AIの社会面を扱っていきたいと思います!

    6. メディア事業部 noteで活動開始

      メディア事業部 noteで活動開始

      日本で最も生成AI関係の情報が集まるブログメディア「note」で、メディア事業部(AICU media)のブログ展開を開始いたしました。ぜひフォロー、購読、応援をよろしくお願いいたします。

      AICU media誕生です

      AICUメディアコミュニケーション事業部が始動しました。 AICU media誕生です。 AICU MediaはAIを使って人々の創造性を高めるツールを開発している会社です。 現在は画像生成AI「Stable Diffusion」に関する書籍の執筆や、AI教育にも取り組んでいます。

      https://note.com/aicu/n/n89184d379569

      AICUメディアコミュニケーション事業部が始動しました

      はじめまして Kotone です。AICU社メディアコミュニケーション事業部より note での情報発信を担当します!

      AICU media (アイキュー・メディア)って呼んでください

      AICU Inc.とは

      AICUとは、世界初の Stable Diffusion に関する書籍を書いた白井暁彦博士(aka しらいはかせ @ o_ob)らによる「創る人を創る」をビジョンに活動しているシリコンバレーのベンチャー企業です。

      メタバース開拓日誌
      https://note.com/o_ob/m/mde97459aa5eb

      クリエイティブなAIDX (AI Driven user eXperience)とコミュニケーションAIによって、人間の可能性を広げる「創造する人」を生み出す活動として、放送、アニメ、メディア、Webなどのプロフェッショナルに向けてAIDXを実施し、生成AIを活用した新しいコミュニケーション技術を開発したり、AIクリエイティブワークショップを提供しています。

      公式サイト https://aicu.ai/

      日本語コーポレートブログ https://corp.aicu.ai/ja

      公式YouTube https://www.youtube.com/@AICUai

      公式X(Twitter) @AICUai

      そしてこちらの note です https://note.com/aicu/

      皆様フォローよろしくお願いいたします!

      3つの事業部

      2023年10月現在、AICUは3つの事業部(ビジネスユニット)で活動しています。
      詳細はCFOの Koji Tokudaさんによる コーポレートブログ に情報があります。

      https://corp.aicu.ai/ja/aicu-inc-ir

      1つ目は Augmented Media Technology Business Unit [ 拡張メディア技術事業部] です。ここでは米国市場の大型ディスプレイやハードウェア関連産業と連携して、AIを活用したインタラクション・コミュニケーションの開発などを行っています。

      この分野は米国市場が好調のようです
      「The Sphere」というラスベガスのドームシアターにおける「U2」のライブの様子を御覧ください。
      https://www.youtube.com/watch?v=UEQdArsylN4
      LEDウォールディスプレイの大規模施設化は、もはや「HMD不要の没入体験」となりつつあります。
      ハードウェア産業だけでなく、施設、イベント運営、コンテンツ産業に大きな影響を与えています。

      この分野に関しては、AICU社AMT事業部は技術や知財開発が中心で、ハードウェアビジネスは別に米国の映像制作企業とともに Hidden Pixel Technology Inc. という米国の会社で活動しているそうです。

      https://note.com/o_ob/n/nf78327a6855f

      2つ目に AI Driven User Experience Laboratory [ AIDX Lab] です。
      AIならではユーザ体験、コミュニケーションAI、企業向けのプロトタイプ開発やコンサルテーションやPoC開発、[ AICuty]の開発もこちらが担当しています。

      https://corp.aicu.ai/aicuty

      コミュニケーションAIを軸に、AI産業のインタフェースとなる設計で、様々なAI産業やクリエイターのUGCに貢献できるような設計を進めています。
      現在α版で、個々のユーザが感情を込めたアニメーションで振る舞うチャットボットをカスタマイズ、多言語でコミュニケーションできるようになっています。

      これらをAICUでは AIDX AI Driven user eXperience と呼んでいます(実際には「話を聞いてみると結局は”AIによるDX案件”が多いから…」ってCEOは言ってました)。
      AIDX Labは主にメタバースオフィスでインターンやオンライン上の実力あるクリエイターが集まって、わいわい開発しています。

      3つ目が、 Media Communication Business Unit [ メディアコミュニケーション事業部] です。ブログメディア、書籍や映像メディア、クリエイティブワークショップやハッカソンの開発、AI関連企業のAdvocate事業、デベロッパーリレーション、テクニカルライティングやリサーチも担当しています。

      AICU INC 2023-Oct

      なんだか面白そうだけど難しそうですね!

      今回は Kotoneが担当する AICU mediaで現在取り組んでいるプロジェクトを「チラ見せ」させていただきます。

      ・最速の Stable Diffusion の書籍発売から1年…!

      『AIとコラボして神絵師になる~論文から読み解く Stable Diffusion』

      https://ivtv.page.link/aisd

      2022年10月28日にリリースされ、今も注目され続けている画像生成AI、『Stable Diffusion』のことはほとんどの方がご存じだと思います。その StableDiffusion(以下SD)がリリースされてからわずか2か月後、世界初の書籍*となり、ロングセラーとなりました。

      * StabilityAI社の方々が『これは世界初かも』言っていたので、「世界初の紙で出版された商業書籍での解説」としていますが、厳密には上記の同人誌「 グリー技術書典部誌 2022 年秋号」、上記の書籍と同じインプレスさん発行・852話さんの「Artificial Images Midjourney / Stable DiffusionによるAIアートコレクション」があるので諸説あります。
      (しらいはかせCEOによると、リリースから技術書典13での同人誌までが1カ月、その間852話さんと同じ編集者と並走しながら走りきって「2カ月で2冊、ほぼ世界初の書籍を執筆しちゃったらしい」という状況だそうです)

      https://amzn.to/45B6I4m

      現在、AICU media ではこの書籍の続編にあたるような書籍の執筆をいくつか進行させております……が、この時点では伏せさせてください…!
      しらいはかせCEO曰く『次の技術書典15までにはなんとかお知らせしたい!』と申しております。

      ・窓の杜でのAI記事「生成AIストリーム」連載

      インプレスさんが運営しているニュースサイト『窓の杜』にて、生成AIに関する様々な議論や応用方法についての記事を『生成AIストリーム』というシリーズで連載させていただいております。
      より幅広い読者を想定して、ツールの使い方や倫理面について長期にわたりミクロでマクロな視点で執筆しております。
      https://forest.watch.impress.co.jp/docs/serial/aistream/index.html

      カバーイラストも毎回生成AIで製作されています

      Yahooニュースでも読むことができます

      https://news.yahoo.co.jp/articles/db342ef5c1bca97ec09a3403ba4ceff3ff00dd66

      AICU mediaのプロダクションとしては、しらいはかせCEOのアシストをすべく、プロダクションやリサーチなどを担当しています。

      クリエイティブAIアドボケート活動

      アドボケート(advocate)とは、IT企業やベンダー側だけでなく開発者やクリエイターさん側に立った解説やサンプルを作るお仕事です。
      有名なところでは マイクロソフトの ちょまどさん こと 千代田まどかさん は「 クラウド デベロッパー アドボケイト」ですね!憧れます!

      生成AIの分野は進化も速く、倫理面やクリエイターの根幹に関わる要素が多く、(瞬間的なバズや企業のプレスリリースではなく…)第三者的に品質高く信頼高いまとまった記事や情報を発信する「生成AIの科学コミュニケーターが必要である」という視点で活動されています。もともと日本科学未来館で 科学コミュニケーター養成事業を経験したCEOならではの博士(工学@東京工業大学総合理工学研究科知能システム科学)としてのスキルと、エンジニアやデータサイエンティストだけでなく、今後求められる「サービスとしての生成AIの価値を明文化する」という活動になります。
      日本語のブログ執筆以外に、海外企業の社内向けのレポートやサービスのレビューなどを担当することもあります。これについても機会がありましたら紹介していきたいと思います!

      ・クリエイティブAI分野での人材育成・市場価値向上

      「創る人を創る」を長年活動の中心にしている しらいはかせCEOは現在、デジタルハリウッド大学大学院の客員教授でもありますが、実はさまざまな大学・高等教育機関での教育者としての経験も長い人物でもあります(東京工芸大学、東京工業大学、国際基督教大学、 神奈川工科大学、海外はフランスENSAM、米国CMU ETC他)。
      また企業ではグリーグループでGREE VR Studio LaboratoryというR&D組織を率いてたくさんの技術だけでなく優秀な人材を 育成してきました 。ゲームやインタラクティブ、メタバースやIP連携といった分野といった複雑でプロフェッショナルな知識が必要な分野であるデジタルコンテンツ分野での初学者をコンテンツ工学的なアプローチで総合的に、短期間で育成するプロフェッショナルでもあります。AIDXラボでの直接的なインターン活動だけでなく、今後は AICU mediaでの情報発信を通して、クリエイティブAI分野での人材育成や、倫理面の社会実装を通した解決、市場価値向上を活動されています。

      ・クリエイティブAIワークショップの開発

      上記のような「創る人を創る」活動をクリエイティブAIをプロフェッショナル向けのワークショップとして開発・展開しています。現在はまだクライアント企業の社内活動にコンサルティングをさせていただいている状態ですが、しらいはかせCEOが先駆開発している事例でも”最も難度が高いケース” として「障がい者向けのクリエイティブワークショップ」があります。

      神奈川県主催の「メタバースワークショップ」について開発している事例を紹介します。

      ともいきメタバース講習会(神奈川県)

      https://www.pref.kanagawa.jp/docs/m8u/meta_koshukai.html

      https://note.com/o_ob/n/n70f16eff83b8

      一見、福祉ボランティア活動のようにも見えますが、メタバースの活用や生成AIの活用を通して、クリエイティブで『創る人を創る』ために、すべての人が使える表現技術として、メタバースのソリューションカンパニー「 REALITY xr cloud株式会社」さんや県や当事者さん、他のスタッフさんらと協力しながら、単一の企業や自治体だけでは難しい開発やAIDXな社会実装を行っています。
      もともとはデジタルハリウッド大学の杉山学長( ALSにより、困難な状況にあります。また 学位授与式では直接祝辞を述べられております)をサポートする学内活動と大学院で「 クリエイティブAIラボ」の研究として行っていた活動、そしてご自身の両親や親戚など後期高齢者の介護やQoLなど様々な思いや経験が、生成AIの時代に置いて、企業や自治体から需要が明確になってきたというシードフェーズなのです。
      法的な側面は弁護士さんなど専門家と連携しつつ、倫理面や感情面は公共セクターと民間企業の活用事例が多く求められていく時代になることを見据えて、非常に泥くさいフィールドワークを通して開発を行っています。障がい者や子供むけのワークショップをベースに、企業内リスキリングなど需要は多く、今後AICU media事業部の開発力が求められていることを毎日感じております……!

      今後、この note ではこんな活動をします!

      さて、いろいろ盛り込みすぎてしまいましたが……!
      今後この note ではもっと軽い感じで以下のような活動をしていきたいと考えております。
      ・生成AI、特にクリエイティブ分野での使いこなしテクニック
      ・生成AI関連イベントレポート
      ・ワークショップ開発情報
      ・企業でのナイスな生成AIの活用事例のご紹介(投げ込み歓迎です)
      ・企業や自治体で出会った「こんなAI問題ありました」の共有
      ・クリエイティブAIに興味がある学生さんやAI転職希望などの応援情報
      そしてライターさんや科学コミュニケーターさん募集!です!!いっしょに盛り上げていきましょう!!

      オンラインやスポットでの活動、学生インターンも歓迎だそうです!
      現在は特にコンピュータサイエンス系のインターンの応募がLinkedInから出ています。
      https://bit.ly/AICU23Int

      ご感想や情報投げ込みなどは メール media [at] aicu.ai もしくは
      こちらのTwitter(X) https://twitter.com/AICUai までお寄せいただければ幸いです!
      もちろんフォローもお忘れなく
      よろしくおねがいします

      まだまだ新人気分が抜けない Kotoneがお送りしました!

      Originally published at https://note.com on October 19, 2023.