投稿者: media

  • シリコンバレーからみた生成AI — Stable Diffusionの重要性

    シリコンバレーからみた生成AI — Stable Diffusionの重要性

    AICUメディア事業部のKotoneです!
    最近LLMについての勉強を始めました。私が今力を入れている画像生成の根元にある技術なので、そもそもの基本的な考え方を知ることができ、とても興味深いです。

    さて、今回は当社CFOのKojiから、10月30日(月)から11月2日(木)にシリコンバレーで行われた「ODSC West(Open Data Science Conference)」というデータサイエンスのカンファレンスのレポートが届きました。
    Stable Diffusionに関するまとまった講演もあったとのことで、皆さんにご紹介したいと思います!


    10月30日(月)から11月2日(木)までODSC West(Open Data Science Conference)がシリコンバレーで実施されました。

    シリコンバレーでは生成AIがビジネスの中心と言ってよいほど、データサイエンスやAIに関するカンファレンスやミートアップはさまざまなものが開催されます。本カンファレンスは主に現場のエンジニア向けにフォーカスされており、ワークショップやチュートリアルが中心で、現場で開発に従事していると思われる若手エンジニアが多数参加していました。毎年この時期に開催されていますが、今回の特徴は、昨年夏から急激に盛り上がってきた生成AIについてのプレゼンやワークショップが多数行われたことでした。

    私自身これまでオンライン大学などでさまざまなAIやデータサイエンスの講義を受講してきましたが、生成AIに関してはこの1年の進歩が非常に早く,
    大学でのカリキュラムの整備がほとんど追いついてない状況です。一方、ODSCは、現場のシニアエンジニアがワークショップ形式で教えるスタイルが主体のため、最新の技術や手法を学ぶのに最も優れているカンファレンスの一つで、今年は特にとても楽しみにしていました。

    各人が自分のPCを動かしながら講演を聞いています

    今回のカンファレンスではStable Diffusionについてのプレゼンがありましたので、ご紹介したいと思います(但し、本件は初心者にも理解できるようにSandeep Singh氏による解説であり、Stability AI社の公式な見解に基づく講演内容ではないことをお含みおきください)。

    本件は、「Mastering Stable Diffusion」というテーマで、3つの講演内容で構成されていました。本レポートでは、1番目の「Embark on an Exciting Journey with Generative AI」についてご紹介したいと思います。
    プレゼンターは、Beans AI社におけるコンピュータビジョン部門の開発ヘッドであるSandeep Singh氏でした。なお、プレゼン資料の原稿はSandeepさんから直接いただいており、 ブログ記事で日本の読者向けにご紹介することも快諾を得ております。Sandeepさんありがとうございます!

    Stable Diffusion: A New Frontier for Text-to-Image Paradigm

    実際のスライド

    単にStable Diffusionの解説のみならず、生成AIの歴史から紐解いた内容で、とてもわかりやすく、興味深い内容でした。

    立ち見が多数出るほどの人気の内容でした。

    Stable Diffusionは、深層学習のテクニックを使って自動で画像を生成するものですが、単なる技術にとどまらず、知識、人間の興味、理解の探索などのシンフォニーである、というふうにSandeepさんは位置づけています。

    Stable Diffusionの技術の基盤となるDeep Learningですが、様々なコンセプトと技術があります。

    従来のAIは、データの分析から予測や意志決定を行うものですが、一方、生成AIは学習したパターンから何か新しいものを生み出すもので、従来型のAIを超えたものである、と位置づけています。そのためパラダイムシフトが生まれ、創造性を生む力を持つようになったということです。

    生成AIですが、テキスト(LLM、ChatGPT、GoogleBARD、Cohereなど)、画像・映像(Stable Diffusion、Dell-e2、Midjourneyなど)、音声(MusicLMなど)等があります。

    2014年あたりから生成AIのモデルが登場しはじめ、次第に複雑で高度なものに進化していきました。2020年以降、生成能力が人間を超えるものが登場し、専門家の間では話題となっておりました。さらには2022年には一般ユーザが簡単に利用できるレベルのものが登場し、世界中の注目を集めることになりました。

    画像生成の世界では、VAE、GAN、CLIP、GLIDEなどが次々と登場し、2022年夏頃にStableDiffusion、Dall-e2、Midjourney、Imagenなどが発表され、世間の認知度が一気に高まることになりました。

    Stable Diffusionの登場
    それでは、なぜStable Diffusionは注目すべきものなのでしょうか?それは、テキストからイメージを作ることができる驚異的な技術であることは言うまでもないことですが、Diffusion Model(拡散モデル)を使った世界初のオープンソースの技術であることです。元はと言えば、流体やガスの物理現象を応用したものです。同時期に登場したDalle2(OpenAI社)、Imagen(Google)なども類似の技術を使っているものと思われますが、残念ながら未公開です。

    Stable Diffusion: Why care?
    *Almost all Text-to-Image techniques are Inspired by This!
    *Poster Child of Text-to-Image Model.
    *First Open Source State of Art Diffusion Model.
    *Inspired by Physics of Fluids/Gases
    *Improved Image Reconstruction
    *Robustness to Variability, more resilient to changes in illumination, contrast
    *Enhanced Edge Preservation as in Image above.

    Stable Diffusionは何がすごいのか?

    • ほとんどのText-to-Imageテクニックはこれにインスパイアされている!
    • Text-to-Imageモデルの「わかりやすい姿」(Poster Child)
    • 初のオープンソースによる最先端の拡散モデル
    • 流体/気体の物理学にインスパイアされている
    • 画像再構成の改善
    • 変化に強く、照明やコントラストの変化に強い
    • エッジ保存を強化している

    2022年は、画像生成AIにとって驚異的な年となりました。OpenAIは4月にDalle2を発表し、5月にはGoogleがAmagenを、Midjorneyが7月に発表と、次々と高度なツールが発表されたのです。しかし、いずれも素晴らしいものではありましたが技術内容は未公開であったため、研究者やコミュニティによって評価を行うこと自体が困難でした。

    そして、2022年8月Stable Diffusionが登場しました。Stable Diffusionは世界初のオープンソースモデルであることから、多くの研究者や技術者から注目されました。単純で美しいコードによるDiffusionアプローチには、興奮が沸き起こりました。さらに重要なこととして、コモディティ化されたハードウエアで動かすことが可能、ということがわかり、世界中の多くの研究者や技術者、そして一般人までが一気に飛びついたのでした。

    ここから先の歴史についてはみなさんご存知のことも多いかと存じます。

    レポートは次回に続きます。


    生成AI(GenerativeAI)という言葉が世間で言われるようになったのはここ2、3年のことなので、2014年のAIというのは全く馴染みが無く、逆に新鮮に聞こえてしまいました。こうして振り返って見ると、とても短い期間に画像生成AIが広まっていったことが再確認できますね。

    Kotone&しらいはかせの感想

    Kotone:VAE、GAN、CLIPなどはStable Diffusionをさわっていると時々視界に入る単語ですね!
    はかせ:「 AIとコラボして神絵師になる 論文から読み解くStable Diffusion」で解説したつもりだったのですが、公開から1年、さらに俯瞰する時期が来ているかもしれませんね。
    Kotone:用語集助かります、整理して勉強していきたいと思います。
    はかせ:私は 東京工業大学 総合理工学研究科 知能システム科学 という専攻で博士を取得したのですが、当時は「知能システム」という分野は1970年代からサイバネティックス、ロボット・制御工学といった分野で研究されていました。もちろん2000年ごろにはすでに機械学習といった分野も存在し、研究室では強化学習、バックプロパゲーションなどをシミュレーションしたり、VRで体験できるようにしたり、ソフトウェアロボットにしたり、それを人間の脳から筋骨格系への信号と比較したり…といった研究です。制御となると目標とすべき正解やゴールがありますが、私の分野のようにエンタテインメント、アート、インタラクティブといった分野は定義も難しく、推論をするにも正解は何なのか、といったところで議論が終わる事が多かったです。

    講演は続きます。次回は Stable Diffusionの内部構造、仕組みについての解説になるそうです!

    Originally published at https://note.com on November 16, 2023.

  • OpenAI DevDayリリース詳細 日本語版

    OpenAI DevDayリリース詳細 日本語版

    2023年11月6日、OpenAI DevDayにて新モデルと開発者向け製品が発表されました。
    https://openai.com/blog/new-models-and-developer-products-announced-at-devday

    DevDayで発表されたモデルと開発者向け製品は主に以下のとおりです。
    以下、公式リリースをできるだけ丁寧に翻訳していきます。

    ・GPT-4Turboの128Kコンテキストと低価格化:
    より高性能で安価で、128Kのコンテキスト・ウィンドウをサポート
    ・新しいAssistants API:
    目標を持ち、モデルやツールを呼び出すことができる独自の支援AIアプリを開発者が簡単に構築できる
    ・GPT-4 Turbo with Vision
    ・DALL-E 3 API
    新しいマルチモーダル機能 視覚、画像作成(DALL-E 3)、音声合成(TTS)が本日午後1時(太平洋時間)から提供されます。

    GPT-4 Turbo 128Kコンテキスト

    OpenAIは今年3月にGPT-4の最初のバージョンをリリースし大きな反響を得ました。7月にGPT-4をすべての開発者が一般的に利用できるようになりましたが、本日、このモデルの次世代であるGPT-4 Turboのプレビューが公開されました。
    GPT-4 Turboはより高性能で、2023年4月までの世界情勢を把握しているようです。128kのコンテキスト・ウィンドウを持ち、300ページ以上のテキストを1つのプロンプトに収めることができます。GPT-4 Turboは、GPT-4と比較して、入力トークンで3倍安く、出力トークンで2倍安く提供されます。
    APIで「gpt-4–1106-preview」を渡すことにより、すべての有料開発者が試すことができます。

    関数呼び出し(function calling)の更新

    関数呼び出しは、アプリや外部APIの関数をモデルに記述し、モデルにそれらの関数を呼び出すための引数を含むJSONオブジェクトを出力するように賢く選択させることができます。1つのメッセージで複数の関数を呼び出す機能など、アップデートが本日リリースされました。
    例えば「車の窓を開けてエアコンを切る」といった複数のアクションを要求するメッセージを1回のリクエストで送ることができます。また関数呼び出し精度も向上しています。より正しい関数パラメータを返す可能性が高くなりました。

    命令追跡とJSONモードの改善

    GPT-4 Turboは、特定のフォーマット(「常にXMLで応答する」など)を生成するときなど、命令に注意深く従う必要があるタスクにおいて、これまでのモデルよりも優れたパフォーマンスを発揮するようになりました。モデルが有効なJSONで応答することを保証する新しい「 JSONモード 」をサポートしています。新しいAPIパラメータ「response_format」は、モデルが構文的に正しいJSONオブジェクトを生成するように出力を制約することを可能にします。JSONモードは、関数呼び出し以外でチャット完了APIでJSONを生成する開発者にとって便利と考えます。

    再現可能な出力とログ確率

    新しい「seed」パラメータは、モデルが一貫性のある補完を返すようにすることで再現可能な出力を可能にします。このベータ機能は、デバッグのためにリクエストを再生したり、より包括的な単体テストを書いたり、一般的にモデルの動作をより高度に制御したりするようなユースケースに便利です(OpenAI社内でこの機能をユニットテストに使用しており、 非常に貴重なものだと感じているそうです)。

    また、GPT-4 TurboとGPT-3.5 Turboによって生成された最も可能性の高い出力トークンのログ確率を返す機能を数週間以内に開始とのことです。

    更新されたGPT-3.5 Turbo

    GPT-4 Turboに加えて、デフォルトで16Kのコンテキスト・ウィンドウをサポートするGPT-3.5 Turboの新バージョンもリリースします。新しい3.5 Turboは、改良された命令フォロー、JSONモード、並列関数呼び出しをサポートしています。例えば、JSON、XML、YAMLを生成するようなフォーマット・フォロー・タスクにおいて、内部検証では38%の改善が見られました。開発者はAPIで「gpt-3.5-turbo-1106」を呼び出すことで、この新しいモデルにアクセスできます。「gpt-3.5-turbo」の名前を使用しているアプリケーションは、12月11日に自動的に新しいモデルにアップグレードされます。古いモデルには、2024年6月13日までAPIで「gpt-3.5-turbo-0613」を渡すことでアクセスできます。 詳細はこちら。

    アシスタントAPI、検索、コード・インタープリター

    今日、私たちは「 Assistants API」をリリースします。これは、開発者が自身のアプリケーション内でエージェントのような体験を構築することを支援するための第一歩です。アシスタントとは、特定の指示を持ち、余分な知識を活用し、モデルやツールを呼び出してタスクを実行できる「目的に特化したAI」です。
    新しいAssistants APIは、Code InterpreterやRetrieval、関数呼び出しなどの新しい機能を提供し、これまで自分で行わなければならなかった多くの重労働を処理し、高品質のAIアプリを構築できるようにします。

    このAPIは柔軟に設計されており、自然言語ベースのデータ分析アプリ、コーディングアシスタント、AI搭載のバケーションプランナー、ボイスコントロールDJ、スマートビジュアルキャンバスなど、使用例は多岐にわたる。アシスタントAPIは、当社の新製品GPTsを可能にする同じ機能、すなわちコード・インタープリタ、検索、関数呼び出しなどのカスタム命令とツールに基づいて構築されています。

    このAPIによって導入された重要な変更点は、持続的で無限に長いスレッドです。これにより、開発者はスレッドの状態管理をOpenAIに委ねることができ、コンテキストウィンドウの制約を回避することができます。アシスタントのAPIでは、既存のスレッドに新しいメッセージを追加するだけです。

    アシスタントは、必要に応じて新しいツールを呼び出すことができます。
    Code Interpreter:サンドボックス化された実行環境でPythonコードを書き込んで実行し、グラフやチャートを生成したり、多様なデータやフォーマットのファイルを処理したりできます。アシスタントがコードを繰り返し実行することで、難しいコードや数学の問題などを解決することができます。
    検索:独自のドメインデータ、製品情報、ユーザーから提供されたドキュメントなど、弊社のモデル外からの知識でアシスタントを補強します。つまり、ドキュメントの埋め込みを計算して保存したり、チャンキングや検索アルゴリズムを実装したりする必要はありません。アシスタントAPIは、ChatGPTで知識検索を構築した経験に基づいて、どのような検索手法を使用するかを最適化します。
    関数呼び出し: アシスタントは、あなたが定義した関数を呼び出し、その関数応答をメッセージに組み込むことができます。
    プラットフォームの他の部分と同様に、OpenAI APIに渡されたデータやファイルは、 OpenAIのモデルを訓練するために使用されることはありません。

    「 Assistantsプレイグラウンド 」に行けば、コードを書かずにAssistants APIベータ版を試すことができます。

    公式による動画紹介:Assistantsプレイグラウンドを使って、コードを書かずに高品質のアシスタントを作成
    https://cdn.openai.com/new-models-and-developer-products-announced-at-devday/assistants-playground.mp4

    Assistants APIはベータ版で、今日からすべての開発者が利用できます。作ったものを「@OpenAI」と共有してください。Assistants APIとそのツールの価格は、 価格ページ で確認できます。

    APIの新しいモダリティ

    ビジョン付きGPT-4 Turbo

    GPT-4 TurboはChat Completions APIで画像を入力として受け付けることができ、キャプションの生成、実世界の画像の詳細分析、図付きドキュメントの読み取りなどのユースケースが可能になります。例えば、 BeMyEyesはこの技術を使用して、目の不自由な人や弱視の人が商品を識別したり、店舗をナビゲートしたりするような日常作業を支援します。開発者はAPIで「gpt-4-vision-preview」を使用することでこの機能にアクセスできます。安定したリリースの一部として、メインモデルの「GPT-4 Turbo」にビジョンサポートを展開する予定です。価格は入力画像サイズに依存します。例えば、1080×1080ピクセルの画像をGPT-4 Turboに渡す場合、$0.00765かかります。詳細は ビジョンガイド をご覧ください。

    DALL-E 3

    モデルとして「dall-e-3」を指定することで、最近ChatGPT PlusとEnterpriseユーザーに提供を開始した「 DALL-E 3」を、Images APIを通じてアプリや製品に直接統合することができます。Snap、Coca-Cola、Shutterstockのような企業は、DALL-E 3を使用して、顧客やキャンペーン用の画像やデザインをプログラムで生成しているそうです。旧バージョンの DALL-E と同様に、API には開発者がアプリケーションを悪用から守るためのモデレーション機能が組み込まれています。様々なフォーマットやクオリティのオプションをご用意しており、生成される画像1枚あたり0.04ドルからご利用いただけます。 API で DALL-E 3 を使い始めるためのガイド をご覧ください。

    音声合成 (TTS)

    開発者はテキスト読み上げ API を使ってテキストから人間品質の音声を生成できるようになりました。新しい TTS モデルでは、6 種類のプリセット音声から選択でき、「tts-1」と「tts-1-hd」の 2 つのモデルバリエーションがあります。価格は1,000文字入力あたり0.015ドルから。まずは TTSガイド をご覧ください。音声サンプルも聞く事ができます。

    モデルのカスタマイズ

    GPT-4ファインチューニング実験アクセス

    GPT-4ファインチューニングの実験アクセスプログラムを作成中です。予備的な結果では、GPT-4ファインチューニングは、GPT-3.5ファインチューニングで実現した大幅な利益と比較して、ベースモデルから意味のある改善を達成するために、より多くの作業が必要であることを示しています。GPT-4ファインチューニングの品質と安全性が向上するにつれて、GPT-3.5ファインチューニングを積極的に使用している開発者には、ファインチューニング・コンソール内でGPT-4プログラムに適用するオプションが提示されます。

    カスタムモデル

    ファインチューニングが提供できる以上のカスタマイズを必要とする組織(特に、最低でも数十億トークンという非常に大規模な独自データセットを持つドメインに適用可能)のために、カスタムモデルプログラムも開始します。これにはドメイン固有の事前トレーニングの追加から、特定のドメインに合わせたカスタムRLポストトレーニングプロセスの実行まで、モデルトレーニングプロセスのすべてのステップを変更することが含まれます。組織は、カスタム・モデルに独占的にアクセスすることができます。OpenAIの既存のプライバシーポリシーに従い、カスタムモデルが他の顧客に提供されたり、他の顧客と共有されたり、他のモデルのトレーニングに使用されたりすることはありません。また、カスタムモデルを訓練するためにOpenAIに提供された専有データは、他のいかなる文脈でも再利用されることはありません。これは非常に限定された(そして高価な)プログラムの開始になります。 登録はこちら 。

    低価格と高い料金制限

    料金の値下げ

    開発者に節約分を還元するため、プラットフォーム全体でいくつかの価格を引き下げます(以下の価格はすべて1,000トークンあたりの価格です):

    ・GPT-4 TurboインプットトークンはGPT-4より3倍安い0.01ドル、アウトプットトークンは2倍安い0.03ドル。
    ・GPT-3.5 Turboの入力トークンは、以前の16Kモデルより3倍安い0.001ドル、出力トークンは2倍安い0.002ドルです。以前GPT-3.5 Turbo 4Kを使用していた開発者は、0.001ドルのインプット・トークンを33%削減できます。これらの低価格は、本日発表された新しいGPT-3.5 Turboにのみ適用されます。
    ・ファインチューニングされたGPT-3.5 Turbo 4Kモデルのインプット・トークンは4倍の0.003ドルに、アウトプット・トークンは2.7倍の0.006ドルに値下げされます。ファインチューニングはまた、新しいGPT-3.5 Turboモデルで4Kと同じ価格で16Kコンテキストをサポートします。これらの新しい価格は、ファインチューンされた「gpt-3.5-turbo-0613」モデルにも適用されます。

    より高いレート制限

    お客様のアプリケーションの拡張を支援するため、GPT-4 のすべての有料顧客の 1 分あたりのトークンの上限を 2 倍にします。新しいレートリミットは レートリミットページで確認できます。また、料金制限の自動引き上げを決定する 使用量階層を公開しましたので、使用量制限がどのように自動的に拡大されるかをご確認いただけます。 アカウント設定 から利用限度額の引き上げをリクエストできるようになりました。

    著作権シールド

    OpenAIは、システムに組み込まれた著作権セーフガードでユーザを保護することをお約束します。本日、さらに一歩進んで、「Copyright Shield」を導入します。お客様が著作権侵害に関する法的請求に直面した場合、OpenAIが介入してお客様を保護し、発生した費用を支払います。これは、ChatGPTエンタープライズと開発者プラットフォームの一般的に利用可能な機能に適用されます。

    Whisper v3 と一貫性デコーダー

    オープンソース自動音声認識モデル(ASR)の次のバージョンである「 Whisper large-v3」をリリースします。また、近い将来、APIでもWhisper v3をサポートする予定です。

    また、Stable Diffusion VAEデコーダーのドロップインリプレースメントである「 一貫性デコーダー (Consistency Decoder)」もオープンソース化しています。このデコーダーは、Stable Diffusion 1.0+ VAEと互換性のあるすべての画像を改善し、テキスト、顔、直線を大幅に改善します。

    ChatGPTのOpenAI DevDayアナウンスについてはこちらをご覧ください。

    Originally published at https://note.com on November 7, 2023.

  • AICU media 学生インターン募集(2023年11月期)

    AICU media 学生インターン募集(2023年11月期)

    米国法人である AICU社は日米のクリエイティブAIをテーマに活動しているデラウェア州登録、カルフォルニアのシリコンバレーにオフィスがあるAIスタートアップ企業です。
    その中でメディア事業部の運営する「AICU media」はお気付きの通り、広くクリエイティブな方々をAIをより使いこなすことで温めていくようなメディアを学生ライター中心で構築しています。

    ちょうどこちらの記事などが典型ですね。 

    (もちろんメディアなので広告としての商品性の高い記事やリサーチ、そして現在開発進行中の商業書籍の執筆やワークショップ開発などもあります)

    そこで活躍する学生ライターを養成しています。
    いわゆる「学生インターン」ですが、きちんと報酬もお支払いし、教育も行い、将来的に弊社の正社員・幹部候補として育成いたします。

    世の中に数多くあるアフィリエイトサイトのようなあからさまな商品紹介やアクセス数を狙った情報商材サイトとは異なり、メディア事業部の自主事業としての「AICU media」は以下の点を重要と考えています。

    【AICU mediaのビジョン】

    ・「つくるひとをつくる」AICU社のビジョンです
    ・できるだけ原典にあたった正確性・信頼性の高い記事
    ・企業だけでなくグッドユーザを育てる視点に立ったアドボケイト

    を目指しています(2023年11月現在)。

    【やらないこと】

    ・アクセス数を目的にした炎上狙いの記事
    ・「これはすごい」という驚きだけを中心にした記事
    ・引用元や出典不明な噂話
    ・経験則や思い込みだけに基づくノウハウ
    (=画作りにおいても他人に説明できて再現性がある理論が必要)
    ・プロや開発者、専門家、研究者だけが喜ぶ専門用語だらけの記事

    【これからやっていきたいこと】

    ・読んだ人が「使ってみたい」「つくりたい!」と思える記事
    ・プロフェッショナルで食えている人だけでなく、これからこの分野のプロになりたい人が必ず読んでおいてほしい記事や研究・論文を紹介
    ・Stable Diffusionや画像生成に関するプロフェッショナルを目指す人向けの基礎的なテクニック、理論、ノウハウ
    ・既に何かしらのプロだけれど、この技術を使ってさらに自分や所属組織を高めていきたい人向けの情報(企業向けワークショップもあります)
    ・LLMを使ったアプリケーションやサービスの開発(Python, AWS, GCP, Visual Studio Code, Google Colab, node.js など)
    ・生成AIを使った価値あるサービスや、それを開発している人々の紹介
    ・LLMをつくる人々、世界の頂点への挑戦とその意味
    ・AITuberやコミュニケーションエージェント開発技術、事例、解説(Unity, Unreal Engine, OBS, YouTube DataAPI, 音声合成技術、インタラクション技術など)
    ・AIをゲーム開発に活用した事例、PoCの開発など。
    ・AIと社会、特に法律面や倫理面。
    ・AIと社会、特にAIを使うことによるインクルージョン、その事例と課題。

    【どうやったら応募できるの?】

    (1) 会社紹介を読む(メールアドレスの入力が必要です)https://hubs.ly/Q027Kg_j0
    ご興味、ご質問ご感想を X(Twitter)@AICUai までお送りください。
    SPAMフィルタなどにかからない場合、DMにて24時間以内でご返信いたします。その後、予定している流れは以下のとおりです。

    (2) 読めるブログを最低3本ご準備ください
    ご自身の興味、趣味、活動、学習、研究などテーマは何でも構いません。
    noteやtwitter, GitHub, Pixivなどすべてのリンクを辿って調査します。
    もちろん完璧でなくても構いません。
    商業的なアルバイトで書いた記事などでも構いません。
    調査力やモチベーション、文体のイキオイ、商品名などの正確さ、品質、原稿の発行速度感などを評価します。もちろんインターンは指導していきますので、若くて未経験な方(例えば高校生や高専生)でも問題ありません。
    (3) オンライン面談(複数回)
    学生インターンさんは個別の面談があります。同僚となるメディア事業部のメンバー、社員の方々、しらいはかせCEOなど。
    どれぐらいの時間が捻出できるか、雰囲気良く学びながら仕事ができるか、本人の実績としてどのような積み上げをできるか(オンラインでライターとして活動していただく場合は、ペンネームをご準備いただき、どのように参加するかもお聞きします)。
    (4) トライアウト期間
    実際にチームの中でリサーチや執筆、開発といった作業に従事します。オンラインが中心ですが、オフライン(取材や調査など)の活動がありますので、時間帯や参加方法も調整させていただきます。

    よくある質問

    Q: 報酬は?
    A: パフォーマンスをアウトプットと時間で評価し、時給で最低賃金を考慮し支給します。米国法人なので米国ドルでお支払いします(居住地にもよります)日本円で日本の銀行口座にお振込することも可能です。

    Q: 税金とかどうすればいいの
    A: 弊社にて丁寧に指導いたします!

    Q: 理系なのですが
    A: 読んでわかる技術文書を書くのがお仕事です!歓迎!

    Q: 文系なのですが
    A: 社会に伝わる文章を書くのがお仕事です!歓迎!

    Q: 美術・芸術系なのですが
    A: 絵作りおいて、十分なスキルと、他人に短い時間で読んでわかる原稿を描ける/書けるスキルが有れば歓迎です。イラストや漫画が描ける、人当たりがいい人はもっと歓迎!

    Q: 専門学校生ですが
    A: ゲーム専門学校生、AI系の学科は歓迎です。特に学校の課題だけでなく、独自の作品や探求を外部発信している方は大歓迎です。

    Q: 高校生ですが働けますか?
    A: 十分なスキルとモチベーション、そして「学業第一」を守っていただければ歓迎です。

    Q: 学位があります
    A: 専門士、準学士、学士、修士、博士、特に情報系のPhDは優遇し、採用や給与に反映させます。卒業研究や学会等で論文を書いたことがある人は特に歓迎です。

    Q: 既に有名なブロガー/クリエイターです
    A: そういう方の参加を歓迎します!まずは別名義で活躍していただくことも可能ですのでスキルを活かして転生していただくのが良いかと存じます。

    Q: 期間は?
    A: 本人のご希望、パフォーマンスと弊社の成長に従い、1~3ヶ月毎に条件面とともに契約更新を行います(時給等)。学業や進路により継続できない場合を除き、できるだけ長く(数ヶ月~数年)といった期間で育成していきます。長く勤められるほど優秀な人材であり、会社の成長とともにベネフィットが多くなります。

    Q: 性別とか、国籍、年齢については?
    A: メディア事業部については日本語を書くスキルが十分であれば歓迎です。国籍や居住地、本名/実名については考慮しません。

    Q: 障害者手帳を持っています
    A: 障害者手帳を持っているかどうかについては条件ではなく配慮します。例えば疲れやすい、集中力が続かないといった特性がご自身でコントロールできるように配慮します。

    Q: なぜ応募に X(Twitter)アカウントが必要なの?
    A: 社会とのコミュニケーションを重視しているためです。呼吸をするようにSNSを使いこなしている人を歓迎します。もちろんメールでのご応募も受け付けていますが、まずは @AICUai での発信に向けて、これをより良くしていく方法を開拓していく人材を期待しています。

    Q: 深夜が逆転していますが働けますか?
    A: 学生インターンの場合は「学業第一」という方針があり、昼間の学生さんの場合はおすすめしませんが、弊社は日米にオフィスがあるため海外大学などの場合は調整可能です。

    Q: 副業ですが可能ですか?
    A: 本育成プログラムは基本的にはフルタイムの学生(高校生、高専生、大学生、大学院生、留学生)を対象としており、職業がある方はご遠慮願います。

    Q: 卒業間近ですがエントリーできますか?
    A: いろいろな経緯によってそのような状況にあると推察します。まずはエントリーをどうぞ。卒業するつもりがあるかどうか、などもお聞きします。

    Q: 社会人学生ですが応募できますか?
    A: どのような社会人学生かにもよりますのでまずは応募してみてください。最優先ではありませんが、十分な時間が捻出できる、本業とコンフリクトしない、といった条件があります。例えば主婦の方でハローワークなどの訓練事業やスクールなどの受講生なども考慮の対象とします。

    Q: 職業ライターとして1件あたりで報酬がほしい
    A: 学生さんの場合はいったん本プログラムで育成期間を持ち、スキル認定によってプロライターに移行します。もともとプロの方やある程度のスキルが見込まれる方は業務委託でのご参加をご検討お願い致します。NDAや取引先登録といった情報はこちらになります。 https://corp.aicu.ai/

    Q: ブログのライターの仕事しかないの?
    A: (会社説明資料を読んでいただくと)AICU mediaには本ブログ以外にもプロフェッショナル向けの書籍やワークショップ開発など多くの新規事業があり、本募集におけるライターさん育成とはまた異なった調査や執筆、開発活動に従事していただいております。基本的にブログが書ける人は次のステージに進行していただくという計画になっております。

    Q: クリエイターとして活動していきたいのですが両立できますか?
    A: 弊社は「つくるひとをつくる」がビジョンにある会社なので、両立するための方法を探っていきます。歓迎です。

    Q: 業務的な製作物の著作権の取り扱いは?
    A: 契約上の業務内容にもよりますが、依頼されて業務として執筆する著作物は基本的に会社(AICU Inc.)の帰属になります。また協力会社に委託された業務の場合は条件が異なります。依頼されていない場合の著作物の利用は、業務外のクリエイティブであり、著作権者は「譲渡ではなく永続的なライセンス、著作者人格権は主張しない」という条件で解決することが多いと思います。

    Q: 独自のブログやオープンソース活動には参加できますか?
    A: Yesです、ただし事前の確認が必要です。ブログ等の公開ドキュメントが多く、それに付随したソースコードなどを GitHubで公開 するようなケースも想定されます。ライセンス等を記載しないブログの場合など、比較的多くの場合で許可を出しています。ただし弊社及び関連の取引先の守秘義務は守っていただきますので、そのあたりのタイミングにはご注意ください。

    Q: 守秘義務ってなんですか?
    A: Non-Disclosure Agreement(NDA)という機密を守る、という基本的なルールです。基本守秘義務契約、秘密保持契約、機密保持契約といった訳ができますが、基本的に業務で知り得た秘密(個人情報、売上などのトレードシークレット、知的財産、営業上の戦略、まだ未開示の情報)などを機関が定めた方法で守ってください、というルールです。AICU社とワーカーさんのNDAに加えて、関わる業務によっては協力会社さんのNDAなども理解して遵守する必要があります。

    Q: AICUは日本の会社ですか?
    A: いいえ、米国デラウェア州の企業になります。詳しくは会社案内をご覧ください。

    Q: AICUはなんて読むの?何かの略なの?
    A: 「アイキュー」です。AICUがなんの略なのかは諸説あり、会社説明資料に書いてあったりします。

    Q: 英語スキルを活かせる仕事はありますか?
    A: あります!

    Q: 会社説明資料が英語で読めません
    A: 弊社は米国法人なので…しばらくお時間いただけると幸いです!

    Q: 契約書は英語ですか?
    A: Yes。DocuSignによる電子署名になります。もちろん本契約に移行する際に条件面などを日本語で確認していただきます。

    Q: 給与や教育以外に何かベネフィットはないの?
    A: 弊社の成長次第ですが、正社員や幹部候補としての育成に加えて、インターンや業務委託パートナーの方は弊社のパートナーワーカー専用Discordサーバーに参加できます。しらいはかせCEOをはじめとして、LLMのすごい人や、生成AIのすごい人が集まっています。またデジタルハリウッド大学大学院「 クリエイティブAIラボ 」との交流があり、交流会やイベント、技術書展に出展したりします。ちょうど次の技術書典に「自分のLoRAを愛でる本」という書籍の準備をしております。

    Q: 他になにかいいことはないの?
    A: 生成AIの大爆発の時代に、学生の期間を無駄にすることなく、その成長に身を粉にしてぶつけることが出来ます。同じような想いの人々と一緒に働くことで自分を成長させられる可能性があります。

    Q: いつからいつまで募集しているの?
    A: この記事のタイトルに有るように「2023年11月期」としています。応募は随時で、面接等も随時行っています。予定の候補者数に達した時点で、本募集は終了します(本記事自体は残すかもしれませんが)。

    皆様のご応募をお待ちしております!

    Originally published at https://note.com on November 3, 2023.

  • タスクを分解してくれるゴブリンツールは”すべてのひと”にうれしいAIDXを実現

    タスクを分解してくれるゴブリンツールは”すべてのひと”にうれしいAIDXを実現

    先週、しらいはかせCEOのTwitterで紹介されて数十万バズとなったツイートがこちらから、ゴブリンツール「 goblin.tools 」というステキなAIDXを体験できるタスク管理ツールを紹介します。

    [Magic ToDo]:魔法のようにやること分解

    「同人誌のを入稿する」という日本語の親ToDoから「Magic ToDo」使うと
    ・内容を決定する
    ・内容に基づいて文章を書く
    ・文章を校正する
    ・レイアウトを作成する
    ・イラストや写真を挿入する
    ・タイトルと目次を作成する
    ・ページ番号を付ける
    ・用紙を選び、印刷する
    ・印刷物をバインドする
    ・入稿先に送る
    といった複雑かつ、日本の漫画同人誌や技術書典のような技術同人誌に共通な工程を見事に表現してくれています。魔法の杖🦯をクリックするとさらに細かなタスクに分解することができます。

    例えば「ゲームコンテストに応募する」といった例でも実験してみました。

    ゲームコンテストに応募するためにはゲームを完成させる必要がありますが、「 ゲームを完成させること 」がどんなに複雑で大変か、そしてゲームのプログラム開発よりもテストプレイがどんなに重要か、など複雑で見えづらい要素を分解してくれています。

    多少繰り返しになっていますが、実際こんな感じですよね。
    ドットを掴むと順番を変えることができます。

    辛さレベル🌶は、そのタスクがどれだけ難しいか、またはストレスに感じるかをヒントにします。辛ければ辛いほど、より多くのステップに分解しようとします。これは正確な指標ではなく、システムへのヒントです。
    トップレベルのタスクには、絵文字で示されたカテゴリーが自動的に割り当てられます。ボタンでリストを1つ以上のカテゴリーにフィルターすることができる。フィルターボタンはすべての完了したアイテムを隠すこともできます。一般的なタスクツール(編集、削除、サブタスクの追加、見積もり)は各アイテムのボタンの下にあります。左のアイコンはドラッグしてアイテムの並び替えができます。リスト全体の追加アクションはその下にあります。デバイス間の同期、エクスポートオプション、アンドゥとリドゥ、バルクアクションなどがあります。

    Helpより

    Goblin.tools には他にも以下のようなツールが揃っています

    • [MagicToDo] 魔法のToDo:やるべきことを分解
    • [Formalizer] フォーマライザー:言いづらいことをより丁寧な文体で
    • [The Judge] 裁判官:空気が読めなかったのかどうかを判定
    • [Estimator] どのくらい時間がかかるか見積もります
    • [Compiler] 頭の中のモヤモヤをタスクリストにコンパイルする
    • [The Chef] 食材や食事制限からレシピを作成
      goblin.tools は、小規模でシンプルなシングルタスク ツールのコレクションであり、主に neurodivergent ※の人々が圧倒的なタスクや困難を感じるタスクを支援するように設計されています。

    Formalizer:言いづらいことをより丁寧な文体で

    言いづらいことを言わねばならない、そんなときによりフォーマルな文体で書き直してくれます。🌶の個数で表現してくれるのもかわいい。

    「提示された契約書の内容が先方が有利すぎて、我々が合意する利点が見つからない」
    これをよりプロフェッショナルに🌶🌶🌶🌶🌶

    「提示された契約書の内容は、相手方に大きな利益をもたらす一方で、わたしたちにとって合意するメリットを見出すことが困難です。」

    The Judge:空気が読めなかったのかどうかを判定

    原文では「Am I misreading the tone of this?」と書かれていますが、「私の読み違いだろうか?」と直訳するよりも、「tone」つまり語調や感情といった要素がどの程度含まれているのかを冷静に判定してくれます。

    「正直、あの金額の見積書でドン引きして一旦凍結になりました。」
    →「提供されたテキストは感情的な表現であり、金額の見積もりに関して驚愕や不快感を抱いていることが伺えます。」

    感情や語調を読むことで、相手がロジックとして伝えている要素とそれ以外の要素を分離して理解することを助けてくれます。
    「怒られたり怒鳴られたり、何か勘違いしているのでは?」という時に役立ちます。もしくは相手の空気を読みすぎな人にとっても、少しだけ安心できるツールになると思います。
    [+]ボタンを押すと、その返信についてもジャッジできます。

    B:ご指摘ありがとうございます。凍結とのことですが、いくらぐらいでしたらお話を訊いていただけそうでしょうか?

    Estimator:どのくらい時間がかかるか見積もり

    同人誌の原稿を入稿するには1週間から1カ月かかるそうです…!

    Magic Todoアイテムでも利用できます。

    Magic ToDoで右側の「Estimate」をクリックしてしばらく待ちます

    「ゲームコンテストに応募する」…は53日と13時間かかるそうです!

    なお最大のToDoは「ゲームのテストプレイを繰り返し修正や改良を行う」で21日17時間、
    そのうち「バグや不具合の修正や改良を行う」が14日でした。
    なお「ゲームを完成させる」は3日です。奥深い。

    Compiler:頭の中のモヤモヤをタスクリストにコンパイルする

    ブレインダンプ(braindump)を訳す方法がなかったのですが「アタマの中のモヤモヤ」とさせていただきました。ちょっと実験してみます。

    「誰も作ったことがないようなゲームを開発して、ゲームコンテストに応募して華々しく優勝してモテる」→①ゲームを開発する②ゲームコンテストに応募する③優勝する④モテる

    もっとモヤモヤした課題を与えてみます。

    「海賊王に、俺はなる」→「Becoming the Pirate King」
    ちょっとダイレクトすぎました。

    ちょっと難しい課題にしてみます。

    いい大学に入って会社に就職して幸せになる、そのために大学に受かる、いま目の前にある問題を解かねばならない

    こんな結果が出てきました。

    入る大学に受かる
    会社に就職する
    幸せになる

    ・入ることのできるいい大学を見つける
    ・志望する大学に合格する
    ・会社を見つけて就職する
    ・幸せになる

    何度か気に入ったタスクが出るまでガチャを回してみましょうね!

    念のため、ちょっとおかしいモヤモヤを突っ込んでみます。

    卒論指導の先生はパワハラ、俺は死ぬしかないんだ大学をやめる死ぬ。

    (あえてロジックがおかしい感じにしてみます)

    それぞれの要素自体はファクトとして独立していますね。
    ChatGPTをバックエンドに使っているにようですが、けっこうきな臭い話題についても扱ってくれている点が気になります。
    これを「Send result to the Magic Todo」ボタンを押してブレイクダウンしてみます。

    まあ人はいずれ死ぬしかないんですが…
    大学をやめるのにだいたい2年と63日かかるそうです
    卒論指導の先生のパワハラを対処するのにかかる日数はだいたい14日と20時間ぐらいです

    気になる「俺は死ぬしかないんだ」はこんな感じでした。

    ちなみに何回やっても日本語の誤りを指摘されました…

    The Chef:食材や食事制限からレシピを作成

    食材や食事制限から
    ここにどのような食材があるか書いてください!また、食事制限、分量、器具、時間など、シェフに配慮してほしいことを何でも書いてください。

    「バナナと卵とお米。糖尿病に気遣いたい。」
    でました!

    料理名: バナナエッグカップ

    サービングサイズ: 2人分

    材料:
    – バナナ: 2本
    – 卵: 4個
    – お米: 1/4カップ (乾燥状態)

    調理手順:
    1. オーブンを180度に予熱します。
    2. バナナを皮を剥いてボウルに入れ、フォークでよくつぶします。
    3. 卵をバナナのボウルに加え、よく混ぜます。
    4. お米を乾燥させた状態でボウルに加え、再びよく混ぜ合わせます。
    5. マフィンカップに混ぜたバナナエッグカップの生地を均等に分けて流し込みます。
    6. オーブンで約15–20分焼きます。焼き時間はカップの大きさやオーブンの性能によって異なる場合がありますので、中心部がしっかりと固まるまで焼いてください。
    7. 焼き上がったら、完全に冷ましてからお楽しみください。

    メートル法の材料:
    – バナナ: 2本
    – 卵: 4個
    – お米: 60ml (乾燥状態)

    インペリアル法の材料:
    – バナナ: 2本
    – 卵: 4個
    – お米: 1/4カップ (乾燥状態)

    ToDo化して時間を見積もることもできますのでやってみます。

    3時間もかかるのか…そりゃそうだな

    ちょっと朝ごはんには間に合わなさそう。
    バナナと卵とお米。糖尿病に気遣いたい。朝ごはんなので手早くお願いしたい。一人分でいい。」としてみます。

    料理名:バナナオートミールパンケーキ
    サービングサイズ:1人分
    材料(メートル法):
    – バナナ:1本(中サイズ)
    – 卵:1個
    – お米(未炊飯):40g
    – オートミール:30g
    – 低脂肪乳または豆乳:100ml
    – ステビアまたは他の低カロリー甘味料:お好みで適量
    – シナモンパウダー:お好みで適量
    材料(インペリアル法):
    – バナナ:1本(中サイズ)
    – 卵:1個
    – お米(未炊飯):1.4オンス
    – オートミール:1オンス
    – 低脂肪乳または豆乳:3.4液量オンス
    – ステビアまたは他の低カロリー甘味料:お好みで適量
    – シナモンパウダー:お好みで適量
    調理手順:
    1. バナナをフォークなどでつぶし、ボウルに移す。
    2. 卵をバナナの上に割り入れ、よく混ぜ合わせる。
    3. お米とオートミールをバナナと卵の混合物に加え、さらによく混ぜ合わせる。
    4. 低脂肪乳または豆乳を徐々に加えながら、さらによく混ぜる。
    5. ステビアまたは他の低カロリー甘味料を適量加え、シナモンパウダーもお好みで加えてよく混ぜる。
    6. フライパンを中火にかけ、少量のオイルを敷く。パンケーキの生地を適当な大きさに流し入れる。
    7. パンケーキの表面に小さな気泡ができ、生地が少し固まってきたら(約2分程度)、裏返してもう1分程度焼く。裏返す際は注意して行いましょう。
    8. 全てのパンケーキを同様に焼き上げる。
    9. バナナオートミールパンケーキを温かい状態でプレートに盛り付け、お好みでシナモンパウダーや切ったバナナをトッピングして完成です。

    このレシピは、糖尿病の方にやさしい低GI(血糖上昇指数)で栄養価の高い朝食オプションです。オートミールとお米の組み合わせにより、食物繊維と栄養素が取り入れられます。バナナは自然の甘みを提供し、低脂肪乳または豆乳は牛乳よりも低い糖分を含んでいます。ステビアや他の低カロリー甘味料を使用することで、甘さを加えることができます。

    ToDoにして、時間を見積もってみました!

    まあでもそんなにかからない気もする(甘い?)

    個々のステップでの時間の正確さには課題が残りそうです。実際の工程のなかで手抜きをしてもいいし、最後までの道筋がある程度示されているのはいいですね!

    クラウドサービスとしての利用

    公式のAboutに AICU mediaとしての見解を加えて解説します。

    Goblin.tools はベルギーのクラウド開発者 Bram De Buyserさんが開発運営しているツールです。モバイル版もあります。Apple iOS版が 0.99USDAndroid版が150円です。

    ほとんどのツールは、目的を達成するためにバックエンドで AI テクノロジーを使用しています。現在、これには OpenAI のモデルが含まれています。「ツールとバックエンドが改善されるにつれて、オープンソースの代替手段に移行する」とのことです。

    すっごいお金かかっちゃうはずなんですが、ありがたい話ですね!

    認証情報を入力すると、デバイス間でToDoリストを同期することができます。新しいデバイスで同期を有効にする前に、バックアップを取ることをお勧めします。リストはユーザー名とパスワードで暗号化されます。管理者やあなたの認証情報を知らない人がリストを見たり、復号化したりすることはできません。

    同期には数秒かかりますが、もしかして小規模なチームで利用する場合なんかも便利かもしれませんね。

    シェアボタンから .goblin 形式(JSON形式)で保存することもできます

    注意事項として、

    使用される AI モデルは汎用モデルであるため、出力の精度は異なる場合があります。どのツールからも返されるものは何も真実の記述として解釈されるべきではなく、推測にすぎません。得られた結果が妥当であるかどうかは、ご自身の知識と経験に基づいて判断してください。
    免責事項: goblin.tools、Skyhook、および Bram De Buyser は、結果やその使用方法について責任を負いません。
    goblin.tools は、このページで言及されているもの以外の Web サイトやアプリと提携したり、推奨したりするものではありません。

    しらいはかせの一言解説:ニューロダイバージェントとは?

    しらいはかせに紹介されたこのツールですが、大好評ですね。
    でもアプリのタグライン(1行解説)には「Smart tools for the neurospicy」と書かれています。nuerospicyとはどんな意味なんでしょうか。

    Wikipediaによると「neurospicy」とは

    語源
    neurodivergent + spicyの合成語。表面分析では、neuro- + spicy。
    形容詞
    ニューロスパイシー
    (新造語、俗語、かわいらしい、ユーモラスな)神経異端者。[2017-]

    使用上の注意
    この言葉を幼児化すると考える人もいれば、かわいらしい、あるいは中立的だと考える人もいる。

    neurospicy

    Neurodiversity/neurodivergent とは
    精神機能にばらつきのある人々を表す非医学的な包括的用語であり、自閉症スペクトラム障害(ASD)や注意欠陥・多動性障害(ADHD)などの神経学的または発達的な状態を含む人々のことだそうです。

    注意欠陥、というと生きづらい気持ちになりますが、こういったAIによるサポート技術は、お年寄りや若者、他人の感情に左右されやすい人や反応が薄い人などすべての人々の助けになる技術ですね。

    AICU mediaは、広くクリエイティブな方々をAIをより使いこなすことで温めていくようなメディアを目指しています。
    クリエイティブな生き方って社会との接点で生きづらい気持ちになることは多いですよね。
    すべての人々がこんなツールで、もっと楽しく、なめらかに生きられるといいなと思います。

    今後もこんなツールがあったら積極的に深掘りして
    応援していきたいと思います!

    追記:作者のBram De Buyserさんとコミュニケーションが取れましたのでインタビューです

    “Why it is free?”なぜ無料なの?

    Bram De Buyser:その答えは、このツールは安価なAI APIとしてGPT 3.5を使用するように構築されており、ホストするのに非常に軽量です。そのため、goblin toolsの運営にかかる月々のコストは、利用者の多さに対して思ったほどかかりません! アンドロイドとアップルでのアプリの売り上げで、月々のコストをカバーしています。)

    アプリを買う余裕がない人や、アプリにお金を払えない人のために、私は絶対にツールを無料にしたかったのです。

    素晴らしいお話ですね!感動したみなさんはアプリを購入して応援しましょう!

    Google Play
    https://play.google.com/store/apps/details?id=com.goblintools&pli=1

    App Store
    https://apps.apple.com/us/app/goblin-tools/id6449003064

    以上、AICU mediaがお送りしました

    Originally published at https://note.com on November 3, 2023.

  • 弊社CEOが東京藝術大学で「生成AIと芸術」に関する特別講義を実施

    弊社CEOが東京藝術大学で「生成AIと芸術」に関する特別講義を実施

    弊社CEO白井が2023年10月19日に日本の国立大学・東京藝術大学において「生成AIと芸術」に関する特別講義を行いました。本講義は今年度、東京藝術大学において新しく取り組まれた「 アートDX特別講義シリーズ・生成AIと芸術 」という学内向けの講演の第1回であり、予定されている続く講演者も日本を代表するAI研究者・表現者となっており、大変興味深いものです。

    告知の段階から大変多くの方にご反響を頂いております。

    実施概要: 東京藝大アートDXプロジェクトでは2023年度後期の特別講義シリーズ「生成AIと芸術」を開催します。2022年の夏からMidJourneyやStable Diffusionをはじめとした画像生成AIや、2022年11月に公開されたChatGPTのような大規模言語モデル(LLM)の登場をはじめとして、この数ヶ月で人工知能(Artificial Intelligence:AI)の話題は芸術分野でも急速に議論を巻き起こしています。本特別講義シリーズでは、画像をはじめ言葉や詩、音楽、ゲームのような幅広い分野で人工知能と芸術表現の関わりを、各分野で研究してきた専門家に講演いただきます。AIに興味はあるけど実際何をやってるのかよくわからない、AIが自分のやっている表現活動にどう影響を与えてくるのか考えたい方はぜひ参加をお願いします。

    東京藝術大学・AMCより

    シリーズ講演者一覧

    ・白井暁彦(AICU Inc. CEO / Hidden Pixel Technology Inc. CEO / デジタルハリウッド大学大学院 客員教授)「生成AI時代を生き抜く創作活動 — Ask Me Anything」
    ・三宅陽一郎(株式会社スクウェア・エニックス AI部 ジェネラルマネージャー/リードAIリサーチャー)「芸術と人工知能とデジタルゲーム」
    ・徳井直生(アーティスト / (株) Qosmo・Neutone 代表取締役)「オルタナティブな生成AIと創作の未来」
    ・浦川通(研究者・アーティスト)「ことばを計算してつくる―言語モデルと創造的応用」
    ・清水亮(AI研究家 / UberEats配達員)「今日のAI、明日のAI」

    東京藝術大学・AMCより抜粋

    「生成AI時代を生き抜く創作活動」
    講演の抜粋についてはCEOの個人ブログの方で展開しております。

    https://note.com/o_ob/n/ndb671e6da1bf

    講演は、生成AIと創作活動、クリエイティブ産業の関係に焦点を当てています。若者の反AI感情を認めつつ、生成AI技術の進化とその社会的受容について写真や映像、出版や著作権の歴史から考察し、初期の感情論から文化庁による法的解釈の進展、そして現在のAIの普及とその影響までを網羅しています。技術の発展と社会的受容のバランスを重要視し、クリエイティブ分野でのAI利用の可能性と課題を深く掘り下げています。

    生成AIに対する若者の反対運動は、新技術による自分たちの努力の無価値化への恐れに基づいています。講演は彼らのアイデンティティを表現者としての自分の過去を振り返りながら認め、尊重し、しかし同時に、産業界ではChatGPT4やAdobe FireFlyなどの生成AIが既に広く使われています。法的・倫理的な混乱は新技術導入時によく見られる現象です。
    八谷先生のコメントでも指摘されているように、人類の歴史におけるすべてのクリエイティブ活動は社会的であり、AIもその一部であることを示しています。この講演は、新技術をどのように人類の歴史や社会に編み込んでいくか、という重要な現代的課題を反映しています。複雑な技術、法的・倫理的問題を分かりやすく説明し、クリエイティブAI技術のクリエイティブ分野における主体的な理解や可能性を道筋だてて提示しています。これらの側面を統合するワークショップや講演を丁寧に行っていくことで、AICU社のビジョンとする「つくるひとをつくる」を工学や技術だけでなく、芸術活動や人類の歴史におけるギャップを埋めるための重要な視点を提供していると考えています。

    以上の通り、AICU社における学術講演はメディア事業部により実施されております。白井・徳田らの講演につきましては、弊社の お問い合わせフォーム よりご打診いただけますと幸いです。

    https://corp.aicu.ai/

    Originally published at https://note.com on October 31, 2023.

  • 「米大統領令、生成AIを初規制 公開前に安全評価義務づけ」その実際は

    「米大統領令、生成AIを初規制 公開前に安全評価義務づけ」その実際は

    日経新聞において以下の記事が掲載されました。

    米大統領令、生成AIを初規制 公開前に安全評価義務づけ — 日本経済新聞
    バイデン米大統領は30日、人工知能(AI)の安全性の確保や技術革新を図るための大統領令を発令した。開発企業はサービス提供やwww.nikkei.com

    バイデン米大統領は30日、人工知能(AI)の安全性の確保や技術革新を図るための大統領令を発令した。開発企業はサービス提供や利用開始前に、政府による安全性の評価を受けるよう義務付ける。法的拘束力を持つAI規制を米国で初めて導入する。 日本経済新聞 2023年10月30日

    このような法的拘束力をもつ規制が導入されるのであれば、米国法人であるAICU社や日本のChatGPTのユーザなどにも影響が及ぶ可能性がありそうです。
    実際のところはどのような内容なのでしょうか、NewYorkTimesの記事を調査してみました。

    Biden to Issue First Regulations on Artificial Intelligence Systems
    nytimes.com

    バイデン大統領は月曜日、人工知能システムに関する連邦政府初の規制の概要を示す大統領令を発表。その中には、最先端の人工知能製品が生物兵器や核兵器の製造に使用されないことを保証するためのテストを実施し、その結果を連邦政府に報告するという要件が含まれている。
    過去数年間のA.I.の飛躍的な進歩がもたらした潜在的なリスクからアメリカ人を守るための、最も包括的な政府の行動として説明される予定である。この規制には、そのようなシステムによって開発された写真、ビデオ、音声には、AIによるものであることを明確にするために透かしを入れることを推奨する内容が含まれるが、義務ではない。これは、特に2024年の大統領選挙が加速するにつれて、AIによって「ディープフェイク」や説得力のある偽情報の作成がはるかに容易になるという懸念が高まっていることを反映している。
    米国は最近、ChatGPTのようなプログラムを質問に対する回答や作業のスピードアップに効果的なものにしている、いわゆる大規模言語モデルの生産能力を低下させるため、中国への高性能チップの輸出を制限した。同様に、新たな規制は、クラウドサービスを運営する企業に対し、外国人顧客について政府に報告することを義務付ける。
    バイデン氏の命令は、英国のリシ・スナック首相が主催する、AIの安全性に関する世界のリーダーたちの集まりの数日前に出される。AI規制の問題では、米国は新たな法律の草案を作成している。欧州連合(EU)や、規制案を発表している中国やイスラエルなどの他の国々に遅れをとっている。
    昨年、AIを搭載したチャットボット「ChatGPT」が爆発的な人気を博して以来、議員や世界の規制当局は、人工知能がどのように仕事を変え、偽情報を広め、独自の知能を発達させる可能性があるかに取り組んできた。
    「バイデン大統領は、AIの安全性、セキュリティ、信頼性に関して、世界のどの政府よりも強力な一連の行動を展開している」と、ホワイトハウスのブルース・リード副長官は語った。「これは、AIの利点を活用し、リスクを軽減するために、あらゆる面であらゆることを行う積極的な戦略の次のステップである。
    (中略)
    この規制はまた、安全性、セキュリティ、消費者保護に関する初めての基準を設定することで、テクノロジー部門に影響を与えることを意図している。財布の紐の力を使うことで、ホワイトハウスの連邦政府機関への指令は、政府の顧客によって設定された基準を遵守するよう企業に強制することを目的としている。
    「これは重要な第一歩であり、重要なことは、大統領令は規範を定めるということです」と、ジョージタウン大学安全保障・新興技術センターのシニア・リサーチ・アナリスト、ローレン・カーンは言う。
    この大統領令は、保健福祉省やその他の省庁に対し、AIの使用に関する明確な安全基準を作り、AIツールの購入を容易にするためのシステムを合理化するよう指示している。労働省と国家経済会議に対しては、AIが労働市場に与える影響を調査し、規制の可能性を検討するよう命じている。また、AIツールに使用されているアルゴリズムによる差別を防ぐため、家主、政府請負業者、連邦給付プログラムに対して明確なガイダンスを提供するよう各機関に求めている。
    連邦取引委員会のリナ・カーン委員長はすでに、A.I.の監視役としてより積極的に行動する意向を示している。しかし、ホワイトハウスの権限は限られており、指令の中には強制力のないものもある。例えば、消費者の個人データを保護するための内部ガイドラインを強化するよう各機関に求めているが、ホワイトハウスはデータ保護を完全に確保するためにはプライバシー保護法の必要性も認めている。イノベーションを奨励し、競争を強化するため、ホワイトハウスはF.T.C.に対し、消費者保護と独占禁止法違反の監視役としての役割を強化するよう要請する。しかし、ホワイトハウスには、独立機関であるFTCに規制を作るよう指示する権限はない。
    貿易委員会のリナ・カーン委員長はすでに、AIの監視役としてより積極的に行動する意向を示している。7月、同委員会はChatGPTのメーカーであるOpenAIに対し、消費者のプライバシー侵害の可能性と、個人に関する虚偽の情報を広めたという告発を理由に調査を開始した。
    「これらのツールは斬新ではあるが、既存の規則から免除されるものではない。FTCは、この新しい市場であっても、我々が管理する責任を負う法律を強力に執行する」と、カーン氏は5月にニューヨーク・タイムズ紙に寄稿した。
    テック業界は規制を支持すると述べているが、政府による監視のレベルについては各社で意見が分かれている。マイクロソフト、OpenAI、グーグル、メタは、第三者にシステムの脆弱性をストレステストしてもらうなど、自主的な安全性とセキュリティの約束に合意した15社のうちの1社である。
    バイデン氏は、AIが医療や気候変動研究に役立つ機会を支援する一方で、悪用から守るためのガードレールを設ける規制を求めた。彼は、AIのリーダーシップをめぐる世界的な競争において、規制と米国企業への支援のバランスをとる必要性を強調している。この目的のため、今回の大統領令は、高度な技術を持つ移民や、AIの専門知識を持つ非移民が米国で就学・就労するためのビザ手続きを合理化するよう、各省庁に指示している。

    米国オフィスの Koji に訊いてみました。

    Koji ― 日経の記事を見ると「アメリカ国内産業を規制する」というふうにしか見えませんでしたが、NewYorkTimes(NYT)を見る限りでは、ちょっと違うかなと。(もっとも、情報が少なすぎてどこまでやるのかは不明ですが)以下がポイントではないかと読んでおります。

    ・米国は新たな法律の草案を作成している。「欧州連合(EU)や、規制案を発表している中国やイスラエルなどの他の国々に遅れをとっている」という表現があるがNYTが「米国内の遅れ」という論調を煽っている。

    ・大統領選挙が近いため、ディープフェイクを警戒している

    ・大統領による宣言は直接の権限はないが「連邦政府の財布の紐」の力を使うことで、政府の顧客が基準を遵守するよう企業に強制することを目的としている。

    ・一般向けサービスへの影響は「クラウド」に関する言及があり、これは本来であればその企業が所属する州法や利用規約によって定められるものであり、急激な「国としての対応」という捉え方をするのは危ない。

    要素としてはどんな要素が言及されているか?

    兵器化のテストおよび報告
    高度なAI企業は、それが生物学的または核兵器の製造に使用できないことを確認するための徹底的なテストを行い、その結果を連邦政府に報告する必要があるとのこと。対象は、LLMとかエンジンを開発企業ということではないかと。日本企業だとIoT機器、ドローンの兵器転用などは注意すべき要素になるかもしれません。

    輸出制限
    特定の国への先進的なAI技術の輸出が制限される可能性がある。上記の記事にあった国名は明確に標的にされており、グローバルなAI利用サービス提供社は、そういう国と取引をしないという規制も将来的に設定される可能性がある。

    クラウドサービスの開示
    クラウドサービスを提供する企業は、外国の顧客に関する情報を政府に報告する必要がある。これもどこまでが対象になるのかこの記事では不明ですが、上記の輸出制限と関連して、各ビッグテックに対する税金の扱いや利用規約などで制限されていく可能性があります。日本の場合は、例えば生成AIを利用している反社会的勢力などが直接影響を受ける可能性がありますね。

    AI生成コンテンツのウォーターマーキング
    (必須ではないということですが)AIシステムによって生成された写真、ビデオ、およびオーディオにはAIによって作成されたことを示すウォーターマークを付けることが推奨されるとのことです。研究レベルではたくさんの技術が提案されており、AdobeやMicrosoftのような一社だけではなく、オープンソースなどで標準化が模索されています。

    未来の規制への適応
    連邦政府がAIシステムに対する明確な安全基準およびその他の規制を開発するにつれて、企業はこれらの変化に適応し、遵守していることを確認する必要が出てくるでしょう。具体的に何をさせられるのかは不明ですが、指針が出て、規制対応ということになれば、これは対応するしかなくなります。

    差別の排除
    AIツールで使用されるアルゴリズムによって、差別(discrimination)を防ぐための明確な指針が求められるとのこと。例えば画像生成AIで「犯罪者」を生成した場合にどんな人種が出てくるか、といった例でしょうか。これは法的規制に関わらず注意が必要な事項ですが、非常に難しい要素を含んでいます。

    いずれもOpenAIとかGoogle、StabilityAIといった生成AIのエンジンを提供する企業が、主たる規制の対象になるのではないかと想像します。一方、それを活用する企業に対しては、どこまで規制するのかは不明です。具体的な指針が出てくるのを待つしかない状態です。これは大統領令なので、議会で取り消し(上書き)されたり、裁判所で無効にされる可能性はあります。この記事の読みどころとしては「議会の動きよりは早い」という点が重要。つまり、規制と言いながらも、国内産業を抑え込む、という狙いではない、と見ています。
    なぜ今のタイミングなのかという話ですね。むしろ大統領選挙が近いため、ディープフェイクを警戒している可能性も読み取れます。安全保障面とか国家保護の色合いが濃く、読み手に警戒を発しているようにも読み取れます。具体的な国名として中国、イスラエル、EUを挙げて、アメリカの競争力を高めることを狙っているように見えます。

    日本から見るとアメリカ一強にみえる生成AIですが、覇権を争っている中国や、中東、そしてEUの動向に対して、ビッグテックを政府調達を通して、手綱をつけようとしているということかもしれませんね。

    Kojiさんありがとうございました。
    AICU社では今後も、米国からみた生成AIの社会面を扱っていきたいと思います!

  • LLM開発の面白さ,ゼロから頂点までを一気に学んだ!

    LLM開発の面白さ,ゼロから頂点までを一気に学んだ!

    AICUメディアコミュニケーション事業部のKotoneです!
    今回の記事では、Fully Connected Tokyo 2023という Weights and Biases社さん(ウェイツ・アンド・バイアスィズ, 以下WandB)主催のイベントの参加レポートをしていきます。
    ※本記事は勝手取材です!なにか間違っていましたら Twitter(X)@AICUai までフィードバックいただけたら幸いです

    しらいはかせの一言メモ:WandB社とは?

    WandBさんは機械学習の実験結果管理、データセットのバージョン管理などをされているプロ/学術/ホビー開発者向けプラットフォームです。
    わかりやすいところでは「Nejumi LLMリーダボード」という日本語LLMの性能ランキングを掲示している会社さんでもあります。こういうレポートを膨大な実験結果から可視化できるのが最大の特徴ですね。

    https://wandb.ai/wandb/LLM_evaluation_Japan/reports/Nejumi-LLM—Vmlldzo0NTUzMDE2?accessToken=u1ttt89al8oo5p5j12eq3nldxh0378os9qjjh14ha1yg88nvs5irmuao044b6eqa

    https://forest.watch.impress.co.jp/docs/serial/aistream/1525188.html

    日本語が扱えるLLMも「ChatGPT4の一強!」というわけでなく、時々ウォッチしてないと、GPT3からGPT3.5ぐらいの性能だといつの間にか順位が逆転して…ということもあります。そしてその測定方法などもきちんとウォッチしていく必要があります。

    そういえばテキスト読み上げツール「 VOICEVOX 」の作者、Hiroshibaさんも3年前からこんなツールをGitHubで公開されておりますね。

    https://github.com/Hiroshiba/wandb-client

    Fully Connected Tokyo 2023に参加しました!

    10月11日(水)、東京スクエアガーデンにてWeights & Bias社(以下WandB社)主催のイベント「Fully Connected Tokyo 2023」が開催されました。

    https://fullyconnected.jp/

    今回のイベントでは、生成AI/LLMから画像モデル開発まで、最先端のWandBユーザーの方々によるトークセッションを通して開発手法を学びました。

    約300人の開発者が集まる会場
    トークセッションの様子

    Weights & Biasとは?

    Weights&Bias(以下W&B)を簡単に説明すると、「AI開発者のためのプラットフォーム」です。実験の追跡、データセットのバージョン管理と反復処理、モデルのパフォーマンスの評価などを通してより良いモデルをより迅速に構築することができます。
    また今回のセッションでは、開発者同士でレポートを共有するなど、チーム内の行動の可視化にも活用されているという話を多く聞きました。

    https://wandb.ai/site

    トークセッションレポート

    ここからは、トークセッションの様子をレポートしていきたいと思います。
    アジェンダはこちら。

    https://fullyconnected.jp/

    W&B社のCarey Phelpsさんによるトークでは、W&Bの運営とサービスの内容について聞きました。

    英語でのトークを通訳の方が翻訳します
    今回のイベントが開催されたビル
    開発プラットフォームの構造

    株式会社マクニカの諸橋大地さんのセッション

    イスラエルの機械学習、AI構築の会社であるRun:Ai社さんの代理での登壇でした。

    GPUを効率的に管理する方法についての話を聞きました

    TOYOTA社のEvan Cushingさんのセッション

    自動車業界におけるW&Bの活用について学びました。

    自動車、歩行者などの検知
    ワークフローについて
    収集するデータの量をいかに増やすか

    SyntheticGestalt社の神谷幸太郎さん

    Dagsterというワークフローのツールについてのセッションです。

    Qosmo社の徳井直生さん

    AIアートとDJを組み合わせたライブイベントの開催をはじめとした、AIの創造性についての話を聞きました。

    AIアートが注目を集めている
    DJとAIアートの類似点
    AIと人が交互にDJを行うという新しいライブ

    東北大学教授 言語AI研究センター所属の鈴木潤さん

    LLMおよび言語処理研究でのWandB利用についての紹介でした。

    Stability AIの秋葉拓哉さん

    「LLMを作れって明日上司に言われたらどうしますか?」というテーマでのセッションでした。

    弊社の白井暁彦博士がこちらの記事で詳しく解説しています。

    https://note.com/o_ob/n/n62853c40f937

    論文の執筆チームの人数を見ると、どの工程が開発に重要なのかがわかる

    まとめ

    実は私はLLMに関しての知識が全く無く、今回ゼロからの学びとなりました。タイトル通りゼロから頂点を一気に学ばせていただき、開発を裏から支えるツールも、生成AIが主役となるDJのようなコンテンツも創ることができるという可能性の広さに刺激を受けました。
    LLMや生成AIが持つ影響力を肌で感じることができ、とても良い経験だったと感じました。

    交流させていただいたみなさんもとってもフレンドリーでした!
    お話させていただいたみなさんありがとうございました!

    …とここまで書いたところで…

    WandB社公式のイベントアーカイブが発信されておりました!
    (今回取材しきれなかった前半のセッションがレポートされています)

    https://note.com/wandb_jp/n/n1a0f9a050e19

    https://note.com/wandb_jp/n/nf7ca75671dab

    https://note.com/wandb_jp/n/naf43c899a926

    プレスリリースより

    Weights & Biasesが日本初のユーザーカンファレンスFully Connected Tokyoを開催
    (Weights & Biases Japan 2023年10月17日 12時11分)

    https://prtimes.jp/main/html/rd/p/000000010.000119963.html

    そして資料公開がStabilityAIさんと日経新聞社さんから提供されております

    https://wandb.connpass.com/event/294820/presentation/

    秋葉さんの講演も動画でまとめられております!

    今後も AICU media はLLM開発者のカッコよさを伝えていきます!

    キャー!アキバさーん!

    追伸:こんな取材でよければ…突撃します!

    10月27日(金)17時まで幕張メッセで開催中の「AI・人工知能EXPO」および Japan IT Week【秋】にお邪魔します!
    https://www.japan-it.jp/hub/ja-jp.html

    今回ご紹介したWandBさんはマクニカさんのブースで各日13時と16時にプレゼンを予定されているそうです

    ぜひうちのブースに来て!この登壇をレポートして!!という方はTwitter(X) @AICUai までお声がけください

    Originally published at https://note.com on October 25, 2023.

  • メディア事業部 noteで活動開始

    メディア事業部 noteで活動開始

    日本で最も生成AI関係の情報が集まるブログメディア「note」で、メディア事業部(AICU media)のブログ展開を開始いたしました。ぜひフォロー、購読、応援をよろしくお願いいたします。

    AICU media誕生です

    AICUメディアコミュニケーション事業部が始動しました。 AICU media誕生です。 AICU MediaはAIを使って人々の創造性を高めるツールを開発している会社です。 現在は画像生成AI「Stable Diffusion」に関する書籍の執筆や、AI教育にも取り組んでいます。

    https://note.com/aicu/n/n89184d379569

    AICUメディアコミュニケーション事業部が始動しました

    はじめまして Kotone です。AICU社メディアコミュニケーション事業部より note での情報発信を担当します!

    AICU media (アイキュー・メディア)って呼んでください

    AICU Inc.とは

    AICUとは、世界初の Stable Diffusion に関する書籍を書いた白井暁彦博士(aka しらいはかせ @ o_ob)らによる「創る人を創る」をビジョンに活動しているシリコンバレーのベンチャー企業です。

    メタバース開拓日誌
    https://note.com/o_ob/m/mde97459aa5eb

    クリエイティブなAIDX (AI Driven user eXperience)とコミュニケーションAIによって、人間の可能性を広げる「創造する人」を生み出す活動として、放送、アニメ、メディア、Webなどのプロフェッショナルに向けてAIDXを実施し、生成AIを活用した新しいコミュニケーション技術を開発したり、AIクリエイティブワークショップを提供しています。

    公式サイト https://aicu.ai/

    日本語コーポレートブログ https://corp.aicu.ai/ja

    公式YouTube https://www.youtube.com/@AICUai

    公式X(Twitter) @AICUai

    そしてこちらの note です https://note.com/aicu/

    皆様フォローよろしくお願いいたします!

    3つの事業部

    2023年10月現在、AICUは3つの事業部(ビジネスユニット)で活動しています。
    詳細はCFOの Koji Tokudaさんによる コーポレートブログ に情報があります。

    https://corp.aicu.ai/ja/aicu-inc-ir

    1つ目は Augmented Media Technology Business Unit [ 拡張メディア技術事業部] です。ここでは米国市場の大型ディスプレイやハードウェア関連産業と連携して、AIを活用したインタラクション・コミュニケーションの開発などを行っています。

    この分野は米国市場が好調のようです
    「The Sphere」というラスベガスのドームシアターにおける「U2」のライブの様子を御覧ください。
    https://www.youtube.com/watch?v=UEQdArsylN4
    LEDウォールディスプレイの大規模施設化は、もはや「HMD不要の没入体験」となりつつあります。
    ハードウェア産業だけでなく、施設、イベント運営、コンテンツ産業に大きな影響を与えています。

    この分野に関しては、AICU社AMT事業部は技術や知財開発が中心で、ハードウェアビジネスは別に米国の映像制作企業とともに Hidden Pixel Technology Inc. という米国の会社で活動しているそうです。

    https://note.com/o_ob/n/nf78327a6855f

    2つ目に AI Driven User Experience Laboratory [ AIDX Lab] です。
    AIならではユーザ体験、コミュニケーションAI、企業向けのプロトタイプ開発やコンサルテーションやPoC開発、[ AICuty]の開発もこちらが担当しています。

    https://corp.aicu.ai/aicuty

    コミュニケーションAIを軸に、AI産業のインタフェースとなる設計で、様々なAI産業やクリエイターのUGCに貢献できるような設計を進めています。
    現在α版で、個々のユーザが感情を込めたアニメーションで振る舞うチャットボットをカスタマイズ、多言語でコミュニケーションできるようになっています。

    これらをAICUでは AIDX AI Driven user eXperience と呼んでいます(実際には「話を聞いてみると結局は”AIによるDX案件”が多いから…」ってCEOは言ってました)。
    AIDX Labは主にメタバースオフィスでインターンやオンライン上の実力あるクリエイターが集まって、わいわい開発しています。

    3つ目が、 Media Communication Business Unit [ メディアコミュニケーション事業部] です。ブログメディア、書籍や映像メディア、クリエイティブワークショップやハッカソンの開発、AI関連企業のAdvocate事業、デベロッパーリレーション、テクニカルライティングやリサーチも担当しています。

    AICU INC 2023-Oct

    なんだか面白そうだけど難しそうですね!

    今回は Kotoneが担当する AICU mediaで現在取り組んでいるプロジェクトを「チラ見せ」させていただきます。

    ・最速の Stable Diffusion の書籍発売から1年…!

    『AIとコラボして神絵師になる~論文から読み解く Stable Diffusion』

    https://ivtv.page.link/aisd

    2022年10月28日にリリースされ、今も注目され続けている画像生成AI、『Stable Diffusion』のことはほとんどの方がご存じだと思います。その StableDiffusion(以下SD)がリリースされてからわずか2か月後、世界初の書籍*となり、ロングセラーとなりました。

    * StabilityAI社の方々が『これは世界初かも』言っていたので、「世界初の紙で出版された商業書籍での解説」としていますが、厳密には上記の同人誌「 グリー技術書典部誌 2022 年秋号」、上記の書籍と同じインプレスさん発行・852話さんの「Artificial Images Midjourney / Stable DiffusionによるAIアートコレクション」があるので諸説あります。
    (しらいはかせCEOによると、リリースから技術書典13での同人誌までが1カ月、その間852話さんと同じ編集者と並走しながら走りきって「2カ月で2冊、ほぼ世界初の書籍を執筆しちゃったらしい」という状況だそうです)

    https://amzn.to/45B6I4m

    現在、AICU media ではこの書籍の続編にあたるような書籍の執筆をいくつか進行させております……が、この時点では伏せさせてください…!
    しらいはかせCEO曰く『次の技術書典15までにはなんとかお知らせしたい!』と申しております。

    ・窓の杜でのAI記事「生成AIストリーム」連載

    インプレスさんが運営しているニュースサイト『窓の杜』にて、生成AIに関する様々な議論や応用方法についての記事を『生成AIストリーム』というシリーズで連載させていただいております。
    より幅広い読者を想定して、ツールの使い方や倫理面について長期にわたりミクロでマクロな視点で執筆しております。
    https://forest.watch.impress.co.jp/docs/serial/aistream/index.html

    カバーイラストも毎回生成AIで製作されています

    Yahooニュースでも読むことができます

    https://news.yahoo.co.jp/articles/db342ef5c1bca97ec09a3403ba4ceff3ff00dd66

    AICU mediaのプロダクションとしては、しらいはかせCEOのアシストをすべく、プロダクションやリサーチなどを担当しています。

    クリエイティブAIアドボケート活動

    アドボケート(advocate)とは、IT企業やベンダー側だけでなく開発者やクリエイターさん側に立った解説やサンプルを作るお仕事です。
    有名なところでは マイクロソフトの ちょまどさん こと 千代田まどかさん は「 クラウド デベロッパー アドボケイト」ですね!憧れます!

    生成AIの分野は進化も速く、倫理面やクリエイターの根幹に関わる要素が多く、(瞬間的なバズや企業のプレスリリースではなく…)第三者的に品質高く信頼高いまとまった記事や情報を発信する「生成AIの科学コミュニケーターが必要である」という視点で活動されています。もともと日本科学未来館で 科学コミュニケーター養成事業を経験したCEOならではの博士(工学@東京工業大学総合理工学研究科知能システム科学)としてのスキルと、エンジニアやデータサイエンティストだけでなく、今後求められる「サービスとしての生成AIの価値を明文化する」という活動になります。
    日本語のブログ執筆以外に、海外企業の社内向けのレポートやサービスのレビューなどを担当することもあります。これについても機会がありましたら紹介していきたいと思います!

    ・クリエイティブAI分野での人材育成・市場価値向上

    「創る人を創る」を長年活動の中心にしている しらいはかせCEOは現在、デジタルハリウッド大学大学院の客員教授でもありますが、実はさまざまな大学・高等教育機関での教育者としての経験も長い人物でもあります(東京工芸大学、東京工業大学、国際基督教大学、 神奈川工科大学、海外はフランスENSAM、米国CMU ETC他)。
    また企業ではグリーグループでGREE VR Studio LaboratoryというR&D組織を率いてたくさんの技術だけでなく優秀な人材を 育成してきました 。ゲームやインタラクティブ、メタバースやIP連携といった分野といった複雑でプロフェッショナルな知識が必要な分野であるデジタルコンテンツ分野での初学者をコンテンツ工学的なアプローチで総合的に、短期間で育成するプロフェッショナルでもあります。AIDXラボでの直接的なインターン活動だけでなく、今後は AICU mediaでの情報発信を通して、クリエイティブAI分野での人材育成や、倫理面の社会実装を通した解決、市場価値向上を活動されています。

    ・クリエイティブAIワークショップの開発

    上記のような「創る人を創る」活動をクリエイティブAIをプロフェッショナル向けのワークショップとして開発・展開しています。現在はまだクライアント企業の社内活動にコンサルティングをさせていただいている状態ですが、しらいはかせCEOが先駆開発している事例でも”最も難度が高いケース” として「障がい者向けのクリエイティブワークショップ」があります。

    神奈川県主催の「メタバースワークショップ」について開発している事例を紹介します。

    ともいきメタバース講習会(神奈川県)

    https://www.pref.kanagawa.jp/docs/m8u/meta_koshukai.html

    https://note.com/o_ob/n/n70f16eff83b8

    一見、福祉ボランティア活動のようにも見えますが、メタバースの活用や生成AIの活用を通して、クリエイティブで『創る人を創る』ために、すべての人が使える表現技術として、メタバースのソリューションカンパニー「 REALITY xr cloud株式会社」さんや県や当事者さん、他のスタッフさんらと協力しながら、単一の企業や自治体だけでは難しい開発やAIDXな社会実装を行っています。
    もともとはデジタルハリウッド大学の杉山学長( ALSにより、困難な状況にあります。また 学位授与式では直接祝辞を述べられております)をサポートする学内活動と大学院で「 クリエイティブAIラボ」の研究として行っていた活動、そしてご自身の両親や親戚など後期高齢者の介護やQoLなど様々な思いや経験が、生成AIの時代に置いて、企業や自治体から需要が明確になってきたというシードフェーズなのです。
    法的な側面は弁護士さんなど専門家と連携しつつ、倫理面や感情面は公共セクターと民間企業の活用事例が多く求められていく時代になることを見据えて、非常に泥くさいフィールドワークを通して開発を行っています。障がい者や子供むけのワークショップをベースに、企業内リスキリングなど需要は多く、今後AICU media事業部の開発力が求められていることを毎日感じております……!

    今後、この note ではこんな活動をします!

    さて、いろいろ盛り込みすぎてしまいましたが……!
    今後この note ではもっと軽い感じで以下のような活動をしていきたいと考えております。
    ・生成AI、特にクリエイティブ分野での使いこなしテクニック
    ・生成AI関連イベントレポート
    ・ワークショップ開発情報
    ・企業でのナイスな生成AIの活用事例のご紹介(投げ込み歓迎です)
    ・企業や自治体で出会った「こんなAI問題ありました」の共有
    ・クリエイティブAIに興味がある学生さんやAI転職希望などの応援情報
    そしてライターさんや科学コミュニケーターさん募集!です!!いっしょに盛り上げていきましょう!!

    オンラインやスポットでの活動、学生インターンも歓迎だそうです!
    現在は特にコンピュータサイエンス系のインターンの応募がLinkedInから出ています。
    https://bit.ly/AICU23Int

    ご感想や情報投げ込みなどは メール media [at] aicu.ai もしくは
    こちらのTwitter(X) https://twitter.com/AICUai までお寄せいただければ幸いです!
    もちろんフォローもお忘れなく
    よろしくおねがいします

    まだまだ新人気分が抜けない Kotoneがお送りしました!

    Originally published at https://note.com on October 19, 2023.