投稿者: admin

  • 【生成AIの社会と倫理】「画像生成AI Stable Diffusion スタートガイド」 #SD黄色本 公式ワークショップ 2024/6/26(水)19:00〜20:30開催

    【生成AIの社会と倫理】「画像生成AI Stable Diffusion スタートガイド」 #SD黄色本 公式ワークショップ 2024/6/26(水)19:00〜20:30開催

    本ワークショップは2024年3月29日に発売された書籍「画像生成AI Stable Diffusion スタートガイド」(白井暁彦AICU media編集部SBクリエイティブ刊)をベースに、最新の画像生成AIについて学びたい方のためのワークショップです。

    お申し込みはTechplayから https://techplay.jp/event/946209

    「生成AIを使うにあたって何に気を付ければいいんだろう?」
    「画像生成AIで生成してみたけどこれって著作権違反にならないの?」
    「生成AIのモデルを作ってみたいけど何かしなければいけないことはあるのかな?」

    このような方に向けて、本書の法律監修で参加された 柴山吉報 弁護士 (阿部井窪片山法律事務所)の とAICU media編集部が、生成AIを取り巻く法律と発注や受注する際に必要な知識、トラブルにならないためのポイントを解説します。

    業務の上での発注者や受注者、イベントやスクール開催、教育、著作権や意匠権といった知的財産権との関係、訴訟リスクが高いパターンなど、生成AI・画像生成AIを扱う際の「『陽のあたる場所』を増やすべく、不安な点を明らかにしていく」という目的の公式ワークショップになります。

    第1パートはSD黄色本の監修を行った弁護士による勉強会、
    第2パートは参加者からの質問にお答えしていく相談会、
    第3パートはAICU編集部とのオンライン交流会・LT登壇を受け付けます。

    参加対象

    • 生成AIに関するビジネス開発、法務担当者、経営者
    • 生成AI時代のクリエイター/フリーランサー
    • 広告・映像業界、アニメ制作、ゲーム開発、教育・研究系のプロフェッショナル
    • 生成AIを業務や社内で活かしたい方
    • これから本書を買ってみようと思う人
    • 生成AIを今後の人生に活かしたい方

    参加費

    ・書籍購入済みの方 : 2,000円
    ・書籍付き : 5,000円
    ・本ワークショップの社内での展開等はこちらをご参考ください

    オンラインサイン本企画

    申込時に「書籍付き(サイン入り・申込後に発送)」をお選びいただくと、著者の直筆サイン本を事前発送いたします。発送が間に合うように、ぜひとも早めのご参加登録をおすすめします。

    タイムスケジュール

    時間内容
    19:00〜オープニング
    19:10〜19:30【勉強会】SD黄色本監修弁護士による「生成AIの社会と倫理」
    最新の基本知識を解説(仮)
    19:30〜20:00【相談会】参加登録者からの事前質問への回答タイム(仮)
    20:00〜20:30【交流会】AICU mediaオンライン交流会・ライトニングトーク

    ※ 当日予告なく時間配分・内容が変更になる可能性がございます。

    登壇者

    Kippo_Shibayama

    柴山吉報 弁護士

    阿部井窪片山法律事務所 (#SD黄色本 法律監修)

    主な取扱分野は、一般企業法務、人事労務、ベンチャー法務、事業再生、M&A等の各分野。IT企業のクライアントが多く、システム開発、AIのモデル開発及びデータの取引等の相談及び契約書の作成、知的財産戦略等に関するアドバイスなどを行う。機械学習エンジニアの資格(JDLA Deep Learning for ENGINEER 2020 #1)を有し、AIエンジニアとしての知見を用いて踏み込んだアドバイスを提供している。 先端的な事業を行うベンチャー企業からの規制法対応や上場支援等の相談を受ける一方で、窮境にある会社の事業計画の策定支援や金融機関との交渉等の事業再生分野の業務も行うなど、様々なフェーズの会社において、事業に深く関与した法的サポートを得意とする。また、事業再生のための組織再編など、多数のM&Aの経験を有する。 特許庁・経済産業省「オープンイノベーション促進のためのモデル契約書ver2.0(AI編)」検討メンバー一般社団法人日本ディープラーニング協会有識者会員AI プロダクト品質保証コンソーシアムメンバー一般社団法人日本ディープラーニング協会の研究会「AIデータと個人情報保護」副座長 主要著書「マンガでわかる DX」(共著)SBクリエイティブ(2023年)「ディープラーニングG検定(ジェネラリスト) 法律・倫理テキスト」(共著)技術評論社(2023年)「実践 ゼロから法務!―立ち上げから組織づくりまで―」(共著) 中央経済社(2023年)「Q&A AIの法務と倫理」(共著) 中央経済社(2021年)「経験者が語るQ&A 電子契約導入・運用実務のすべて」(共同編著) 中央経済社 (2021年)「契約解消の法律実務」(共著)中央経済社(2022年)「第4次産業革命と法律実務-クラウド・IoT・ビッグデータ・AIに関する論点と保護対策-」(共著) 民事法研究会 (2019年)ほか。
    

    白井暁彦

    白井暁彦

    AICU Inc. CEO

    白井暁彦(Akihiko Shirai, PhD / しらいはかせ)(X アカウント:@o_ob)エンタメ・メタバース技術の研究開発に関わる研究者、ホワイトハッカー作家、米国スタートアップ「AICU Inc.」「Hidden Pixel Technology Inc.」のCEO。東京工芸大学写真工学科卒、同画像工学専攻修了。キヤノン株式会社とグループの研究所より生まれた英国・Criterion Software にて世界初の産業用ゲームエンジン「RenderWare」の普及開発に参加、その後、東京工業大学知能システム科学専攻に復学。博士学位後、NHK エンジニアリングサービス・次世代コンテント研究室、フランスに渡りENSAM 客員研究員、国際公募展Laval Virtual ReVolution の立ち上げ、日本科学未来館科学コミュニケーター神奈川工科大学情報メディア学科准教授を経て、2018 年よりデジタルハリウッド大学 大学院客員教授 およびグリー株式会社GREE VR Studio Laboratory Director。スマートフォン向けメタバース「REALITY」を開発・運用するREALITY 株式会社の立ち上げを通して、Virtual YouTuber などXR ライブエンタメ技術のR&D、国際発信など、メタバースエンタテイメントの未来開発や知財創出を中心に、自らエンタテイメントのライブプレイヤーとして世界に向けた開発・発信活動方法論化しながら世界中のエンタテインメント技術業界に数百人の規模でクリエイターを育成している。2023 年よりデジタルハリウッド大学発米国スタートアップ企業「AICU Inc.」CEO。生成AI 時代に「つくる人をつくる」をビジョンに英語、日本語、フランス語、プログラミング言語などでオープンな作家活動を続けている。日本バーチャルリアリティ学会 IVRC実行委員会委員。芸術科学会副会長。著書に『画像生成AI Stable Diffusionスタートガイド』、『WiiRemote プログラミング』(オーム社)、『白井博士の未来のゲームデザイン - エンターテインメントシステムの科学-』(ワークスコーポレーション)、『AI とコラボして神絵師になる 論文から読み解くStable Diffusion』(インプレスR&D)他。
    

    【#SD黄色本 『画像生成AI Stable Diffusion スタートガイド』 紹介】

    全目次公開記事はこちら!
    https://ja.aicu.ai/sbxl/

    画像生成AIの1つであるStable Diffusionを導入・体験するための入門書です。
    プログラミングが分からない、ネットの情報を見てもうまく使えなかった、そんな悩みを抱えている人でもAIを使った画像生成体験ができるようにしっかりサポートします。
    本書籍では以下の環境で解説します。
    ・Google Colab Pro環境
    ・Windows10/11 NVIDIA GPU環境
    ・MacOS Apple silicon 環境
    本書籍では以下の内容を取り扱います。
    ・拡散モデルによる画像生成の原理
    ・Stable Diffusionを使用するためのWebUI環境構築
    ・テキスト/画像を元に画像を生成する(txt2img/img2img/ControlNet)
    ・Google Colab 上で追加学習を行う(LoRAの作成)

    本書ではソフトウェアの使い方解説だけではなく、自分で設定できるセッティングやパラメータが画像生成にどのように関わっているのかについても解説しているため、AI技術について知識を深めたい人にとってもおすすめです。
    また、既にAIを活用している方にもご満足いただけるように、よりAI画像制作を極めるヒントとなるようなStable Diffusionを含むAI画像生成を利用した作例のメイキング方法やプロンプト構成/生成パラメーターなどの情報を公開・解説しています。ハンズオン形式で最後まで取り組むことで、画像生成AIへの理解をより深めることができる1冊となっています。

    Chapter1 画像生成AIについて知ろう
    Chapter2 環境構築をしてはじめよう
    Chapter3 プロンプトから画像を生成してみよう
    Chapter4 画像を使って画像を生成してみよう
    Chapter5 ControlNetを使ってみよう
    Chapter6 LoRAを作って使ってみよう
    Chapter7 画像生成AIをもっと活用しよう

    お申し込みはTechplayから
     https://techplay.jp/event/946209

    各分野に向けた各章を深く掘り下げる形のレギュラーイベントとして実施する可能性がありますので、こちらのコミュニティをフォローよろしくお願いいたします。
    https://techplay.jp/community/AICU
    また内容も、映像プロフェッショナルから、企業研修、学校団体(クラブ・サークル等含む)も多様に開発していく予定です。


    注意事項

    • 本ワークショップの配布物や上映内容の録音、スクリーンショットはご遠慮ください。
      ※公式イベントレポートは AICU media noteメンバーシップにて募集中しております。
    • リクルーティング、勧誘など、採用目的でのイベント参加はお断りしております。
    • キャンセル待ち・補欠・落選の方はご参加いただくことが出来ませんのでご了承ください。
    • 欠席される場合は、お手数ですが速やかにキャンセル処理をお願い致します。
    • 無断キャンセルや欠席が続く場合、次回以降の参加をお断りさせていただく場合がございます。
  • AiSalon Tokyo-June2024にAICUが登壇

    AiSalon Tokyo-June2024にAICUが登壇

    2024年6月12日に東京で開催されるAiSalonイベントに参加しませんか?AiSalonは、AIに特化した創業者、構築者、投資家、企業パートナーによる、そしてそのためのグローバル・コミュニティです。

    Lumaにて受付中 https://lu.ma/r9xncgw1?tk=YAsFmH

    月に一度、日本に進出しているスタートアップ企業が、他の創業者、パートナー、投資家に向けて、現在取り組んでいるプロダクトを紹介するライトニングトークを行う対面形式のイベントです。

    デモを希望される方は、応募時にお知らせください!注:今すぐ、または今後の月例AiSalonイベントでデモをしたい場合は、イリヤ・クルヤチン(ilya@tokyoai.jp またはLinkedIn)に確認してください!

    どのイベントでもAIスタートアップのデモが行われ、ファウンダーは貴重なフィードバックを得たり、関係を築くことができます。投資家やVCがAiSalonを訪れ、最新の東京のAIとMLスタートアップエコシステムイノベーションを見学します。

    AiSalonはBlitzscaling VenturesのGPであるJeffrey Abbottによって立ち上げられ、東京支部のJETRO後援を通じてTokyo AI (TAI)と提携することになりました。DEEPCOREは飲食のサポートをしており、東京AIのエコシステムには欠かせない存在です。

    アジェンダ

    18:00 開場
    18:30 今月のAI(10分)
    Tokyo AIのイリヤ・クルヤチンより、この1ヶ月でAI界で何が起こったかをご紹介します。
    19:00 スタートアップデモスピーカー(各4-5分):
    SOXAI渡邉達彦、創業者兼CEO): SOXAI RINGは日本製の指輪型ウェアラブルデバイスで、睡眠、ストレス、活動の質など日常生活の健康状態をモニタリングすることができます。

    Jurin AI (Rise Ooi, 創業者兼CEO): 樹林AIは、現代に相応しい、優れた不動産管理ソフトウェアです。

    StreamPodオクタビオ・カノ、創業者兼プラットフォーム・エンジニア): StreamPodは、マルチテナント管理プラットフォーム内にパッケージ化されたマルチモーダルLLMを統合します。このプラットフォームは、マルチメディアワークフローのための幅広いAPIセットを提供します。

    Zeteohヤン・ル・ギリー、共同創設者兼CEO): 従来の屋内位置情報システムはビーコンを使用しますが、技術的な複雑さ、制限、メンテナンスの必要性からビジネスに不満を抱かせる可能性があります。ZeteohはウェアラブルデバイスとAIを組み合わせ、ビーコンを使わないロケーションソリューションを提供します。これにより、企業は障壁なくこのシステムの恩恵を受けることができます。

    AICU Inc.(創業者兼CEO 白井暁彦): AICU Inc.は、クリエイティブAI時代の「つくる人をつくる」をビジョンに掲げるクリエイティブAIニュースメディアです。

    スタートアップ6:未定

    21:00まで、スタートアップのデモブースとオープンネットワーキングを行います。

    場所
    日本, 〒107-6006 東京都港区赤坂1丁目12番32号 アーク森ビル総合案内7階

    エレベーターで7階までお越しください!

    グローバルAiSalonについて

    AiSalonは、AIに特化した創業者、構築者、投資家、企業パートナーによる、AIに特化した創業者、構築者、投資家、企業パートナーのためのグローバルコミュニティです。

    ジェトロ(JETRO)について

    ジェトロは、対日直接投資と日本と世界のビジネス・パートナーシップを促進する政府関連機関です。

    ジェトロウェブサイト:https://www.jetro.go.jp/en/invest/

    ジェトロLinkedInページ

    https://www.linkedin.com/company/jetro-japanexternaltradeorganization

    https://www.linkedin.com/company/jetro-collaborate-and-invest-japan

    https://www.linkedin.com/company/jetro-global-connection

    東京AI(TAI)について

    TAIは、東京に活気と結束力のあるAIエコシステムを育成することを使命とする、構築者、エンジニア、投資家のコミュニティです。

    TAI Discord: https://discord.gg/a7UUvZpvvj

    TAI LinkedIn: https://www.linkedin.com/company/tokyoai/

    DEEPCOREについて

    DEEPCOREは東京を拠点とするAIに特化したインキュベーターであり、テクノロジーで世界を変えようとする起業家を支援するVCです。プレシードからシリーズAまで投資。

    DEEPCOREウェブサイト:https://deepcore.jp/en-home

    KERNEL by DEEPCOREは、テクノロジーで世界を変えたい人のためのコミュニティです。プレアントレプレナー(スタートアップに関わる前)でもサポートが受けられます。

    個人向け:https://kernel.deepcore.jp/en/

    チーム/企業向け:https://bit.ly/kernel-plus

    会場: 〒107-6006 東京都港区赤坂1丁目12番32号 アーク森ビル総合案内7階

  • Computex 2024 基調講演 Stability AI のCEO/CTOが語る Stable Diffusion 3 は「自然の進化」

    Computex 2024 基調講演 Stability AI のCEO/CTOが語る Stable Diffusion 3 は「自然の進化」

    ■Stability AI クリスチャン・ラフォート氏の講演を入手

    AICU media は講演動画を入手しましたので要約翻訳でお送りします

    AMDの基調講演(Dr. Lisa Su, Chair and CEO, AMD)

    https://www.computextaipei2024.com.tw/en/index.aspx#keynote1

    司会者:皆さん、本日は、AI開発者と密接に連携しているAMDのMI300 (AMD Instinct™ MI300 Series Accelerators)についてお話しします。それでは、Stable Diffusion の画期的なオープンアクセスAIモデルで知られる Stability AI のCTO兼共同CEO、クリスチャン・ラフォートさんをお迎えしましょう。こんにちは、クリスチャンさん。お元気ですか?

    クリスチャン:こんにちは。元気です。この場に立てることを光栄に思います。Stability AI の仲間たちを代表してここにいます。

    司会者:今日はStability AIの多くの革新についてお話しいただきますね。まずは、これらのAIモデルがどのようにして可能性の境界を押し広げているのか、教えていただけますか?

    クリスチャン:もちろんです。私たちは、あらゆる業界で生産性の飛躍的な向上を目の当たりにしています。特に、私たちがモデルとソースコードを無料で公開したことで、多くの開発者や研究者が新しい発見を驚異的な速度で行い、新しいアプリケーションを作り上げました。例えば、古い家族写真の修正や品質向上、あるいはもう見たくない人を写真から削除することが、今や誰でも数秒でできるようになりました。同様に、生産性の向上は画像だけでなく、言語、コーディング、音楽、音声、3Dといった他の研究分野でも見られます。これらを組み合わせることで、映画制作やビデオゲームの生産性を少なくとも10倍に引き上げることを目指しています。

    司会者:それは素晴らしいですね。さて、今日は何か大きなニュースがあると伺っていますが。

    クリスチャン:はい、Stable Diffusion 3のリリースが間もなくです(the weight/wait fot Stable Diffusion 3 is almost over..!)。

    コミュニティの皆さんの忍耐と理解に感謝しています。品質と安全性を向上させるために多大な努力を注ぎました。本日、6月12日にStable Diffusion 3のミディアムモデルを皆さんにダウンロードいただけるようリリースすることを発表します。

    (会場から拍手)

    クリスチャン:多くの努力がこのモデルに注がれました。私たちは、コミュニティがこのモデルをどのように活用するのか、とても楽しみにしています。技術的でない方々にはわかりにくいかもしれませんが、かつては研究の最前線がこうしたモデル、例えば Stable Diffusion のようなものに繋がっていました。これはまさに自然な進化のようなもので、様々な新しい方法で組み合わさっています。これをオープンに公開することで、何百万人もの人々が最適な組み合わせ方を発見し、新しいユースケースを解放するのを手助けしてくれます。SD3ミディアムは、これまでにない視覚品質を実現したSD3の最適化バージョンであり、コミュニティが自分たちの特定のニーズに合わせて改善することができます。これにより、次の生成AIのフロンティアを発見する手助けになります。このモデルはもちろんMI300上で非常に高速に動作し、発表されたばかりのRyzen AI搭載のラップトップでも動作するほどコンパクトです。こちらがStable Diffusion 3で生成した画像です。台湾の夜市を描写するようにチャレンジしました。

    司会者:とても素晴らしいですね。

    クリスチャン:細かく見ると完全なフォトリアリスティックではないかもしれませんが、テキストプロンプトのさまざまな要素をよく捉えていると思います。特に、この長いテキストプロンプトを実際に入力するよりもはるかに速く生成されたことを考えると、特に印象的です。歩いている通行人、石でできた通り、夜間の雰囲気などが捉えられています。

    クリスチャン:SD3は、マルチモーダルディフュージョントランスフォーマーアーキテクチャを使用しており、視覚コンセプトとテキストプロンプトを以前のモデルよりもはるかに優れた方法で理解します。シンプルなプロンプトにも対応しているので、これを使いこなすための専門知識は必要ありませんが、より複雑なプロンプトにも対応し、そのすべての要素をうまく組み合わせることができます。SD3は、あらゆる種類の芸術スタイルやフォトリアリズムに優れています。

    ここに実際に非常に難しい例があります。これは、1年以内にリリースした前のバージョンであるStable Diffusion XL (SDXL) との比較です。この例は特に難しいのですが、なぜなら、手を描くことがこれらのモデルにとって非常に難しいからです。また、ギターの弦やフレットのような繰り返しのパターンも含まれています。これらはすべて、モデルが理解し正確に描写するのが非常に難しいものです。SD3がギターの形や手のようなより現実的なディテールを生成したことに注目してください。細かく見ると、いくつかの不完全な点があるかもしれませんが、前世代に比べて大きな改善です。

    司会者:本当にすごいですね。MI300 GPUについての印象はどうですか?

    クリスチャン:素晴らしいです。MI300の192GBのメモリはまさにゲームチェンジャーです。新しいモデルを解放する方法として、より多くのメモリを持つことが非常に重要です。これが、より大きなモデルをより早く、より効率的にトレーニングするのに役立つのです。具体例を挙げると、AMDとの協力でクリエイティブアップスケーラ機能を開発しました。これは、1メガピクセル未満の古い写真を取り込み、解像度を大幅に向上させ、品質も同時に向上させる機能です。Nvidia H100で30メガピクセルを達成した時も嬉しかったのですが、MI300Xにコードを移植したところ、ほとんど努力なしで100メガピクセルに達しました。コンテンツクリエイターは常により多くのピクセルを求めているので、これは大きな違いを生みます。実現するためにほとんど努力が必要なかったことも大きなステップアップです。研究者やエンジニアは、AMDとStankのGPUが提供する素晴らしいメモリ容量と帯域幅の利点を気に入ることでしょう。

    司会者:それは驚異的です。AMDとの今後の協力についてはどう考えていますか?

    クリスチャン:AMDとのさらに密接な協力を通じて、新しい最先端のビデオモデルを開発し、全世界に公開したいと考えています。これにはより多くのメモリとコンピュートパワーが必要です。AMDのチームと密接に協力して、これを実現したいと考えています。

    司会者:素晴らしいですね。今日はお話いただき、ありがとうございました。

    ✨️本記事が面白かったら、ぜひシェアをよろしくお願いいたします!

    社内Slack等のシェアでも歓迎です。

    また「こんな記事欲しい」といったリクエストがございましたら X@AICUai までメンションやDMでいただければ幸いです。

    ✨️AICU Inc.は Stability AI 公式パートナーです。

    様々なアプリ開発のご相談も承っております!サービスに導入したい、使いこなせる社員をパッと育成したい!そんな需要がございましたら sai@aicu.ai までどうぞご相談ください。

    https://corp.aicu.ai/ja/stability-ai-membership

    生成AI時代に「つくる人をつくる」AICU社、生成AIリーディング企業「Stability AI」と戦略提携 https://prtimes.jp/main/html/rd/p/000000007.000133647.html

  • Stability AI が Stable Diffusion 3 の weights を 2024年6月12日に公開予定…ところで画像生成AIにおける weights って何?

    Stability AI が Stable Diffusion 3 の weights を 2024年6月12日に公開予定…ところで画像生成AIにおける weights って何?

    Computex Taipei 2024のオープニングキーノートにて、Stability AI 共同CEOの Christian Laforte氏(@chrlaf) がStable Diffusion 3 Medium を6月12日にオープンリリースすると発表しました。

    <Stability AIの公式メールニュースからの翻訳>

    「Stable Diffusion 3 Medium」が登場します!6月12日(水)より、Hugging Faceでweights をダウンロードできるようになります。SD3 Mediumは、20億のパラメータを持つSD3モデルで、これまでのモデルが苦手としていた分野で特に優れた性能を発揮するように設計されています。主な特徴は以下の通りです:

    フォトリアリズム: 手や顔によく見られるアーチファクトを克服し、複雑なワークフローを必要とせずに高品質の画像を提供します。

    タイポグラフィ: タイポグラフィにおいて強固な結果を達成し、大規模な最新モデルを凌駕します。

    パフォーマンス: 最適化されたサイズと効率性により、コンシューマー・システムとエンタープライズ・ワークロードの両方に最適です。

    ファインチューニング: 小さなデータセットから微妙なディテールを吸収できるため、カスタマイズや創造性に最適です。

    SD3 Mediumのweightsとコードは、非商用目的にのみご利用いただけます。Stable Diffusion 3の商用利用を目的としたセルフホスティングライセンスのご相談は、以下のフォームにご記入ください。弊社のチームがすぐにご連絡いたします。

    Sign Up to the Stable Diffusion 3 Weights List

    https://stability.ai/stablediffusion3

    追伸:それまで待てないという方は、当社のフレンドリーなチャットボットStable Assistant、DiscordのStable Artisan、またはAPIから、当社の最も高性能なテキスト画像変換モデルの3日間無料トライアルにアクセスできます。

    Stable LM2 12B は、Stable Assistant を強力にサポートします。Stable Assistant は、当社の最も先進的な言語モデルであり、その強力なテキスト生成機能でコンテンツを強化します。 

    Stable Artisanは、Discordエコシステム内のStability AI Platform API上の製品を利用する、楽しいマルチモーダル生成AI Discordボットです。このボットは、Stable Diffusion Discordサーバーにアクセスして、他のコミュニティと一緒に画像を生成・編集することができます。

    <公式発信ここまで>

    「weightsの公開」にはどんな意味があるのか

    つまり、「weightsをダウンロードできるようになる」というということの意味は、「AIモデルをダウンロードできるようになる」というとして理解してよいと考えます。

    ただしリリースに記載のある通り、AIモデルをダウンロードして使用できるのは非商用目的であり、商用利用する場合は要相談となる点には注意が必要です。

    画像生成AI解説用語集

    📖用語「weights」

    「weights」とは「AIモデル」にあたります。

    #SD黄色本「画像生成AI Stable Diffusionスタートガイド」p.27の解説によると……

    「コンピューターの中では、「ノード」と呼ばれる単位がニューロンの役割をしていて、これらが「重み」(weights)でつながっており、「バイアス」(bias)は入力が0の時、出力にどれだけ値を上乗せするかを意味します。この大量の「重みとバイアス」のセットこそがそのネットワークの「モデル」であり、この調整を入力刺激と出力結果を評価していくことでモデルを学習させることになります。」

    機械学習における「weights & biases」はモデルの学習結果そのものであり、Stable Diffusion以降のAI画像生成AIにおいては safetensorsファイルのことを意味する事が多いでしょう。

    なお英語的には「weights」であって「weight」ではないのでAICU media編集部ではカタカナで「ウェイト」と表記することは限定的とします。

    📖用語「アーチファクト」artifacts 

    アーチファクト(artifacts)という語は、ラテン語で「人工物」を表すars、artisと「作られたもの」を表すfactumの組み合わせで「人工的に作られたもの」を意味します。人為的または技術的な影響によって発生する産物または現象を指します。画像生成AIにおいては「自然物」に対して「人造物」と解釈することができます。

    📖用語「セルフホスティング」self-hosting

    AIモデル提供企業自身による演算基盤や環境をAPI経由で提供するのではなく、weightsをオープンに配布し、ダウンロードして独自の演算環境やアプリケーション、ツールやAPIサーバーに実装して利用すること。ブラックボックス化や長期サポートが保証されないモデル提供企業のAPI経由に対して、内部動作の透明化や最適化、コミュニティのサポートなどの利点がある。

  • #10分で学べるAI Google Slidesでバリエーション広告を大量生成

    #10分で学べるAI Google Slidesでバリエーション広告を大量生成

    「ようこそ!アイキュー部」-1話

    「AIでクリエイティブなビジネスをする!」をテーマに学内起業コンテストにエントリー提案をして「アイキュー部」を設立したKotoちゃん。

    今日は知り合いの不動産会社から依頼された案件に取り組んでいます。

    Koto「あ~あ、新築分譲マンションのバリエーション広告を作ってくれ……って頼まれたんだけど、今日はもう帰らないと…ルゥくん、あと頼むわね!」

    ★バリエーション広告:さまざまな対象者に向けて制作する多様性のある広告

    ルゥ「Koto先輩!?待ってください、何やってるんですか?」
    Koto「え……?アイキュー部で受けたバイトなんですが何か問題でも?」
    ルゥ「そうなんだ……って!なんで手で作ってるんですか?『AIでクリエイティブなビジネスする』ってのがこの部活なんですよね??」
    Koto「私は『アートイラスト・キュレーション部』の略のつもりで「AICU部」って書いたつもりなんだけど……審査員の先生にウケが良かったのでついそのまま……」
    ルゥ「押し切られちゃったんですか!?」
    Koto「こうやって部室も案件もらえたし、いいじゃない。しっかり稼ぎましょ」

    ルゥ「まあ……そうですね、で、これは何なんですか?」

    Koto「わからないの?『マンションポエム』よ!!」
    ルゥ「『上質が佇む(たたずむ)至高の邸宅』……なんだかよくわからないけどこれがあるだけでリッチな感じしますね」
    Koto「『これをできるだけ多くのバリエーションを作ってこい』というのがクライアントから出された課題よ」
    ルゥ「たしかにAI画像生成でできなくもなさそうだけど……これをいくらで受けたんですか?」
    Koto「ああ!もう帰らないと門限が!じゃあ私が家につくまでに、そのAI画像生成とやらで、最低15パターンをGoogle Slidesに作っておいてね!」
    ルゥ「ひぃ」

    ――どうしよう、突然、大量の広告ビジュアルの生成を頼まれちゃった。画像生成しようにもGPUもないしな…。

    あ、でもこんな時は… Stability AI の Stable Image CoreGoogle Apps Scripts が使えるかも!

    ……とおもったら、即実行。こんな感じに出来上がってました!

    ▼「ようこそ!アイキュー部」-1話(後編)はこの技術解説の続きにあります▼

    やってみよう

    Stability AI が提供する Stability AI Developer Platform のイメージサービス のうちのひとつ「Stable Image Core」 のAPIを使って、GPUいらず、たった3分程度で商用利用できるバリエーション広告(さまざまな対象者に向けて制作する多様性のある広告)画像を様々なスタイル画像で生成してみましょう。今回はGoogle Slidesだけ、ノーコードで利用できるツールとして提供します。

    Stability AI のプラットフォーム APIキーの入手

    まず、このプログラムで画像生成をするには Stability AI のプラットフォームを利用するAPIキーが必要です。持ってない人はここにアクセスしてAPIキーを取得するか、管理者殿にお願いしてキーを発行してもらってください。

    https://platform.stability.ai/account/keys

    生成できない場合は支払い設定(https://platform.stability.ai/account/credits)を確認してください。

    Copy ❏ したら「sk-….」で始まるAPIキーをクリップボードにコピーできます。このAPIキーが流出すると勝手に使われてしまいますので管理はお気をつけて。

    次のステップに進みます。

    Google Slides コピーして自分のDriveに

    このリンクでコピーして使える Google Slidesを配布しています。
    お使いのGoogleアカウントでアクセスしてください。

    https://j.aicu.ai/SAIAD

    こんな画面のGoogle Slidesが表示されます。このあと自分のDriveにコピーしていきます。

    ファイル⇢「コピーを作成」⇢「プレゼンテーション全体」を実行します。

    「ドキュメントをコピー」のダイアログが表示されますので、そのまま「コピーを作成」ボタンを押してください。

    初回起動でAPIキーを設定

    まず最初に、APIキーを設定します。

    スライドの上に以下のようなダイアログが表示されます。コピーした直後に表示されるはずです。

    [S.] Stability AI Platform API Key Required

    このツールでは、画像を生成するために Stability AI プラットフォームの APIキー が必要です。
    お持ちでない場合は、https://platform.stability.ai/account/keys でAPIキーを取得してください。

    This program requires a Stability.ai API key to generate images.
    If you do not have one, please visit https://platform.stability.ai/account/keys to obtain an API key.

    と表示されますので、冒頭で取得した「sk-」で始まる51文字のAPIキーを貼り付けてOKを押してください。

    もし、コピー直後のダイアログで設定しそびれた人は、メニューの[AI Image Generator]⇢[Set API key]を実行することで設定できます。

    スクリプト実行権限の設定

    次に、APIキーの動作確認とスクリプト実行権限の許可を行います。メニューの3番目「Generate Images」を選んでみてください。

    「認証が必要です」というダイアログが表示されるはずです。

    スクリプト実行権限を許可していきます。

    現在お使いのGmailアドレスが表示されているはずです。

    スクリプト実行権限を許可するアカウントを選びましょう。保存先ドライブを選択する意味もありますので、実験目的であれば、まずは個人をおすすめします。

    アカウントを選択すると、今度は 「⚠️ このアプリは Google で確認されていません」という警告が表示されます。危険なアプリではありませんので左下の「詳細」を押して行きます。

    最後に「AICU-AdGenerator(安全ではないページ)に移動」を押して、各サービスへの許可を設定していきます。

    許可ボタンを押すことでドライブへの閲覧、書き込み権限、スライドの編集、外部サービス(Stability AIのAPI)へのアクセスを許可します。編集履歴などはお使いのGmailアカウントで実行したことが記録されますし、知らないうちに実行するような処理にはなっておりませんのでご安心ください。

    権限の設定が終わったら、再度メニューの3番目「Generate Images」を選んでみてください。

    「スクリプトを実行しています」が表示され、画像の生成がはじまります。

    3分程度で、「画像の生成が完了しました。フォルダを確認してください」が表示されるはずです。

    Google Driveのマイドライブ直下「AICU-Stability-AdGenerator https://j.aicu.ai/SAIAD のコピー」というフォルダに以下のような画像が生成されていれば成功です!

    これは同じプロンプトに対して、 異なるスタイルが15種類適用された画像になります。

    Google Slides自動生成とキャッチコピーの配置

    これで終わり!でもいいと思ったのですが、クライアントの要求は画像の生成だけでなく、「マンションポエム」と呼ばれるキャッチコピーも含まれるような気がしたので、もうひと押しGoogle Slidesで頑張ってみます。

    Kotoさんが作っていたスライドにあったキャッチコピー「上質が佇む至高の邸宅。」とスタイルを第1ページに設定してあります。こちらは自由に編集していただいて構いません。

    これで準備は完了です!

    下の[Prompt=]に生成したいもの,
    [NP=] に見たくないものを英語で入れて
    メニューの3番目の[AI Image Generator]⇢[Add Slides by all styles] を選んでみてください。

    「スクリプトを実行しています」と表示されます。

    この後の結果が出るまでは、数分かかります。無事に生成されるとこのように15枚のスライドがキャッチコピー付きで生成されます。左下のスライド一覧表示にしてみましょう。

    初期状態では「Prompt=urban tokyo bayfront skyline residences ad luxury super rich visual」(プロンプト=東京ベイフロントのスカイライン・レジデンス広告の豪華なスーパー・リッチ・ビジュアル)となっているので、このまま何度でも「Add Slides by all styles」を実行すれば15枚づつ、東京湾ベイエリアの高級そうな住居の画像が生成されます。第1ページにある「Prompt=」と「NP=」を変えるだけなので、例えばこんなプロンプトにしてみます

    Prompt=Paris urban apartment  パリの都会のアパルトマン
    NP=Nsfw, worst quality
      (ネガティヴ・プロンプト)職場にふさわしくない、悪いクオリティ

    Stability AIの Stable Image Core API に実装されている多様なスタイルのおかげで、自然なバリエーション広告を生成できています。ネガティヴ・プロンプトのおかげもあってか、あまり出来の悪いスライドはありませんが、不要なスライドやキャッチコピーの修正を行って完成です。

    このSlidesに追加してある「AI Image Generator」メニューから実行できる機能の詳細は以下のとおりです。

    ・ Set API Key:Stability AI のAPIキーを設定します。

    ・Add Slides by all styles:タイトル(1枚目のスライド)で「Prompt=」で与えられたプロンプトと「NP=」で与えられたネガティブプロンプト(英語)から Stability AIの Stable Image Core API を使用して15種類のスタイル適用済み画像をGPU不要で画像を生成し、1枚生成されるごとに、スライドの画面全体に表示されるように背景画像として配置しています。追加された各スライドのタイトルとメモに 使用したstyleとプロンプトを設定しています。

    ・Generate Images:タイトル(1枚目のスライド)で与えられたプロンプトから、スライドのファイル名と同じ名前のディレクトリにすべてのスタイルの‪2,040 x 1,152‬pixelsの画像を15スタイル生成します。

    ・Save All Slides:PDF がDriveに保存されます。Google Slidesの[ファイル]⇢[ダウンロード]で保存でも構いません。

    ・15スタイルの生成は3分程度で51credit (80円ぐらい)です。

    ※安全のため、他人とシェアするときは Set API Keyを使って有効ではないAPIキーを設定しておくことをおすすめします。
    ※本ツールのソースコードが気になる方は Google Slides上でスクリプトエディタをご参照ください。このコードの著作権はAICU Inc. が保有しています。この記事で公開されているツールの使用における損害等についてAICU Inc.は責任を負いません。
    ※実際の広告等への利用など Stable Diffusionの商用利用に関するご質問は sai@aicu.ai までお問い合わせください。

    技術解説「Slidesだけでも画像生成できる」

    Google SlidesをコピーしてAPIキーを貼り付けるだけで様々なスタイルの画像を生成をすることができました!

    AICU media では今後も話題の Stable Diffusion 3.0 やStable Image Core を用いた記事を発信していく予定です。面白かったらぜひフォロー、いいねをお願いします!

    次回予告

    さてその後のアイキュー部のDiscordでのやり取りです

    ルゥ「Koto先輩~、Google Slides作っておきましたよ~」
    Koto「わあ!すごいのができたね!!早速クライアントに提出してくる!」

    (…しばらく後…)

    Koto「ルゥくんゴメェン!今回のクライアントは『Google Slides禁止!』だそうです!!」
    ルゥ「うええええええええ!先に聞いてきてくださいよ!!」

    せっかくルゥくんが頑張って作ったGoogle Slidesですが、別のアプローチを探さねばならないようです。

    #10分で学べるAI いかがでしたでしょうか?ご感想は X@AICUai までいただけると幸いです。

    続きはこちら

    漫画「ようこそアイキュー部」はこちらに続きます!

    ▼ようこそ!アイキュー部 第1話 https://note.com/aicu/n/ne878b6d68004

    ▼AICUマガジン5月号 https://j.aicu.ai/Mag2405

  • 工場勤務のおじさんが書く:橋本大也教授と白井暁彦CEOが解説する生成AIの未来

    工場勤務のおじさんが書く:橋本大也教授と白井暁彦CEOが解説する生成AIの未来

    デジタルハリウッド大学の橋本大也教授と、デジタルハリウッド大学特命教授でもあるAICU Inc.の白井暁彦CEOが、それぞれのベストセラー書籍をもとに、ChatGPTやStable Diffusionなどの生成AIの最新動向を紹介しました。


    人気著者が語る生成AIの魅力を一挙レポート

    今回イベントレポートを書かせていただきます、AICU media のゲストライターです。工場のおじさんとしての目線でレポートしていきます!現地に参加できなかった読者に向けて、両著者の最新刊や #SD黄色本のサイン本即売会、交流の様子をお届けします。

    私は初めてデジタルハリウッド大学に行きましたが、とても高いビルの中にあり、「こんなところに大学があるんだ」とドキドキしました。(このイベントに参加するために、岡山からきました!)

    wikipediaより。このビルの3Fと4Fがデジタルハリウッド大学です!

    https://ja.wikipedia.org/wiki/%E3%83%87%E3%82%B8%E3%82%BF%E3%83%AB%E3%83%8F%E3%83%AA%E3%82%A6%E3%83%83%E3%83%89%E5%A4%A7%E5%AD%A6#

    AICU イベント告知記事→https://note.com/aicu/n/na27e9055f06f

    3階へ行き、会場の受付を済ませた後、中に入りました。

    (編集部:注)開演前に上映されていた動画
    #AICU – AI Creators Union Demo Reel 2024 Summer

    イベントの時間になり、スタートはデジタルハリウッド大学の杉山知之学長の動画から始まりました。

    イベントがはじまる

    写真:デジタルハリウッド大学の杉山知之学長の動画(AIの技術が入っているとは思えないくらい自然でしょ)

    これはAIで作られた杉山学長のアバターが、デジタルハリウッド大学の入学式で講演している動画です。
    ここで、杉山知之学長の発表で感じたことを率直に書きますね。

    この動画を見て、最近はAIが仕事を奪うなどネガティブなニュースが多いけれど、このような使い方は素晴らしいなと思いました。
    この動画、ただ学長が話をしているだけじゃんと思う人もいるかもしれません。
    しかし、杉山知之学長は2021年よりALSという難病のため、体を自由に動かせず、声も出せない状況です。

    AIを使って昔の声を再現し、AIの技術で表情を作り出すことで、まるで健康な時のように登壇している姿で動画の中で話をしていたのです。

    この姿を見て、体の不自由な人々に対してAIがどれだけのサポートを提供できるかを実感できたんですよね。
    AIが障害を持つ人々の生活をサポートする可能性を強く感じました。


    橋本大也先生の話 – ChatGPTで作業時間が3分の1に?

    続いて、今回のイベントのメインスピーカーの一人である橋本大也先生について紹介します。
    さくっと一言で言うと、『頭がいい人のChatGPT&Copilotの使い方』(橋本大也著)という本を書かれた先生です。
    本の表紙に、仕事時間を1/3に短縮できるって言葉が書いてありました。

    え、えっー!仕事時間を1/3に短縮。。。まじか!?

    そんな大きなことを書いてしまったら、めっちゃくちゃ叩かれてしまいそうと、ちょっと不安に思いました。みなさんも思いますよね?

    しかし、登壇内容を聞いていたら、めちゃくちゃ納得できました。

    橋本大也先生の話を書いたので読んでください。


    橋本大也先生の話で特に面白かった2点

    橋本先生の話は、主にAIで面白い映像を制作する方法にふれていました。

    写真:実際にAIで作った動画。スクリーンで見る大きな恐竜は大迫力!

    講演の序盤では、大画面に生成AIで作られた動画が流れていて、ワクワクする気持ちがおさえきれませんでした。

    橋本大也先生の話で特に面白かったことは2点あります。
    1点目は、実際に動画を作る工程を細かく説明してくれたことです。
    2点目は、数学的なグラフにアニメーションを加えるとアートになることです。

    これは1点目の話題で発表された、動画の製作工程の一部です。

    通常、完成形しか見ることがないAI動画の制作過程について、プロの目線から具体的なツールの使用方法を教えてくれました。

    橋本先生によるAI動画の手順の一例を紹介します。
    ChatGPTでストーリーを作り
    ②その段落ごとにRunwayを使って動画作成(日本語だと精度がよくないので英語に翻訳)
    Uidoで音楽生成(ストーリーをもとに)
    DIDでナレーションを追加
    ⑤動画を結合

    この作業をAIなしでやろうとすると、たぶん、1ヶ月から3ヶ月くらいかかる内容(私が、前に動画制作をしている人から聞いた情報です)を、なんと1時間ほどで作れるというのです。

    橋本先生の「仕事時間を1/3に短縮できる」という言葉は本当でした!

    2点目の、数学的なグラフにアニメーションを加えるとアートになるという話題です。

    普通のグラフはただ表示されるだけでは全く面白くありません。(面白いと思う人はすごくレベルが高いと思います)
    しかし、ChatGPTに「このグラフをアニメーションにしてください」と指示を与えてグラフのアニメーションをつくり、音楽を加えて編集することで、グラフの印象ががらっと180度くらい変わるのです。

    写真:この線グラフは、音楽に合わせて脈動しているところの写真。(一回、実際に体感してほしい。写真じゃ伝わらない。体感してみてください。)

    他にも、ドーナッツチャートに音楽を加えると、カラフルで楽しいアートになるんです。

    また、3次元サーフェスプロットに関しては、まるで新しい生物が誕生したかのような感覚になります。まるで新海で見たことがない生物を眺めている気持ちになるんです。これは実際に見たからこその感動でした。


    しらいはかせの話 – 「世界で最も[おもしろい]生成AIビジネスをつくるには」

    https://note.com/o_ob/n/n930c390b6dfa

    続いて、今回のイベントのメインスピーカーの一人であるしらいはかせについて紹介します。

    しらいはかせは、いろんなことができる方で、大ボリュームの発表でした。

    なので、しらいはかせをさくっと一言で説明すると
    画像生成AI Stable Diffusion スタートガイド」を書いた人です。

    写真:この本は、予約してすぐに買いました。個人的に、世界の生成AI画像をつくる教科書になるものだと思っています。

    有益な内容が多すぎる!
    正直、カルピスの原液一気飲みを3本くらいやった感じです。
    なので、情報量の濃さと多さに途中から頭がついていっていないのです笑

    実際の内容の1割ぐらいしか書き起こせなさそう。実際に発表を聞いた方ならわかってくれるはず!


    つくる人をつくる

    「つくる人をつくる」が生まれた理由には、しらい博士のこれまでの経験が濃縮されています。

    『綺麗なグラフィックでも、おもしろくない』

    印象的だったのは、「綺麗なグラフィックでも、おもしろくない」という言葉です。

    この言葉は非常に深い意味を持っており、しっかり理解するには深海3000メートルまで潜る覚悟が必要です。なので、ここでは簡単に説明します。

    例えば、非常に綺麗なグラフィックのAIアバターが全自動で会話をするアニメーションを作っても、見る人は3秒で飽きてしまいます。

    つまり、面白くないのです。

    ですが、そこに人の感情を反映させるような演出を人間が加えると、とても面白くなります。例えば、目線の動き、カメラのフレーミング、仕草などです。

    つまり、面白いものをつくるためには、人の演出が必要だということです。
    人がどこで面白いと感じ、感情が動くのかを考えながら手を加える必要があります。

    この点においては、現時点では人間の手による演出がAIを上回っているのかもしれません。



    人生のターニングポイント

    しらいはかせの人生には、2つのターニングポイントがあるそうです。

    1つ目は、「ゴキブリ」?
    2つ目は、子供たちの遊びの本質の探究

    「ゴキブリ」
    ゴキブリと聞くと驚くかもしれません。

    過去にしらいはかせが「ファンタスティック・ファントム・スリッパ」という作品を作った話です。

    写真:「ファントムスリッパー」。今でも最先端だと思う。そんな技術を1997年に、やっていたしらいはかせは、すごすぎる。

    この作品では、2匹のゴキブリの疑似体験が描かれています。1匹は感触を感じられ、もう1匹はただのグラフィックです。この疑似体験を通じて、リアルとバーチャルの境界を探りました。

    なぜこの疑似体験が海外で「アメージング」と言われ、大きな反響を呼んだのかを深く考えたことが、1つ目のターニングポイントだったそうです。


    子供たちの遊びの本質を探究したこと

    日本科学未来館 (旧)常設展示『アナグラのうた 〜消えた博士と残された装置〜』

    写真:「アナグラのうた」。自分が歩いたところを遡って、足跡をつくれるらしい。面白そう。この作品も10年以上も前に作られたそうです。

    「アナグラのうた」を通じて、子供たちの遊びの本質を探求しました。

    このプロジェクトでは、モーションキャプチャー技術を使って子供たちの遊びを可視化しました。子供たちが歩いたり、ダンスをしたりする際に足跡やマークが現れる仕組みを導入しました。

    (編集部注)

    ゲーム業界をやめて東京工業大学の博士学生に戻った頃から、子供たちが楽しそうに遊ぶ姿を観察し、博士論文を通して「遊ぶこと」の本質についてさらに深く考えるきっかけになったそうです。

    【博士論文】「床面提示型触覚エンタテイメントシステムの提案と開発 白井暁彦」

    https://akihiko.shirai.as/AkihikoSHIRAI-DoctorThesis2004.html





    『あそぶ』って言葉の意味っていろいろ。

    「あそぶ」という言葉には、実にたくさんの意味があります。

    写真:あそびの意味って、こんなに多い。

    例えば、

    遊ぶ(あそぶ)、(およぐ)、戯れる(たわむれる)、(もてあそぶ)、弄ぶ(たわむれる)
    このように、「あそぶ」という言葉には多くの意味が詰まっています。

    英語の「play」も同じように、多義的な意味を持っています。
    例えば、「play」はスポーツをする、楽器を演奏する、ゲームをするなど、さまざまな場面で使われます。これってすごく面白くないですか?

    つまり、「あそぶ」という言葉は、それを通じて私たちの好奇心を大いに刺激するもの。
    動作や使う人の思考や視点でも変わるって面白い。

    遊びながら新しいことを発見したり、楽しい経験を通じて学んだりすることは、まさに好奇心をくすぐる最高の方法ですよね。


    これからの人類に必要なこと

    これらの「つくる人をつくる」に繋がる話を聴いて、好奇心を持ち、情熱を持って生きることが、これからの人類にとって何よりも大切だと思いました。

    しらいはかせは、「情熱」と「ハルシネーション(幻覚)」という言葉を使っていました。

    ここからは、しらいはかせの言葉を使いながら、私なりに解釈したことを書きます。

    写真;昔のひとは、どうしてこの絵を描いたのだろう?そこに今求められている生きる秘密が隠されてそうです。

    個人的に解釈したのは、人間の存在意義を考えると、好奇心を持ち続け、情熱を持って生きることが、最もハッピーな人生を送る秘訣だということです。

    AIなどの技術がどんなに発展しても、人間が幸せに生きるためにはそれだけでは不十分です。目標を持ち、情熱を持って生きることが必要です。

    例えば、極端な話、定年退職してやることがない高齢者の方がいたとします。(極端な例の話ですよ。)
    無限に時間があるけどやることがない、これは地獄のような人生です。

    逆に、日々好奇心を持ち、情熱を持って生きると、毎日が楽しくなります。
    今日は絵を上手く描いて売ってみようという目標を持てるような毎日です。

    これによって色々学べるし、人生も楽しいものになります。私自身、本気で情熱がある方が良いと思っています。
    好奇心を持てるようになるためには、学ぶことが大切です。

    その学ぶ機会を無限に提供できるのが、「つくる人をつくる」ということなのだと思います。

    「つくる人をつくる」というのは、人間が持つ好奇心や情熱を育むことにあると考えています。これによって人生が充実し、ハッピーに生きることができるんですよね。

    Stable Diffusionの画像生成の話

    写真:Stable Diffusionの仕組み

    仕組みについての解説パートはこちらで資料が出ていました。

    ■Stable Diffusionの仕組み(入門編)

    https://note.com/aicu/n/n505b0dfb1a75

    最後に

    学べることと情報量がとても多く、おなかいっぱいになったイベントでした!

    他にも撮影不可の特別資料なども特別に公開されていましたが、現場にきた人だけの特権ということで、私からのレポートを終わらせてもらいますね。

    お読みくださりありがとうございました。

    イベント速報記事→https://ja.aicu.ai/talk20240530/

    前回のイベント「デルタもんLoRAを作ろう!」ワークショップレポートはこちら

    https://ja.aicu.ai/event20240516/

    デジタルハリウッド大学の動画より
    【公式60秒】デジタルハリウッド大学新CM『みんなを生きるな。自分を生きよう。2024』篇フルバージョン

    【関連】

    #SD黄色本 サイン本即売会も開催!生成AI書籍人気著者の2人が語る「ChatGPTとStable Diffusion丸わかりナイト」

    この記事が面白いと思ったら、AICU media をフォローよろしくお願いいたします!

  • #SD黄色本 サイン本即売会も開催!生成AI書籍人気著者の2人が語る「ChatGPTとStable Diffusion丸わかりナイト」

    #SD黄色本 サイン本即売会も開催!生成AI書籍人気著者の2人が語る「ChatGPTとStable Diffusion丸わかりナイト」

    人気著者が語る生成AIの魅力

    デジタルハリウッド大学の橋本大也教授と、デジタルハリウッド大学特命教授でAICU media編集長でもある白井暁彦CEOが、それぞれのベストセラー書籍をもとに、ChatGPTやStable Diffusionなどの生成AIの最新動向を紹介します。また、イベントでは両著者の最新刊 #SD黄色本のサイン本即売会も実施されます。

    イベント詳細

    日時: 2024年5月30日(木)19:30~21:30(開場19:00)

    会場: デジタルハリウッド大学 駿河台ホール(東京都千代田区神田駿河台4-6 御茶ノ水ソラシティ アカデミア3階)

    参加費: 無料

    定員: 150名

    申込み: イベントページ

    https://ai-maruwakari-night.peatix.com

    登壇者プロフィール

    白井暁彦(Akihiko Shirai, PhD /しらいはかせ)

    エンタメ・メタバース技術の研究開発に関わる研究者、ホワイトハッカー作家、米国スタートアップ「AICU Inc.」「Hidden Pixel Technology Inc.」のCEO。東京工芸大学写真工学科卒、同画像工学専攻修了。キヤノン株式会社とグループの研究所より生まれた英国・Criterion Software にて世界初の産業用ゲームエンジン「RenderWare」の普及開発に参加、その後、東京工業大学知能システム科学専攻に復学。博士学位後、NHK エンジニアリングサービス・次世代コンテント研究室、フランスに渡りENSAM 客員研究員、国際公募展Laval Virtual ReVolution の立ち上げ、日本科学未来館科学コミュニケーター神奈川工科大学情報メディア学科准教授を経て、2018 年よりデジタルハリウッド大学 大学院客員教授 およびグリー株式会社GREE VR Studio Laboratory Director。

    スマートフォン向けメタバース「REALITY」を開発・運用するREALITY 株式会社の立ち上げを通して、Virtual YouTuber などXR ライブエンタメ技術のR&D、国際発信など、メタバースエンタテイメントの未来開発や知財創出を中心に、自らエンタテイメントのライブプレイヤーとして世界に向けた開発・発信活動方法論化しながら世界中のエンタテインメント技術業界に数百人の規模でクリエイターを育成している。2023年よりデジタルハリウッド大学発米国スタートアップ企業「AICU Inc.」CEO。生成AI時代に「つくる人をつくる」をビジョンに英語、日本語、フランス語、プログラミング言語などでオープンな作家活動を続けている。日本バーチャルリアリティ学会IVRC 実行委員会委員。芸術科学会副会長。

    著書に『WiiRemote プログラミング』(オーム社)、『白井博士の未来のゲームデザイン – エンターテインメントシステムの科学-』(ワークスコーポレーション)、『AIとコラボして神絵師になる 論文から読み解くStable Diffusion』(インプレスR&D)他。

    橋本大也(Daiya Hashimoto)

    デジタルハリウッド大学教授兼メディアライブラリー館長。多摩大学大学院客員教授。早稲田情報技術研究所取締役。ブンシン合同会社CEO。翻訳者。IT戦略コンサルタント。ビッグデータと人工知能の技術ベンチャー企業データセクション株式会社の創業者。同社を上場させた後、顧問に就任し、教育とITの領域でイノベーションを追求している。デジタルハリウッド大学大学院では「テクノロジー特論 Bデータ」、多摩大学経営大学院で「先端テクノロジー・マーケティングイノベーション」を教える。2024年1月デジタルハリウッドで生成AI教育プログラムを開発するブンシン合同会社CEOに就任し、生成AIの活用を教える「プロンプト・エンジニアリング・マスターコース」を創設し、自ら主任講師として教鞭をとっている。その他に、洋書を紹介するブログを運営しており、『WIRED』日本版などのメディアに書評を寄稿している。

    書籍の概要

    頭がいい人のChatGPT&Copilotの使い方』(橋本大也 著)

    • 人気のカテゴリー
      • 情報社会
      • メディアと社会
      • ナレッジマネジメント

    画像生成AI Stable Diffusionスタートガイド』(白井暁彦 著)

    • 人気のカテゴリー
      • デザイン
      • コンピュータサイエンス
      • 人工知能

    これらの書籍は大学のメディアライブラリ(図書館)にも配架されています。

    イベント参加のメリット

    このイベントに参加することで、生成AIの最新情報を直接学ぶことができます。また、デジタルハリウッド大学の専門家からの貴重なインサイトを得ることができ、ネットワーキングの機会も豊富です。さらに、#SD黄色本のサイン本を手に入れるチャンスもあります。

    まもなく定員の150名に到達します

    申込みは無料、イベントページへ。

    https://ai-maruwakari-night.peatix.com

    当日はAICU mediaのスタッフに会えるかも?

    書籍:画像生成AI Stable Diffusionスタートガイド

  • Fooocus v2.4.0リリース & AICUによるColab無料版で動く日本語UI版も継続メンテナンス実施

    Fooocus v2.4.0リリース & AICUによるColab無料版で動く日本語UI版も継続メンテナンス実施


    midJourneyや nijiJourneyスタイルのカンタン高画質なAI画像生成が行える「Fooocus」の最新版がリリースされました。AICU Inc.が原作そのままに Google Colab (無料版も可) を使って、旧来のv2.3.0も日本語UIで動くようにメンテナンスを実施したのでお知らせします。

    2024年3月24日にリリースされた v.2.3.0 からUI変更に加え、機能面が大きく追加されています。
    https://github.com/lllyasviel/Fooocus/releases/tag/v2.4.0

    https://github.com/lllyasviel/Fooocus/releases/

    v2.4.0動きました。Lightning速いですが、HyperSDはもっと高速です。
    Fooocus v2.4.0

    v2.4.0 最新版リリースノートより

    変更点
    feat: ミラーサイトからの huggingface ファイルのダウンロードをサポート。
    chore: インターポーザーを v3.1 から v4.0 に更新 by @mashb1t in #2717
    feat: ページをリロードせずに UI を再接続するボタンを追加 by @mashb1t in #2727
    feat: オプションのモデルVAE選択を追加 by @mashb1t in #2867
    feat: ランダムスタイルを選択 by @mashb1t in #2855
    feat: アニメを animaPencilXL_v100 から animaPencilXL_v310 に更新 by @mashb1t in #2454
    refactor: 再接続ボタンのラベル名を変更 by @mashb1t in #2893
    feat: 履歴ログに完全な生プロンプトを追加 by @docppp in #1920
    修正: 正しい border radius css プロパティを使用するようにしました by @khanvilkarvishvesh in #2845
    修正: HTMLヘッダでメタタグを閉じないようにした by @e52fa787 in #2740
    機能: uov 画像アップロード時に画像を自動的に記述 by @mashb1t in #1938
    nsfw 画像の検閲を設定とチェックボックスで追加 by @mashb1t in #958
    feat: 手順を揃えるスケジューラーを追加 by @mashb1t in #2905
    lora のインラインプロンプト参照をサポート by @cantor-set in #2323
    feat: sgm_uniform (lcmと同じ)に基づくtcdサンプラーと離散蒸留tcdスケジューラの追加 by @mashb1t in #2907
    feat: 4step LoRA に基づくパフォーマンス Hyper SD を追加 (@mashb1t 氏による) #2812
    修正: HyperSDテスト用に残っていたコードを削除しました。
    feature: nsfw 画像検閲のモデル管理を最適化 by @mashb1t in #2960
    feat: プログレスバーの改善 by @mashb1t in #2962
    feat: インラインローラの最適化 by @mashb1t in #2967
    feat: コードの所有者を @lllyasviel から @mashb1t に変更 by @mashb1t in #2948
    feat: 有効なインラインローラのみを使用し、サブフォルダをサポート by @mashb1t in #2968
    feature: イメージのサイズと比率を読み取り、推奨サイズを与える by @xhoxye in #2971
    feature: ghcr.io 用コンテナイメージのビルドとプッシュ、docker.md の更新、その他関連する修正 by @xynydev in #2805。
    利用可能なイメージを見る
    feat: 行末のデフォルト設定を調整 by @mashb1t in #2991
    feat: image size description の翻訳を追加しました。
    feat: ‘CFG Mimicking from TSNR’ の値をプリセットから読み込む by @Alexdnk in #2990
    feat: ブラシのカラーピッカーを追加 by @mashb1t in #2997
    feat: ほとんどの画像入力フィールドからラベルを削除 by @mashb1t in #2998
    feat: クリップスキップ処理を追加 by @mashb1t in #2999
    feat: UI設定をよりコンパクトに by @Alexdnk and @mashb1t in #2590

    HyperSDのサポート

    https://huggingface.co/ByteDance/Hyper-SD

    ByteDanceによる「Hyper-SD(効率的な画像合成のための軌跡分割整合モデル)」がサポートされました。

    論文 https://arxiv.org/abs/2404.13686

    サンプリングが4ステップという非常に短いステップで高品質な画像が生成されます。

    Google Colabでの起動

    #SD黄色本「画像生成AI Stable Diffusionスタートガイド」の p.13-18でも扱っているとおり、FooocusはGoogle Colabで動作可能です。具体的にはこのようなコードを書けば最新のFooocusを実行することができます。

    !pip install pygit2==1.12.2
    %cd /content
    !git clone https://github.com/lllyasviel/Fooocus.git
    %cd /content/Fooocus
    !python entry_with_update.py --share --always-high-vram
    

    Fooocus 日本語アニメ特化版 j.aicu.ai/FoooC の更新

    AICU Inc.が #SD黄色本 でリリースしたバージョン「Fooocus 日本語アニメ特化版 j.aicu.ai/FoooC」についてもメンテナンスを実施しました。

    原作そのままに Google Colab (無料版も可) を使って、日本語UIで動くようにしたものです。

    配布等は原作のライセンスに従います。

    https://github.com/lllyasviel/Fooocus/blob/main/fooocus_colab.ipynb

    超初心者向け使い方

    ランタイムを実行「▶」を押してしばらくお待ち下さい。 https://….gradio.com のURLが表示されたらそれをクリックして別タブで遊べます。最大72時間有効ですが、途中で切断されたり止まったり、エラーが出た場合は「■」(停止)をしてもう一度「▶」を押してください。

    起動オプション

    このスクリプトではGUIで操作できるスイッチにしてあります。

    このスクリプトでは Google Driveの マイドライブ直下「Fooocus-outputs」に保存されるようにしました。

    • target_drive_dir: /content/gdrive/MyDrive/Fooocus-outputs
    • use_japanese: UIに日本語が表示されます。
    • model_type: anime
    • fixed_version: バージョンを書籍「画像生成AI Stable Diffusion スタートガイド」で紹介した v2.3.1 (e2f9bcb) に固定して実行します

    無料版 Colab での動作について

    このColabはデフォルトでrefinerを無効にすることに注意してください。なぜならColab freeのリソースは比較的限られているからです(そして画像プロンプトのようないくつかの「大きな」機能はfree-tier Colabの切断を引き起こすかもしれません)。フリー版のColabでは、基本的なテキストから画像への変換が常に動作するようにしています。「Image Prompt/画像で指示」は 無料版 Google Colab T4 GPU では動作しない可能性があります。

    v2.3.1 (e2f9bcb) が動作しています。生成結果はGoogle Driveに生成されるので業務内システムへの活用も可能かもしれませんね。

    日本語化の部分もAICUが翻訳を行っています。カスタマイズや、より子供向けや企業内ワークショップの開発の案件はぜひAICU Inc.までご相談ください。

    https://corp.aicu.ai/ja/pricing

  • 大人気のLoRA作成、みんなでデルタもんを機械学習しました!

    大人気のLoRA作成、みんなでデルタもんを機械学習しました!

    本日2024年5月15日、重版も決定した大人気の書籍書籍 「画像生成AI Stable Diffusion 公式スタートガイド」 公式ワークショップ「デルタもんLoRAを作ろう!」をオンラインにて開催しました。

    今回は AICU CEO のしらいはかせに加えスペシャルゲストもお呼びして、いつも以上に情報たっぷりなワークショップとなりました!この記事では、本ワークショップの参加レポートや参加者の声を紹介していきます。AICU のワークショップに興味のある方はぜひご覧ください。

    また6月にもワークショップを開催予定ですので、次回以降の開催については AICU の Techplay をフォローして通知をお待ちください!
    AICU Techplay → https://techplay.jp/community/AICU

    デルタもんLoRAを作ろう!

    今回の目標は「デルタもんLoRA」を作ることを通じて、皆さんがそれぞれ作りたいLoRAを作れるようになることでした。
    そこでスペシャルゲストとして、デルタもんを運営するBlendAI社のCEO、 小宮自由さん(@jiyu33) にお越しいただき、デルタもんについて語っていただきました。

    ワークショップには初心者の方も多数参加してくださったので、AUTOMATIC1111 を使用した画像生成のステップを復習し、LoRA の学習に移りました。

    BlendAI 社に提供していただいたデルタもんの画像を使用し、データセット(学習元画像)の収集方法を解説するところから始まりました。

    今回はBlendAI 社提供のデルタもんのデータセットに AICU が表情差分を追加した特製データセットを配布し、参加者の皆さんと一緒に学習を進めていきました。

    これをGoogle Colabを用いて学習し、LoRA を作成しました!

    LoRA を制作するうえでの細かいパラメータの調整や、LoRAに合わせて各種設定をどのように変更すれば良いのかなどが詳しく解説された、濃い90分間となりました!

    また質疑応答の時間では、Sampling method によって生成結果にどのような差が出るのかといったテクニカルな質問にも実演しながら答えていきました。

    加えてAIに関する倫理やマナー、法律も話題に上がり、しらいはかせと小宮さんによる興味深い意見交換が行われました。

    AIに関する倫理については、5月13日Kindleにて発売開始した「 AICU magazine 5月号 」の新連載「りんりん倫理」でも解説しております。

    参加者の声

    ワークショップにご参加いただいた参加者の皆様の感想です!

    【Stable Diffusion でデルタもん LoRA を作ろう!】に参加しました。

    率直に言って、参加するかしないかで、明らかに大きな差がつくと感じました。

    画像生成AIをやっているトップ中のトップが
    実際に画面を操作しながら、説明をしてくれるからです。

    今まで、よくわからなく技術を使っていました。… https://t.co/Whp0xwAbwQ

    – ダイチ (@LxGtUGtlRSh8yXW) May 15, 2024

    開催後のアンケートでも様々な感想を頂きました!

    “貴重な機会ありがとうございました。 短い時間で画像生成まで辿り着けました。 次回を楽しみにしています。”

    “とても楽しいワークショップでした。 画像生成や漫画のキャラクター をちょうど作っているところだったので、すごく参考になりました。次回も絶対参加したいと思います。”

    “ AI時代につくるひとをつくるの通り、作ることに対しての愛や思いやり、配慮が散りばめられており、非常に温かい会です 。2回目の参加でしたが、とても素敵な時間をありがとうございました!これからも応援しています!”

    “LLM のチューニングやRAGには昨年から持続的に興味をキープしていたのですが, 画像生成に関してもある種のカスタム化ができることを初めて知り,やる気がでてきました.”

    “本当にたのしかったです!教科書も読むんですが、なかなか手が動かないことがあります。こうやって講義をしていただけるだけで、 手を動かそうと思うし 、理解が深まります。”

    実際に手を動かすワークショップにすることや、温かい会にすることを常に意識して開催しているので、そういった想いが伝わって嬉しいです!
    また、SD黄色本へのメッセージもいただきました。

    “黄色本は 網羅的で非常に参考になりました。 ここから始めるのにぴったりです”

    “ フルカラーで、基本的な操作から、有名絵師さんのtipsなども載っていて、初心者が夢を持って読める本です!”

    参加してくださった皆様、ありがとうございました!

    今回のワークショップの内容は、5月13日Kindleにて発売開始した「 AICU magazine 5月号」でも紹介しております。
    現在データセットの収集方法についての詳しい解説を読むことができます。近日中にアップデートし、LoRAの作り方についてなどにも触れていくので、購読してお待ちください!
    Kindle Unlimited に加入している方は無料で読むことができます!

    また6月にもワークショップを開催予定ですので、次回以降の開催については AICU の Techplay をフォローして通知をお待ちください。
    SD黄色本はこちら→ https://j.aicu.ai/SBXL

     

    関連情報です
    ■「画像生成AI Stable Diffusion スタートガイド」アップデート情報 第6章 LoRA動作不具合改訂について
    https://note.com/aicu/n/n96f9e51041fa

    今回のワークショップの内容を収録した「AICUマガジン」はKindle Unlimitedにてご購読可能です
    Vol.1 2024年4月号 特集:A1111総おさらい!
    https://j.aicu.ai/Mag2404

    Vol2. 2024年5月号 特集:次世代まんが制作術!
    https://j.aicu.ai/Mag2405

    今回のワークショップの内容と、追加スライドをアップデートにて配信予定です。

    今後ともAICUをよろしくお願いいたします。

  • Stability AI、日本語大規模言語モデル「Japanese Stable LM 2 1.6B」を発表。Google Colabのシークレット機能で短いコードを書いてみよう!

    Stability AI、日本語大規模言語モデル「Japanese Stable LM 2 1.6B」を発表。Google Colabのシークレット機能で短いコードを書いてみよう!


    2024年5月9日(日本時間)、Stability AIから新たな日本語大規模言語モデル「Japanese Stable LM 2 1.6B」がリリースされました。

    モデルのサイズも小さく性能も高いLLMです。比較的シンプルな環境で動作しそうです。今回の記事は特殊な環境が不要なGoogle Colabで、最新のサンプルを、非常に短いコードで実験できることを確認したので紹介していきます。

    まずは Stability AI 公式リリースから

    https://ja.stability.ai/blog/japanese-stable-lm-2-16b

    🎉日本語特化の言語モデル「Japanese Stable LM 2 1.6B」をリリースしました🎉

    Japanese Stable LM 2 1.6B(JSLM2 1.6B)は16億パラメータで学習した日本語の小型言語モデルです。
    こちらのモデルはStability AI メンバーシップにご加入いただくことで商用利用が可能です。

    詳細はこちら💁‍♀️… pic.twitter.com/b35t2Il4lm

    – Stability AI Japan (@StabilityAI_JP) May 9, 2024

    • Japanese Stable LM 2 1.6B(JSLM2 1.6B)は16億パラメータで学習した日本語の小型言語モデルです。
    • JSLM2 1.6Bのモデルサイズを16億パラメータという少量にすることによって、利用するために必要なハードウェアを小規模に抑えることが可能であり、より多くの開発者が生成AIのエコシステムに参加できるようにします。
    • ベースモデルとしてJapanese Stable LM 2 Base 1.6Bと、指示応答学習(Instruction tuning)済みのJapanese Stable LM 2 Instruct 1.6Bを提供します。両モデルとも Stability AI メンバーシップ で商用利用が可能です。また、どちらのモデルもHugging Faceからダウンロードすることができます。

    Stability AI Japanは16億パラメータで学習した日本語の言語モデルJapanese Stable LM 2 1.6B(JSLM2 1.6B)の ベースモデル指示応答学習済みモデルをリリースしました。ベースモデルの学習ではWikipediaやCulturaX等の言語データを利用、指示応答学習では jasterIchikara-Instruction 、Ultra Orca Boros v1の日本語訳等、商用データおよび公開データを利用しました。今回のJSLM2 1.6Bでは言語モデリングにおける最新のアルゴリズムを活用し、適度なハードウェアリソースで迅速な実験を繰り返すことを可能にし、スピードと性能を両立しました。

    性能評価

    Nejumiリーダーボードを用いて、他の小規模パラメータのモデルと比較したJSLM2 1.6Bの性能は以下のとおりです。今回は llm-leaderboard(の社内Fork)のcommit c46e165 を用いています。

    (サイズが)16億パラメータという小型モデルでありながら、40億パラメータ以下のモデルのスコアよりも高いスコアを達成し、70億パラメータのモデルに近いスコアを獲得しています。

    高性能な小型言語モデルをリリースすることで、言語モデル開発の敷居を下げ、より高速に実験を反復することを可能にします。なお、少ないパラメータ数の小型モデルであるため、より規模の大きいモデルで発生しうるハルシネーションや間違いをおかす可能性があります。アプリケーションでのご利用の際には適切な対策を取るようご注意下さい。JSLM2 1.6Bのリリースを通じて、日本語LLMのさらなる開発と発展に貢献できると幸いです。

    商用利用について

    JSLM2 1.6Bは Stability AI メンバーシップで提供するモデルのひとつです。商用でご利用したい場合は、 Stability AIメンバーシップページから登録し、セルフホストしてください。

    Stability AI の最新情報は 公式XInstagram をチェックしてください。

    (以上、公式リリース情報終わり)

    Google Colabで実際に使ってみる

    それでは早速Google Colabで体験していきましょう。
    基本は 公式のサンプルコードに従って、Google Driveで新規作成→Google Colab Notebookで構築していきます。
    (完動品のコードへのリンクはこの記事の最後に紹介します)
    Google ColabはGPUや搭載メモリサイズなどを気にしなくて良いので気軽に学習環境として試すことができます。

    以下は公式のサンプルコードです。

    import torch
    from transformers import AutoTokenizer, AutoModelForCausalLM

    model_name = "stabilityai/japanese-stablelm-2-instruct-1_6b"
    tokenizer = AutoTokenizer.from_pretrained(model_name, trust_remote_code=True)

    # The next line may need to be modified depending on the environment
    model = AutoModelForCausalLM.from_pretrained(
    model_name,
    torch_dtype=torch.float16,
    low_cpu_mem_usage=True,
    device_map="auto",
    trust_remote_code=True,
    )

    prompt = [
    {"role": "system", "content": "あなたは役立つアシスタントです。"},
    {"role": "user", "content": "「情けは人のためならず」ということわざの意味を小学生でも分かるように教えてください。"},
    ]
    inputs = tokenizer.apply_chat_template(
    prompt,
    add_generation_prompt=True,
    return_tensors="pt",
    ).to(model.device)

    # this is for reproducibility.
    # feel free to change to get different result
    seed = 23
    torch.manual_seed(seed)

    tokens = model.generate(
    inputs,
    max_new_tokens=128,
    temperature=0.99,
    top_p=0.95,
    do_sample=True,
    )

    out = tokenizer.decode(tokens[0], skip_special_tokens=False)
    print(out)


    リポジトリへの利用申請

    まずは下準備として、HuggingFaceでアカウント作成し、 モデルカード からStability AIリポジトリへの利用申請、以下の質問に答えましょう。

    大事なポイントは最後のメールニュースの受信のためのメールアドレスを入れることですね。

    ✨️なお AICU は Stability AI 商用メンバーです✨️

    利用申請が承認されていると、上のフォームは表示されず、「Gated model」と表示されます。

    Google Colabのシークレット機能

    Google ColabとHuggingFaceに最近実装された機能なのですが、左側の「シークレット」から「HF_TOKEN」という環境変数を指定します。

    環境変数、ファイルパス、またはキーを保存することにより、コードを構成することができます。ここに保存される値は非公開であり、ユーザ自身と選択したノートブックにのみ表示されます

    「+新しいシークレットを追加」を押します

    並行して、HuggingFaceの「Settings」>「Access Tokens」でトークンを作りましょう。
    https://huggingface.co/settings/tokens

    「Colab-HF_TOKEN」という名前をつけて、権限は「WRITE」をONにします(READだけでも動きますが、 HuggingFace推奨はWRITE)。
    取得したユーザーアクセストークン(hf_で始まる文字列)を「HF_TOKEN」の「値」に貼り付けます。
    「ノートブックからのアクセス」をONにします。

    これで
    token = userdata.get(‘HF_TOKEN’)
    と書くだけで、HuggingFaceのトークンが参照できます。

    もちろん、Pythonスクリプトに直書きしたいひとは
    token=”(あなたのHugginFaceトークン)”
    もしくは
    !huggingface-cli login — token $token 
    でも動くと思います!

    スクリプトを起動

    https://j.aicu.ai/JSLM2B16B

    コードはこちらです

    吾輩は猫である、名前は…
    Setting `pad_token_id` to `eos_token_id`:100257 for open-end generation.
    吾輩は猫である、名前は…まだない。 そもそも「名前を付ける必要があるのか?」 それを考えるのに、10歳を目前にしている吾輩である。 しかし、他の猫達との差別化という意味では、あった方が良いとも思うし、なんせ名前があるという安心感から、猫は猫らしく、自由気ままにやりたい

    Colabは動作環境を選べるのですが、CPUでの実行だとでだいたい1分以下で生成されます。

    吾輩は猫である、名前は…名無しである。 名前はない。 何故なら、吾輩は名前を言いたくないのだ。 それを、そのことを知っている奴らが「名無し」と呼ぶのである。 そいつらを、「名付き」の奴らと呼ぼう。 吾輩が名無しと呼ばれるのは「何も持っていないから」である。 何も持っていないから、それ

    吾輩は猫である、名前は… といえるほど、名前が思い浮かばないのは、私だけでしょうか? そうは言っても、「猫じゃらし」は、その場によって名前のバリエーションがたくさんありますよね。 そういう「猫じゃらし」が持つ、イメージとか、意外な性格とか、飼い猫のネコじゃらしの場合を

    吾輩は猫である、名前は…まだないのである。 ここは、吾輩が住み慣れた部屋、何も特徴のないところだ。 場所は不確かだが、とにかく部屋だけはここになって、ずっとこの部屋で暮らしているのだ。 なんでこんなことを言っているかというと、吾輩の部屋が消えて、別…

    続いてT4 GPUで実行してみました。
    4–5秒で以下のテキストが生成されました。

    途中で、Do you wish to run the custom code? [y/N] が表示されたら、y を押してEnterキーで入力してください(環境によるようです)。

    GPUのメモリ(GPU RAM / VRAM)は7.7GBと、標準的なゲーミングPC2搭載されている8GB以下でも動きそうです。

    Setting `pad_token_id` to `eos_token_id`:100257 for open-end generation.というワーニングが表示されますが、これは このあたりの 情報を見ながら実際の設定を作っていくと良さそうです。

    GUIでチャットボットを試したい方は Instruct版を試してみよう!

    時同じくして、アドボケーター仲間のDELLさんが Japanese Stable LM 2 Instruct 1.6B の Google Colab版コードを公開してくれています。

    Gradioインタフェースで日本語チャットを楽しめます!

    まとめ

    以上、Stability AIが公開した最新の日本語大規模言語モデル「Japanese Stable LM 2 1.6B」をGoogle Colabのシークレット機能で短いコードを書いてみました。Google Colabでの環境も今回のシークレット機能の他にもTransoformersが標準搭載になったりしていますので、いきなりローカル環境で試すよりも良いことがいっぱいありそうですね!

    AICU mediaでは日本語LLMについての実験的な話題も増やしていきたいと思います。ぜひフィードバックやシェア、X(Twitter)でのコメントなどいただければ幸いです。
    腕だめしをしたいライターさんや学生インターンも引き続き募集中です。


    Originally published at https://note.com on May 9, 2024.