タグ: TGS2024

  • 東京ゲームショウ2024でみつけたエンタメxAI技術!懐かしの「タイムクライシス」AI技術で再誕!?

    こんにちわ、AICU mediaの くしろです。
    突然ですが、読者の皆さんはゲームを遊ぶときにどんなコントローラを使っていますか?
    ゲーム専用機ではなくてPCでゲームをしてる場合はキーボードやマウスを使う人もいると思いますが、多分ほとんどの人がゲームパッドでプレイしているんじゃないでしょうか。
    ゲームパッドには方向キー・ボタン・アナログスティックなどが付いていて、ありとあらゆるジャンルのゲームに対応することが出来るとても便利なコントローラです。
    でも汎用性が高いということは専門性はそれほど高くないということと表裏一体の関係にあると言えます。
    昔のゲーム業界はプレイヤーによりゲームに没入してもらうためにジャンルに合わせた専用コントローラを開発して臨場感を高めようとしていました。
    その一つが一人称シューティングゲーム、いわゆるFPS(First-person shooter))用の銃の形をしたガンコントローラ(以下、ガンコン)です。
    今回の東京ゲームショウ2024でこのガンコンにAI技術を応用した製品が展示されていたので紹介します。

    ガンコンの仕組み

    その前にガンコンの仕組みと歴史について説明させてください。
    これをしておかないと今回のコントローラの新規性がピンとこないと思うので少々お付き合いをお願いします。

    ブラウン管対応光センサータイプ

    まず、下のイラストをご覧ください。これは昔のブラウン管ディスプレイに対応したガンコンの概念図です。
    ゲーム機で生成された1フレーム分の画像は1行ずつのアナログ信号に変換されて出力ケーブルを通してディスプレイに送られます。
    ブラウン管ディスプレイ内部ではその信号を画面の左上から右に向かって電子銃で電子をぶつけ、蛍光体を光らせます。これが1行分の表示です。電子ビームが端まで辿り着いたら折り返して1ピクセル下からまた右へを繰り返し、右下まで描画したらまた左上に戻って次の画像の表示を開始します。
    ここでポイントになるのは、描画スタートからの経過時間とディスプレイ画面上の描画位置は一対一の関係にあるということで、ガンコンはこれを利用して画面上の位置をセンシングしています。
    具体的には、ガンコンの銃身の奥に光に反応して信号を出すセンサーが取り付けられていて、センサーにディスプレイの光が差し込むとゲーム機に信号を送ります。
    ゲーム機は描画スタート(同期信号)からどのくらい時間が経ってから信号が来たかでガンコンが指し示した画面上の位置を把握するのです。

    画像

    この手法のメリットはシンプルな回路で実装でき、ローコストなこと。
    ただし、弱点もあります。それは、暗い画面やには反応しないことです。
    光に反応するセンサーを使っているのですから当たり前のことなのですが、だからと言って暗い所が無いビジュアルのゲームという縛りで開発を行うというのも無理があります。
    そこで考え出されたのが、引き金を引いた時に一瞬だけ画面全体を均一な明るさにしてセンシングし易くするという手法でファミコンの「ダックハント」などで実装されています。
    これはとても有効なのですが、光の明滅はプレイヤーの目を疲れさせるので、長時間のプレイは厳しいかもしれません。

    薄型ディスプレイ対応マーカータイプ

    次に登場したのが、赤外線カメラを搭載したガンコンと赤外線LEDマーカーとを組み合わせた手法です。
    これはディスプレイの主流が液晶やプラズマなどのブラウン管とは違う表示方式に移行したことで今までの手法が使えなくなったことへの対応です。
    下のイラストにその概念を示します。
    まず、赤外線LEDマーカーを所定の位置(この場合はディスプレイの上辺の左右両端)に設置します。
    そして、このマーカーから発せられる赤外線をガンコンの銃口にある赤外線カメラが読み取ってゲーム機に送り、マーカーの見え方からディスプレイのどこを狙っているのかを把握します。
    任天堂Wiiなどが代表的です。

    https://amzn.to/3ZQFdES

    画像

    この方式の良いところは、前述の光センサーを使用したガンコンで必須だった撃つたびに画面を均一な明るさにする必要がないことです。
    でも、この手法では別の問題を新たに抱えることになりました。
    それは、赤外線LEDマーカーを適切な位置に設置しないと正しく動作しないということです。
    例えば、左右のマーカーの高さや向き、傾きが合っていないと誤動作してしまいます。
    それに家庭用ディスプレイには色んなサイズやデザインの製品があるのでマーカーを設置する環境をプレイヤーごとに変わって一定にはなりません。
    ですから、マーカーを事前に想定された設置状態に近づけるための調整がとても重要になります。
    特に大画面テレビが一般的になっていると、それをカバーできるLEDマーカーをつくることはハードウェアのコストや「設置の煩雑さがあって遊んでもらえない」という潜在的問題もあるのかもしれません。

    AI技術を使用した新世代のガンコン

    今回紹介する達成電器の「G’AIM’E」は今までのガンコンの問題点をAIで克服した画期的な製品です。
    具体的には、ガンコンの銃口にあるカメラで取得した画像からAIがディスプレイを認識してガンコンの位置や向きを把握するという仕組みです。
    ちなみに奥に見える黒いボックス状のものが本体になります。

    画像

    イラストや風に描き起こした概念図も置いておきます。

    画像

    これまでに紹介した手法はガンコンが指し示すディスプレイ上の位置を間接的に把握するというもので、それによるデメリットは前述した通りです。
    それに対し「G’AIM’E」は人間と同じ様に直接的にディスプレイを認識している点が非常に画期的です。
    開発の方にお伺いしたところ、「ガンシューティングゲームはブラウン管の時代に人気のあるジャンルでしたが、液晶の時代になってあまり普及しなくなりました。そこで最新技術を使って気軽に遊べるプラグ&プレイの形で提供すれば愉しんでもらえるのではないかと考えて開発しました。」とのことでした。
    また、AI技術としては機械学習を使用したそうで、素材としては、まず24インチから30インチまでのモニターと45インチから100インチまでのテレビといった多種多様なディスプレイを用意して、正面や上下左右の斜めからディスプレイを撮影した画像を大量に使用して学習させたとのことでした。

    アーケードゲームの名作「タイムクライシス」が再び!

    画像

    今回のTGS2024で展示されていたデモは、1995年にナムコ(現バンダイナムコ)がゲームセンター用に開発したガンシューティングゲームの「タイムクライシス」のライセンス版が遊べる本体とガンコンとペダルという構成で、本体をディスプレイに接続するだけでの手間いらずで直ぐにプレイすることができます。

    画像

    なお、「タイムクライシス」は、障害物の陰に隠れて敵の攻撃をかわしながら自分が攻撃する時はペダルを踏んで敵に姿を見せて撃ち合うというプレイスタイルのゲームです。

    私はこのゲームをゲームセンターで遊んだことがあるのですが、実際にプレイしてみて特に違和感を抱くことも無く、逆に当時の楽しかった記憶が蘇ってきて非常に良く出来ているなと感心しました。

    実はこの製品は2025年9月発売を目指し鋭意開発中なんだそうです。

    そして、現在の一番の課題は遅延の軽減で、現状で25msくらいあるラグタイムを最終的には12msから13ms程度に抑えることが目標だそうです。
    遊んでいる時にガンコンの動きとディスプレイ上の照準とのズレは特に感じなかったのですが、もしかしたらガンコンを振り回す様な早い動きをすると問題が出てくるのかもしれません。

    この課題をどうやって解決するのかついては具体的なお話は伺えなかったのですが、ディスプレイの認識精度を高く維持したままの画像の認識スピードを向上させるAIの開発は難しい挑戦になるのではないかと想像します。
    是非、頑張って解決することを期待してます。

    まとめ

    以上、「つくる人をつくる」をビジョンとするAICUにジョインをした くしろがお伝えしました。

    もしかしたら来年の今ごろはこの製品が発売されているかもしれませんし、恐らく東京ゲームショウ2025の達成電器のブースにはバージョンアップされた「G’AIM’E」が展示されると思いますので、興味ある読者の皆さまは是非遊んでみてください。
    私も楽しみに待ちたいと思います。

    https://www.tasseidenki.co.jp

    AICUでは今後も読者の皆様にむけて、ディープなイベント取材を実施していきたいと思います!
    この記事に「いいね!」と思ったら、いいねとフォロー、おすすめをお願いします!
    https://note.com/aicu/   X(Twitter)@AICUai

    #TimeCrisis #TGS2024 #タイムクライシス #ガンコン #達成電器 #エンタメxAI

    Originally published at https://note.com on Oct 3, 2024.

  • 東京ゲームショウ2024でみつけたエンタメxAI技術!感情がゲームを動かす「OVOMIND」

    本日2024年9月26日のAICU media編集部は、幕張メッセで開催中の「東京ゲームショウ2024」(以下、TGS2024もしくはTGS)を取材参加いたしました。

    東京ゲームショウ2024でみつけた「エンタメxAI技術」

    というタイトルでお送りしたいと思います。

    画像

    実際の会場は大変な盛り上がりで、ビジネスデーにもかかわらず、ほとんどのブースで絶え間なく来場者が列をなしておりました。

    気になるAI関係企業

    NHK報道では早速、こんな記事になっておりました。

    東京ゲームショウ 過去最多985の企業や団体が出展 AIによる画像処理機能搭載の新型ゲーム機など展示 | NHK | 生成AI・人工知能

    https://www3.nhk.or.jp/news/html/20240926/k10014592661000.html

    つくり手にとって、特にゲーム産業はIP(知的財産)や、技術の塊でもあるので、ゲーム開発者にとっての「AIの活用は当たり前」になっていると感じますし、ゲームグラフィックスを日々見慣れているゲームファンにとって、ちょっとやそっとのグラフィックスでは「それAI使う意味あるの?」ぐらいの雰囲気はあるかもしれません。

    さて実は、今回のTGSでは「AIテクノロジーパビリオン」というゾーンが用意されていました。

    画像
    画像
    画像

    個々の技術やソリューション、ビジネスは「ふむふむ」という感じではあるのですが、TGSはゲーム開発者会議「CEDEC」ではないので個々のゲームについて、どのようなAIが使われているのか?そして「AIによってゲームのUXがどのように変わるのか!」が、AICUの愛読者の大好物、メインフォーカスではないでしょうか。

    そんな玄人すぎるAICU media編集部にとって「クリエイティブなAI」については、しっかりと確認していかないと見えてきづらい状況ではありました。

    その中でもAICUメディア編集部が気になるブースは…ないかな…?と予習をしておりましたところ、これだ!というスタートアップ企業が「OVOMIND」です。

    興奮する編集長をどうぞ。

    感情がゲームを動かす!「感情駆動型クラウドAI技術」

    スイス発のテック企業「OVOMIND」(オボマインド)が、未来のゲーム業界に革命を起こすかもしれない革新的なAI技術を引っ提げ、東京ゲームショウ2024に初参戦しました。

    同社が開発したのは、プレイヤーの感情をリアルタイムにゲームプレイに反映させる、クラウドベースAI技術とSDKです。

    この技術の核となるのは、感情駆動型スマートバンド。バンドに搭載されたセンサーが、ガルバニック皮膚反応(GSR)、皮膚温度、光電式生体電位計(PPG)など、プレイヤーの体から発せられる生体信号を感知します。取得した生体信号はAIによって分析され、プレイヤーの感情状態を記録します。

    そして、この感情データはゲームエンジンに送信され、ゲーム内のアクションやイベントにダイナミックに反映されるのです。例えば、プレイヤーが恐怖を感じている場合はゲームの難易度が調整されたり、喜びを感じている場合はキャラクターに特別な能力が付与されたりするなど、これまでにないインタラクティブなゲーム体験が実現します。

    実際に体験できる!

    東京ゲームショウでは、この技術を活用した最新ゲーム『Dead Shadows』が公開されています。

    画像

    『Dead Shadows』は、『アサシン クリード ユニティ』や『ダイイングライト2』で知られる著名なゲームディレクター、マルク・アルビネ氏が監修を務めた、感情主導型のサバイバルホラーゲームです。プレイヤーの感情がゲームのストーリー展開や結末に直接影響を与えるという、全く新しいゲーム体験を提供します。

    [動画へのリンク]

    感情でゲームが変わるってどういうこと?

    画像

    OVOMINDが開発したのは、感情を分析するAIを搭載したスマートバンド
    このバンドを装着してホラーゲーム「Dead Shadows」をプレイすると、プレイヤーのドキドキ💓やハラハラ😱がゲームに反映されます。

    内部のデータを可視化するとこんな感じ。

    画像

    プルチックの感情の輪に似ていますが、上下がポジティブ・ネガティブ、左右も別のポジティブ・ネガティブの軸でになっています。

    45秒ぐらいのキャッシュを保有して、スマートリストバンド→スマートフォン→クラウド経由→ゲーミングPCに情報を共有しています

    画像

    完全にアプリに組み込むだけでなく、スマホで2画面で見ながら感情を確認したり、OBSで表示したりといった使い方ができます。

    画像

    https://youtu.be/yzif0solvRI

    画像

    サンプルゲーム『Dead Shadows』はこんな感じの静粛な環境で体験できます。

    編集長・しらいはかせの実験後の感想です。
    「すみません、ぼくホラーゲームぜんぜん怖がらないし、わかんないんで!!代わりにクラロワを起動してみたけどめっちゃ面白かったです…!しかもやってる最中に電話が着信したりして…。『ふだんスマホ触っているときの自分の感情』とか考えたこともなかったけど、ものすごい速度で感情が推移しているのが外部可視化されて、それ自体がとても楽しい体験でした。スマホと連動したクラウド測定もクールな体験で、これはゲームに組み込むだけだと勿体ない。マーケティングとか、老齢者介護、障がい者とのコミュニケーション、お笑い芸能の評価とかいろいろできそう!」と興奮気味です。

    今後のゲームは感情が重要になるかも?!

    SDKの配布やデベロッパーキット(DK1)は10月から公開予定とか。
    お値段は199ドルぐらい、まずはWebサイトでメールアドレスを登録です。

    Ovomind – Enter a New Dimension

    【OVOMIND株式会社 CEOヤン・フラチ】
    日本及びアジア市場でゲームの最前線に立っている「東京ゲームショウ2024」の場で、プレイヤーの感情がリアルタイムでゲームプレイに反映されるOVOMINDの新しいAI技術とその技術を組み込んだ世界初の感情駆動型ゲーム『Dead Shadows』を紹介できることを大変嬉しく思います。
    『Dead Shadows』では、ユーザーが自分の感情をコントロールしながらゲームに没頭していきます。自分の感情がゲームのストーリーに影響を与え、キャラクター達もリアルタイムで感情に反応するため、プレイするたびに変化する独自のゲーム内コンテンツを楽しむことが可能です。
    これにより、ゲーム体験が向上するだけでなく、さまざまな感情によって生まれる異なる結末をプレイヤーが探求するため、 ゲームのリプレイ性が格段に向上します。


    東京ゲームショウに行く人は、幕張メッセ 第5ホール AIパビリオン ブース番号【05-C48】OVOMINDブースに行って、感情駆動型ゲーム『Dead Shadows』を体験してみてね!😄
    感想もこちらのツイートにお寄せください!

    関連リンク

    Originally published at https://note.com on Sept 26, 2024.