カテゴリー: Research

  • 東大のHCI研究:Stable Diffusionを用いた写真内の情報秘匿技術

    東大のHCI研究:Stable Diffusionを用いた写真内の情報秘匿技術

    東京大学より 2024年5月14日に発信されたプレスリリースが興味深い画像生成AIに関する研究でしたので紹介いたします。
    コンピュータ・ヒューマン・インタラクションのトップカンファレンス「CHI 2024」に「 Examining Human Perception of Generative Content Replacement in Image Privacy Protection 」というタイトルで採択されております。

    拡散モデルを用いた写真内の情報秘匿技術

    発表のポイント
    ◆ 生成AI を用いた画像の生成的コンテンツ置換(GCR)法を開発し、秘匿しつつ画像の見た目と内容の両方を維持する加工手法を開発しました。
    ◆ 新たに開発された手法では、画像の全体的な内容とプライバシーに関係しうる部分を特定した上で、拡散モデルを用いて代替画像を生成し、元の画像に適応させることで、プライバシーを守りつつ画像の視覚的魅力を保持する革新的なアプローチを提供します。
    ◆ 本手法は、SNS での画像共有、プレゼンテーション、ビジュアルデザインなど写真の視覚的美しさが重要な場面への応用が見込まれています。

    本研究が提案する画像秘匿手法GCRによる秘匿加工例

    概要

    東京大学大学院工学系研究科電気系工学専攻の矢谷浩司准教授らのグループは、生成AIを用いた画像の生成的コンテンツ置換(GCR)法を開発し、秘匿しつつ画像の見た目と内容の両方を維持する加工手法を開発しました。画像の秘匿化は、SNSの普及により重要性が増しています。従来の秘匿化手法にはモザイクやぼかしがありますが、これらの方法は手間がかかり、しばしば秘匿が不十分であるだけでなく、画像の見た目や統一感を損なう問題がありました。開発された手法は、画像全体とプライバシーに関連しうる部分の内容を表現するテキストを生成し、それらから拡散モデルにより代替画像を生成し、元の画像に配置することで、プライバシー保護と視覚的美しさのバランスを実現する画期的な方法となっています。SNSでの画像共有やプレゼンテーション、ビジュアルデザインへの応用が期待されます。また、将来的には動画への応用や、より使用しやすいインタフェースの開発も進められています。

    発表内容

    画像の秘匿化は、画像の中に含まれているプライバシーに関係する情報を保護するために、大変重要な編集方法です。近年では画像のごく一部の情報から、撮影者の場所や属性が漏洩することが度々発生していますが、SNSなどの急速な普及により、そのような危険性を十分に理解しないまま、画像が一般に公開されていることも数多くあります。秘匿化を実現する既存の編集方法としては、モザイクやぼかし、あるいは絵文字などを重ねる、などがありますが、多くの場合ではユーザが直接編集を施す必要があるため、多くの手間を要したり、秘匿が十分でなかったりすることがあります。またこのような秘匿加工を施すと、元の画像から比べて見た目の美しさや統一感を損なってしまうことがあり、SNSなどでの共有を目的とする場合には好ましくないこともあります。

    この研究では、生成AI技術を用いてプライバシーに関係する情報を現実的な類似の代替物でシームレスに置き換える生成的コンテンツ置換(Generative Content Replacement, GCR)法を構築しました(図1)。この方法では、ユーザが加工を行いたい画像をシステムにアップロードします。システムはアップロードされた画像に対してBLIP-2モデル(注1)を用い、画像全体の内容を表現するようなテキストを生成します。さらに、DIPA(注2)と呼ばれる矢谷研究室が構築したデータセットにより提供されているマスク情報を用いて、画像内のプライバシーに関連しうる部分を抽出し、その部分の内容を表現するようなテキストを生成します。この2つのテキストをもとに、Stable diffusion(現在はバージョン2.1を使用)(注3)して、画像内のプライバシーに関連しうる部分に類似した代替画像を生成し、元画像上に配置することで、コンテンツの置換を行います。これにより、もと画像にあったプライバシーに関連しうる情報は秘匿化されながらも、画像の見た目や内容を維持することが可能となります。

    図1:GCRの処理フロー

    ユーザがアップロードした画像に対して、画像全体とプライバシーに関連しうる部分のテキストを生成し、それを元に画像内のプライバシーに関連しうる部分に類似した代替画像を生成し、元画像上に配置することで、コンテンツの置換を行います。

    図2に示す通り、ぼかし、カートゥーニング(画像の一部を非現実的な程度に強調する方法)、色塗り、除去(画像内の物体等を消し去り、背景で置き換える)、GCRの5つを比較したユーザ実験の結果、GCRによる秘匿加工では、画像内で加工が行われた場所を見つけ出すことが最も難しかったことが確認されました。また、他の秘匿加工手法と比較して、加工後の視覚的な調和が最も保たれていることも確認されました。元画像が持つストーリー性の維持に関しては、GCRはカートゥーニングよりも劣ったものの、プライバシー保護の強さにおいてはGCRが秀でており、GCRによる秘匿加工が、プライバシー保護と画像の視覚的美しさを両立しうる手法であることが確認されました。そのほか、GCRによる秘匿加工の一例を図3に示します。

    図2:秘匿加工方法の比較

    左から、元画像、ぼかし、カートゥーニング、色塗り、除去、GCR。

    図3:GCRによる秘匿加工の一例

    (上)後ろにいる男性を置換している。左が元画像、右が加工後の画像。(下)前面にある車は維持しつつ、背景にある車やナンバープレートを置換している。左が元画像、右が加工後の画像。

    この研究成果は、画像のプライバシー保護と有用性の両方が求められる応用において、実用的な生成AIの応用例を示すものです。SNSでの画像共有のほか、プレゼンテーションやビジュアルデザインへの応用も期待されます。将来への展望として、研究室では、一般的なユーザがより簡単にGCRを使用できるインタフェースを構築しているほか、動画への応用を検討しています。

    本研究はMicrosoft Research Asia D-CORE Program、および株式会社メルカリ R4Dとインクルーシブ工学連携研究機構との共同研究である価値交換工学の成果の一部です。

    発表者・研究者等情報

    東京大学大学院工学系研究科電気系工学専攻

    矢谷 浩司 准教授

    論文情報

    雑誌名: Proccedings of the ACM Conference on Human Factors in Computing Systems(CHI 2024)

    題 名: Examining Human Perception of Generative Content Replacement in Image Privacy Protection

    著者名: Anran Xu*, Shitao Fang, Huan Yang, Simo Hosio, and Koji Yatani*

    用語解説

    (注1)BLIP-2

    与えられた画像から情報を抽出し、画像を説明するテキストを生成するマルチモーダル学習技術をベースに構築された人工知能技術。

    (注2)DIPA

    矢谷研究室で構築した画像内においてプライバシーに関連しうる物体にアノテーションを施したデータセット。

    (注3)Stable Diffusion

    拡散モデルと呼ばれる確率的プロセスを用い、テキストの記述に基づいて画像を生成する人工知能技術。

    プレスリリース本文: PDFファイル

    Examining Human Perception of Generative Content Replacement in Image Privacy Protection | Proceedings of the CHI Conference on Human Factors in Computing Systems https://dl.acm.org/doi/10.1145/3613904.3642103

    https://dl.acm.org/doi/10.1145/3613904.3642103

    [MIT Technology Review] 生成AIを用いて画像内の情報を秘匿するシステム、東大が開発

    https://www.technologyreview.jp/n/2024/05/17/336549/

    東京大学によるプレスリリース
    https://www.t.u-tokyo.ac.jp/press/pr2024-05-14-002

    Originally published at https://note.com on May 24, 2024.

  • ゲーム「GTA5」使って未来の自動運転車の安全を鍛える研究FAMix #CVPR2024

    ゲーム「GTA5」使って未来の自動運転車の安全を鍛える研究FAMix #CVPR2024

    世界中のコンピュータビジョンとパターン認識の最先端の論文が集まる国際会議「CVPR2024」採択論文が公開されました。
    https://cvpr.thecvf.com/Conferences/2024/AcceptedPapers

    採択論文の中に「FAMix」という自動運転車のためのコンピュータビジョン研究で、興味深い論文があったので しらいはかせさん(X@o_ob)が 紹介します。

    🍴 FAMix 🍴

    A Simple Recipe for Language-guided Domain Generalized Segmentation
    (FAMix: 言語ガイド付きドメイン一般化セグメンテーションのためのシンプルなレシピ)

    モハマド・ファヘス、トゥアン・フン・ヴー、アンドレイ・ブルスク、パトリック・ペレス、ラウル・ド・シャレット – Inria, パリ, フランス valeo.ai, パリ, フランス

    INRIAはフランスの国立情報学研究所です https://www.inria.fr/en

    Valeo.ai は自動車アプリケーション向けの人工知能研究センター

    Mohammad Fahes さんによる研究

    Mohammad Fahes さんは Inriaとvaleo.aiの共同グループであるAstra-visionの博士課程2年生です。現在、Raoul de Charette、Tuan-Hung Vu、Andrei Bursuc、Patrick Pérezの指導の下、様々な条件下におけるラベルとデータ効率の良い2Dシーン理解について研究しています。ENS Paris-Saclayで数学、視覚、学習の修士号、Mines Parisで工学の学位、レバノン大学で機械工学の学位を取得。

    https://mfahes.github.io

    YouTube動画におけるFAMixの定性的結果


    プロジェクトページ: https://astra-vision.github.io/FAMix/

    トレーニング中に見られなかった新しいドメインへの汎化は、実世界のアプリケーションにニューラルネットワークを導入する際の長年の目標であり課題の1つである。既存の汎化技術では、外部データセットから得られる可能性のある大幅なデータ増強が必要であり、様々なアライメント制約を課すことで不変な表現を学習することを目指している。最近、大規模な事前学習が、異なるモダリティを橋渡しする可能性とともに、有望な汎化能力を示している。例えば、CLIPのような視覚言語モデルの最近の出現は、視覚モデルがテキストモダリティを利用する道を開いた。本稿では、ランダム化の源として言語を用いることで、セマンティック・セグメンテーション・ネットワークを一般化するためのシンプルなフレームワークを紹介する。すなわち、i) 最小限の微調整によるCLIP本来のロバスト性の維持、ii) 言語駆動型の局所的スタイル拡張、iii) 学習中にソーススタイルと拡張スタイルを局所的に混合することによるランダム化、である。広範な実験により、様々な汎化ベンチマークにおける最先端の結果が報告されています。コードは公開予定。

    https://astra-vision.github.io/FAMix/

    公開されているコードによると

    19都市のパノラマ画像「ACDC」データセット、カリフォルニア大学バークレー校のAIラボ(BAIR)が公開する運転中の動画データセット「BDD100K」 (BDD100K: A Large-scale Diverse Driving Video Database)、ピクセルレベル、インスタンスレベル、汎視野的セマンティックラベリングのための「The Cityscapes Dataset」(高画質アノテーション付き画像5,000枚 – 粗いアノテーション付き画像20,000枚 – 50の異なる都市)、世界中のストリートシーンを理解するための、ピクセル精度とインスタンス固有のヒューマンアノテーションを備えた、多様なストリートレベルの画像データセット「Mapillary Vistas Dataset」、これは25 FPSで生成されたビデオストリームで空、建物、道路、歩道、フェンス、植生、電柱、車、交通標識、歩行者、自転車、車線、信号、セグメンテーション、2Dバウンディングボックス、3Dバウンディングボックス、奥行き情報が含まれるアクティブ・ラーニング用のデータセット「SYNTHIA」そして、GTA5(グランセフトオート)を使った事前学習で、YouTubeの未知の走行動画でのパリ、ベイルート、ニューデリー、ヒューストン、つまり実際に行ったことがない都市でのセグメンテーション(領域分割)が機能しています。

    https://www.youtube.com/watch?v=vyjtvx2El9Q

    なお、グランドセフトオート(GTA5)を使った学習手法は、2016年にECCV2016(European Conference on Computer Vision)において提案されていました。49時間にわたる収録を手作業によりラベル付けを行っています。

    https://www.youtube.com/watch?v=JGAIfWG2MQQ

    2016年にドイツのダルムシュタット工科大学とインテルラボの科学者によって開発された「Playing for Data: Ground Truth from Computer Games」という研究で、「Grand Theft Auto V」のオープンワールドでのプレイ時の視覚情報をデータセットとして利用しています。

    Playing for Data: Ground Truth from Computer Games

    http://download.visinf.tu-darmstadt.de/data/from_games/index.html

    最近のコンピュータビジョンの進歩は、大規模なデータセットで学習された大容量モデルによって牽引されている。しかし残念ながら、ピクセルレベルのラベルを持つ大規模なデータセットを作成することは、人間の労力を必要とするため、非常にコストがかかる。本稿では、最新のコンピュータゲームから抽出された画像に対して、ピクセル精度の意味ラベルマップを高速に作成するアプローチを紹介する。商用ゲームのソースコードや内部動作にはアクセスできないが、ゲームとグラフィックスハードウェア間の通信から画像パッチ間の関連付けを再構築できることを示す。これにより、ソースコードやコンテンツにアクセスすることなく、ゲームによって合成された画像内および画像間で意味ラベルを迅速に伝播することが可能となる。我々は、フォトリアリスティックなオープンワールドコンピュータゲームによって合成された25,000枚の画像に対して、高密度のピクセルレベルの意味的注釈を生成することによって、本アプローチを検証する。セマンティックセグメンテーションのデータセットを用いた実験では、実世界の画像を補完するために取得したデータを用いることで精度が大幅に向上すること、また、取得したデータを用いることで、手作業でラベル付けした実世界のデータ量を削減できることが示された:ゲームデータとCamVid学習セットのわずか1/3で学習したモデルは、CamVid学習セット全体で学習したモデルよりも優れている。

    データ データセットは、便宜上10分割された24966の高密度にラベル付けされたフレームで構成されている。クラスラベルはCamVidとCityScapesデータセットと互換性がある。ラベルマップを読み込むためのサンプルコードと、トレーニング/検証/テストセットへの分割をここに提供します。ラベルマップの小さなセット(60フレーム)は、対応する画像と解像度が異なることに注意してください(Dequan Wang氏とHoang An Le氏の指摘に感謝します)。また、このデータは研究・教育目的にのみ使用されることに注意してください。

    さてプロジェクト「FAMix」(公開された論文タイトルは:ASimple Recipe for Language-guided Domain Generalized Segmentation/言語ガイド付きドメイン汎化セグメンテーションの簡単なレシピ)はセマンティックセグメンテーションのためのドメイン汎化(DGSS)をシンプルな材料の組み合わせによるDGSSの効果的なレシピとして提案しています。上記で紹介したデータセットに加え、Stable Diffusionの内部でも使われている言語と画像のマルチモーダル基盤モデル「CLIP」を使用し、最小限の微調整によるCLIP本来のロバスト性の維持、ii) 言語駆動型の局所的スタイル拡張、iii) 学習中にソーススタイルと拡張スタイルを局所的に混合することによるランダム化、そしてImageNetとの比較も行っています。分類、領域分割といったタスクに状況説明のような言語での説明ができることが新たな安全性を生み出す可能性もありますね。

    Valeo.aiのWebサイトにはこのような例が挙げられています。

    不確実性の推定:予期せぬ事態が発生した場合、天候が悪化した場合、センサーが遮断された場合、乗船した知覚システムは状況を診断し、代替システムや人間のドライバーを呼び出すなど、適宜対応する必要があります。このことを念頭に置き、システムの不確実性を評価し、その性能を予測する自動的な方法を研究しています。

    GTA5自体も2013年(11年前)にリリースされた「悪に憧れる全ての人」に向けた爽快なオープンワールドクライムアクションですが、コンピュータビジョンの世界は、舞台となるリアルに描き起こされたアメリカ西部の海岸地帯「ロス・サントス」での自動車強盗だけでなく、未来の実世界の安全走行に寄与しているのがおもしろいですね。

    「つくる人をつくる・わかるAIをつたえる」AICU mediaは学術論文の解説記事を募集しています。

    寄稿された方にはAmazonギフト券ほか薄謝を進呈いたします。
    詳しくはX(Twitter)@AICUai までDMにて御御相談ください。

  • 「米大統領令、生成AIを初規制 公開前に安全評価義務づけ」その実際は

    「米大統領令、生成AIを初規制 公開前に安全評価義務づけ」その実際は

    日経新聞において以下の記事が掲載されました。

    米大統領令、生成AIを初規制 公開前に安全評価義務づけ — 日本経済新聞
    バイデン米大統領は30日、人工知能(AI)の安全性の確保や技術革新を図るための大統領令を発令した。開発企業はサービス提供やwww.nikkei.com

    バイデン米大統領は30日、人工知能(AI)の安全性の確保や技術革新を図るための大統領令を発令した。開発企業はサービス提供や利用開始前に、政府による安全性の評価を受けるよう義務付ける。法的拘束力を持つAI規制を米国で初めて導入する。 日本経済新聞 2023年10月30日

    このような法的拘束力をもつ規制が導入されるのであれば、米国法人であるAICU社や日本のChatGPTのユーザなどにも影響が及ぶ可能性がありそうです。
    実際のところはどのような内容なのでしょうか、NewYorkTimesの記事を調査してみました。

    Biden to Issue First Regulations on Artificial Intelligence Systems
    nytimes.com

    バイデン大統領は月曜日、人工知能システムに関する連邦政府初の規制の概要を示す大統領令を発表。その中には、最先端の人工知能製品が生物兵器や核兵器の製造に使用されないことを保証するためのテストを実施し、その結果を連邦政府に報告するという要件が含まれている。
    過去数年間のA.I.の飛躍的な進歩がもたらした潜在的なリスクからアメリカ人を守るための、最も包括的な政府の行動として説明される予定である。この規制には、そのようなシステムによって開発された写真、ビデオ、音声には、AIによるものであることを明確にするために透かしを入れることを推奨する内容が含まれるが、義務ではない。これは、特に2024年の大統領選挙が加速するにつれて、AIによって「ディープフェイク」や説得力のある偽情報の作成がはるかに容易になるという懸念が高まっていることを反映している。
    米国は最近、ChatGPTのようなプログラムを質問に対する回答や作業のスピードアップに効果的なものにしている、いわゆる大規模言語モデルの生産能力を低下させるため、中国への高性能チップの輸出を制限した。同様に、新たな規制は、クラウドサービスを運営する企業に対し、外国人顧客について政府に報告することを義務付ける。
    バイデン氏の命令は、英国のリシ・スナック首相が主催する、AIの安全性に関する世界のリーダーたちの集まりの数日前に出される。AI規制の問題では、米国は新たな法律の草案を作成している。欧州連合(EU)や、規制案を発表している中国やイスラエルなどの他の国々に遅れをとっている。
    昨年、AIを搭載したチャットボット「ChatGPT」が爆発的な人気を博して以来、議員や世界の規制当局は、人工知能がどのように仕事を変え、偽情報を広め、独自の知能を発達させる可能性があるかに取り組んできた。
    「バイデン大統領は、AIの安全性、セキュリティ、信頼性に関して、世界のどの政府よりも強力な一連の行動を展開している」と、ホワイトハウスのブルース・リード副長官は語った。「これは、AIの利点を活用し、リスクを軽減するために、あらゆる面であらゆることを行う積極的な戦略の次のステップである。
    (中略)
    この規制はまた、安全性、セキュリティ、消費者保護に関する初めての基準を設定することで、テクノロジー部門に影響を与えることを意図している。財布の紐の力を使うことで、ホワイトハウスの連邦政府機関への指令は、政府の顧客によって設定された基準を遵守するよう企業に強制することを目的としている。
    「これは重要な第一歩であり、重要なことは、大統領令は規範を定めるということです」と、ジョージタウン大学安全保障・新興技術センターのシニア・リサーチ・アナリスト、ローレン・カーンは言う。
    この大統領令は、保健福祉省やその他の省庁に対し、AIの使用に関する明確な安全基準を作り、AIツールの購入を容易にするためのシステムを合理化するよう指示している。労働省と国家経済会議に対しては、AIが労働市場に与える影響を調査し、規制の可能性を検討するよう命じている。また、AIツールに使用されているアルゴリズムによる差別を防ぐため、家主、政府請負業者、連邦給付プログラムに対して明確なガイダンスを提供するよう各機関に求めている。
    連邦取引委員会のリナ・カーン委員長はすでに、A.I.の監視役としてより積極的に行動する意向を示している。しかし、ホワイトハウスの権限は限られており、指令の中には強制力のないものもある。例えば、消費者の個人データを保護するための内部ガイドラインを強化するよう各機関に求めているが、ホワイトハウスはデータ保護を完全に確保するためにはプライバシー保護法の必要性も認めている。イノベーションを奨励し、競争を強化するため、ホワイトハウスはF.T.C.に対し、消費者保護と独占禁止法違反の監視役としての役割を強化するよう要請する。しかし、ホワイトハウスには、独立機関であるFTCに規制を作るよう指示する権限はない。
    貿易委員会のリナ・カーン委員長はすでに、AIの監視役としてより積極的に行動する意向を示している。7月、同委員会はChatGPTのメーカーであるOpenAIに対し、消費者のプライバシー侵害の可能性と、個人に関する虚偽の情報を広めたという告発を理由に調査を開始した。
    「これらのツールは斬新ではあるが、既存の規則から免除されるものではない。FTCは、この新しい市場であっても、我々が管理する責任を負う法律を強力に執行する」と、カーン氏は5月にニューヨーク・タイムズ紙に寄稿した。
    テック業界は規制を支持すると述べているが、政府による監視のレベルについては各社で意見が分かれている。マイクロソフト、OpenAI、グーグル、メタは、第三者にシステムの脆弱性をストレステストしてもらうなど、自主的な安全性とセキュリティの約束に合意した15社のうちの1社である。
    バイデン氏は、AIが医療や気候変動研究に役立つ機会を支援する一方で、悪用から守るためのガードレールを設ける規制を求めた。彼は、AIのリーダーシップをめぐる世界的な競争において、規制と米国企業への支援のバランスをとる必要性を強調している。この目的のため、今回の大統領令は、高度な技術を持つ移民や、AIの専門知識を持つ非移民が米国で就学・就労するためのビザ手続きを合理化するよう、各省庁に指示している。

    米国オフィスの Koji に訊いてみました。

    Koji ― 日経の記事を見ると「アメリカ国内産業を規制する」というふうにしか見えませんでしたが、NewYorkTimes(NYT)を見る限りでは、ちょっと違うかなと。(もっとも、情報が少なすぎてどこまでやるのかは不明ですが)以下がポイントではないかと読んでおります。

    ・米国は新たな法律の草案を作成している。「欧州連合(EU)や、規制案を発表している中国やイスラエルなどの他の国々に遅れをとっている」という表現があるがNYTが「米国内の遅れ」という論調を煽っている。

    ・大統領選挙が近いため、ディープフェイクを警戒している

    ・大統領による宣言は直接の権限はないが「連邦政府の財布の紐」の力を使うことで、政府の顧客が基準を遵守するよう企業に強制することを目的としている。

    ・一般向けサービスへの影響は「クラウド」に関する言及があり、これは本来であればその企業が所属する州法や利用規約によって定められるものであり、急激な「国としての対応」という捉え方をするのは危ない。

    要素としてはどんな要素が言及されているか?

    兵器化のテストおよび報告
    高度なAI企業は、それが生物学的または核兵器の製造に使用できないことを確認するための徹底的なテストを行い、その結果を連邦政府に報告する必要があるとのこと。対象は、LLMとかエンジンを開発企業ということではないかと。日本企業だとIoT機器、ドローンの兵器転用などは注意すべき要素になるかもしれません。

    輸出制限
    特定の国への先進的なAI技術の輸出が制限される可能性がある。上記の記事にあった国名は明確に標的にされており、グローバルなAI利用サービス提供社は、そういう国と取引をしないという規制も将来的に設定される可能性がある。

    クラウドサービスの開示
    クラウドサービスを提供する企業は、外国の顧客に関する情報を政府に報告する必要がある。これもどこまでが対象になるのかこの記事では不明ですが、上記の輸出制限と関連して、各ビッグテックに対する税金の扱いや利用規約などで制限されていく可能性があります。日本の場合は、例えば生成AIを利用している反社会的勢力などが直接影響を受ける可能性がありますね。

    AI生成コンテンツのウォーターマーキング
    (必須ではないということですが)AIシステムによって生成された写真、ビデオ、およびオーディオにはAIによって作成されたことを示すウォーターマークを付けることが推奨されるとのことです。研究レベルではたくさんの技術が提案されており、AdobeやMicrosoftのような一社だけではなく、オープンソースなどで標準化が模索されています。

    未来の規制への適応
    連邦政府がAIシステムに対する明確な安全基準およびその他の規制を開発するにつれて、企業はこれらの変化に適応し、遵守していることを確認する必要が出てくるでしょう。具体的に何をさせられるのかは不明ですが、指針が出て、規制対応ということになれば、これは対応するしかなくなります。

    差別の排除
    AIツールで使用されるアルゴリズムによって、差別(discrimination)を防ぐための明確な指針が求められるとのこと。例えば画像生成AIで「犯罪者」を生成した場合にどんな人種が出てくるか、といった例でしょうか。これは法的規制に関わらず注意が必要な事項ですが、非常に難しい要素を含んでいます。

    いずれもOpenAIとかGoogle、StabilityAIといった生成AIのエンジンを提供する企業が、主たる規制の対象になるのではないかと想像します。一方、それを活用する企業に対しては、どこまで規制するのかは不明です。具体的な指針が出てくるのを待つしかない状態です。これは大統領令なので、議会で取り消し(上書き)されたり、裁判所で無効にされる可能性はあります。この記事の読みどころとしては「議会の動きよりは早い」という点が重要。つまり、規制と言いながらも、国内産業を抑え込む、という狙いではない、と見ています。
    なぜ今のタイミングなのかという話ですね。むしろ大統領選挙が近いため、ディープフェイクを警戒している可能性も読み取れます。安全保障面とか国家保護の色合いが濃く、読み手に警戒を発しているようにも読み取れます。具体的な国名として中国、イスラエル、EUを挙げて、アメリカの競争力を高めることを狙っているように見えます。

    日本から見るとアメリカ一強にみえる生成AIですが、覇権を争っている中国や、中東、そしてEUの動向に対して、ビッグテックを政府調達を通して、手綱をつけようとしているということかもしれませんね。

    Kojiさんありがとうございました。
    AICU社では今後も、米国からみた生成AIの社会面を扱っていきたいと思います!