
今年2月、政府は「人工知能関連技術の研究開発及び活用の推進に関する法律案」(AI法案)を閣議決定し、AIに特化した日本初の法案として国会に提出した。グローバルに展開する日本企業は各国の規制に応じたより精緻な対応が迫られ、AIの開発や普及の強化と安全性・信頼性の確保を両立することが課題となる。AIビジネスのさらなる推進に向け、企業コンプライアンスの観点からリスクマネジメントの正解を探る。
社会のさまざまな領域に広がるAI台頭のリスク
企業における人工知能(AI)導入の課題として、生成AIへの指示や質問を通じた情報漏えいや意図せぬ著作権の侵害、間違った情報(ハルシネーション)の利用に伴う混乱などを挙げる声は多い。だが、社会全体に視野を広げると、それとは異なるAI利用のリスクも見えてくる。生成AIが社会に広く認知される以前から、その利用において指摘されていたリスクも多く、国際社会や各国政府はかなり早い段階から対策を開始している。2024年8月にEUがAIの開発・運用を包括的に規制するAI法を発効し、日本でも今国会でAI法案の議論が進んでいる。そうした中、まずはAIがもたらす社会的リスクについて改めて整理してみたい。考えうるリスクは、以下のような項目になる。
自律的システムのリスク
まず挙げておきたいのは、AIに判断を委ねることで生じる倫理的な問題だ。「ある人を助けるために別の人を犠牲にするのは許されるか」を問う「トロッコ問題」とも密接にかかわる、自律運転のジレンマがその分かりやすい例である。「対向車との衝突を避けるため歩行者がいる歩道にハンドルを切ることが許されるのか」という問いは、自律運転の実用化においてのどに刺さった小骨であり続けている。AIによる自律的システムの運用で生じる倫理的な課題は、今後、医療分野をはじめさまざまな領域で直面することになるはずだ。
また、自律的システムを原因とする事故の責任を誰が負うか、という問題にも注目が必要だろう。運用者なのか製造者なのかという判断は、ケースバイケースになると思われるが、プログラムのバグの責任の重みがこれまでとは大きく異なってくることは間違いない。
プライバシー・人権の侵害
入力情報を学習に利用するAIチャットが情報漏洩リスクを伴うことは、以前から指摘されている。企業の場合、LLM(大規模言語モデル)を自社で構築するなどの対策も可能だが、個人にできることには限りがある。
AIチャットへの質問やWebスクレイピングなどの手法でSNSから収集した膨大なデータをAIが突合し、センシティブ情報(機微情報)を含む個人情報のデータベースを構築することも技術的には可能だ。すでに従来とは異次元のプライバシー侵害リスクが生まれつつあることは間違いない。
またAIは、音声や映像といった非構造化データまで含めたデータ利用を可能にしている。街頭の防犯カメラ等と組み合わせれば、オフラインの行動も把握できるだろう。後に紹介するEU AI法では、自律的システムのリスクと共にAIを野放しにすることによる人権侵害の懸念を特に重大視している。
著作権をめぐる課題
生成AIの出力には、先行する画像、テキストが何らかの形で反映される。AIの創作が音楽や映像にまで広がる中、AIのアウトプットと著作権、肖像権の関係は、今後も主に商業面で課題であり続ける。
犯罪行為の助長
ChatGPTなどの生成AIサービスは、不適切な質問をブロックするフィルター機能を備えることが一般的だ。「ライフル銃の作り方」「違法薬物の合成方法」といった犯罪行為につながる質問はブロックされることになっているが、フィルターを解除する方法がネット上で広く流通しているのが実情だ。現実にマルウェアやフィッシングメール、偽サイト等の生成にはAIが大きな役割を果たしているとみられている。また、画像生成AIによるフェイク動画やフェイク画像、合成音声によるフェイク音声などの「ディープフェイク」は、思いもしなかったような犯罪を生むことにつながっている。香港では、CFO(最高財務責任者)のディープフェイクがWeb会議を通して実務担当者に指示を与えることで、約2億香港ドル(約38億円)を不正に送金させた事件が発生している。巧妙に偽装されたCFOのディープフェイク動画は、一枚の肖像写真をもとに作られたという。
偽情報による社会の混乱
当面は、ハルシネーションによる偽情報への対応がチャットAIの課題の一つであることは間違いない。それに加え、AIの回答精度が向上し、一定の信頼を満たすようになった未来における課題も指摘されている。それは、不正確な情報を意図的に流すことで社会を特定の方向に導くことへの懸念である。近年のネット社会の情報伝達の速さを考えあわせると、AIアルゴリズムのわずかな操作がバタフライ・エフェクトとして世界を動かすこともあながち荒唐無稽とは言い切れない。また、ディープフェイクは、詐欺行為から政治家・有名人の中傷に至るまで多様なサイバー犯罪に利用されている。
AI失業
AIが人間の仕事を奪う「AI失業」は早くから指摘されてきた課題の一つだ。AIが普及することの雇用への影響についてはさまざまなシナリオが考えられているが、ホワイトカラーの仕事からブルーカラーの仕事への人的リソースの大移動が避けられないとみる向きも多い。雇用への影響は、AIが社会に与える最大のインパクトともいえそうだが、影響の範囲は今回のテーマである「AI法」の枠組みをはるかに超える。おそらく今後、社会のリデザインを視野に入れた取り組みが求められることになるだろう。
シンギュラリティ
最後に、AIが人間の知能を超える未来を想定するシンギュラリティについても簡潔に説明しておきたい。シンギュラリティは、アメリカの未来学者でありAI研究の権威でもあるレイ・カーツワイル氏が提唱した、自律的な人工知能が自己フィードバックを繰り返すことでAIが人間の知性を超え、人類の歴史の大きな転換点(シンギュラリティ:特異点)を迎える、という概念。カーツワイル氏はシンギュラリティを2045年前後と想定しているが、人間が備えるイノベーションに関する能力まで含めAIが代替しうるか、という点については今も意見が分かれる。現時点ではシンギュラリティを想定した法整備に取り組むケースは見当たらないが、AIと社会の共生を考えるうえで重要な補助線であることは間違いない。AIが実現する生産性向上の果実をベーシックインカムとして国民に還元する仕組みなど、アフターAI時代の社会デザインを考えるうえで、シンギュラリティの概念はこれからも大きな意味を持ち続けるとみられる。
ルール制定の基盤になった広島AIプロセス
各国のAI規制に重要な役割を果たすことになったのが、2023年5月のG7広島サミットを機に立ち上げられた国際的な議論の枠組みである「広島AIプロセス」である。
日本を議長国とした広島AIプロセスでは、「全てのAI関係者向けの広島プロセス国際指針」、「高度なAIシステムを開発する組織向けの広島プロセス国際行動規範」などの文書が策定された。AIを活用したビジネスを展開しようとする組織に向けた手引きである「高度なAIシステムを開発する組織向けの広島プロセス国際行動規範」には、以下の11項目に対する詳細な対策例が記載された。
①AIライフサイクル全体にわたるリスクを特定、評価、軽減するために、高度なAIシステムの開発全体を通じて、その導入前及び市場投入前も含め、適切な措置を講じる
②市場投入を含む導入後、脆弱性、及び必要に応じて悪用されたインシデントやパターンを特定し、緩和する
③高度なAIシステムの能力、限界、適切・不適切な使用領域を公表し、十分な透明性の確保を支援することで、アカウンタビリティの向上に貢献する
④産業界、政府、市民社会、学界を含む、高度なAIシステムを開発する組織間での責任ある情報共有とインシデントの報告に向けて取り組む
⑤特に高度なAIシステム開発者に向けた、個人情報保護方針及び緩和策を含む、リスクベースのアプローチに基づくAIガバナンス及びリスク管理方針を策定し、実施し、開示する
⑥AIのライフサイクル全体にわたり、物理的セキュリティ、サイバーセキュリティ、内部脅威に対する安全対策を含む、強固なセキュリティ管理に投資し、実施する
⑦技術的に可能な場合は、電子透かしやその他の技術等、ユーザーがAIが生成したコンテンツを識別できるようにするための、信頼できるコンテンツ認証及び来歴のメカニズムを開発し、導入する
⑧社会的、安全、セキュリティ上のリスクを軽減するための研究を優先し、効果的な軽減策への投資を優先する
⑨世界の最大の課題、特に気候危機、世界保健、教育等(ただしこれらに限定されない)に対処するため、高度なAIシステムの開発を優先する
⑩国際的な技術規格の開発を推進し、適切な場合にはその採用を推進する
⑪適切なデータインプット対策を実施し、個人データ及び知的財産を保護する
2024年12月現在、広島AIプロセスに賛同するフレンズグループ参加国・地域は55に及び、各国で進むAI規制法の重要な指針として機能している。
高度なAIシステムを開発する組織向けの国際行動規範

リスクベースで包括的な規制を行うEU AI法
次に各国の取り組みを見ていきたい。まず注目したいのが、包括的なAI規制法としては世界初の2024年8月発効のEU AI法だ。その第一のポイントは、リスクベースのアプローチでAIシステムの開発と運用を包括的に規制する点にある。同法では、AIシステムをリスクに基づき「許されないリスク」「高リスク」「透明性が求められるリスク」「最低リスク」の4カテゴリーに分類し、それぞれに応じた規制の強度を設定する。

許されないリスク
人々の安全、生活、権利に関し、その脅威になり得るAIシステムを対象とする。具体的には、「判断能力を著しく損なうサブリミナル技法や操作的・欺瞞的技法」「年齢、障害、特定の社会的・経済的状況に起因する脆弱性の悪⽤」「本⼈や集団に不利な影響を与える社会的スコアリング(例外有)」「個⼈の性格特性や特徴のプロファイリングのみに基づく犯罪予測」などが禁止行為として定められ、特に基本的人権を保護する姿勢が強く打ち出されている。
高リスク
「市民の生命や健康を危険にさらす可能性のある重要なインフラ」や「教育や職業訓練においてその後の教育や専門コースへの進路を左右する可能性のあるもの」「製品の安全部品」などが対象とされる。高リスクに認定された製品やサービスは市場に投入される前に第三者による適合性評価を受ける必要があるなど、厳しい手続きが義務付けられる。特にインフラをはじめとする公共サービスや法執行・司法手続きに関連したAIによる自律的システムの開発、運用に関しては、厳格な要件が設定されている。なお、これまで人間が行ってきた手続きをAIが代替する、AIによる自動化は除外される。

透明性が求められるリスク
生成AIの出力に代表される、AI利用に伴う透明性の欠如に関するリスクを対象にする。具体的には、AIチャットボットとの対話やAIが生成した画像、動画、音声はいずれも生成AIによるコンテンツであることを明示することが求められる。
最低リスク
上記3カテゴリーにあてはまらないAIシステムがここに含まれ、制約なしにAIを利用できる。現在EU域内で利用されるAIシステムの大部分がこのカテゴリーに該当する。
LLMに代表される汎用目的AIモデル(GPAIモデル)の規制がいち早く加えられた点もEU AI法の特徴である。それにより今後、GPAIモデル提供者は「技術文書の作成と更新」「情報と文書の提供」「著作権法の遵守」「トレーニング内容の公開」などの義務を負うことになる。
また、法的拘束力を備えるハードローであることも注目すべきポイントだ。例えば、「許されないAI」に関する違反では3500万ユーロまたは全世界売上高の7%の高い方、「高リスクAI」の違反では1500万ユーロまたは全世界売上高の3%の高い方が罰金の上限とされる。2026年8月の全面適用まで段階的に適用されるEU AI法は、EU域内でビジネスを行う日本企業が遵守すべきルールであると共に、国際社会が認識するAIリスクを理解するうえでも大きな意味を持つだろう。