IoT・AI

生成AIと法的リスク~権利侵害にならないために~

掲載日:2024/03/19

生成AIと法的リスク~権利侵害にならないために~

2022年11月にOpenAI社がChatGPTをリリースして以来、生成AIは急激に進化している。ChatGPTリリース直後は、利用による法的リスクが見えなかったため、使用を禁止する企業もあったが、現在は生成AIを利用する方向にシフトせざるを得ない状況だ。積極的に生成AIを利用するためには、法律に抵触しないように注意する必要がある。そこで、生成AIにはどのような法的リスクがあるかを見ていこう。

法的な視点から見た生成AI

2024年2月にOpenAI社から動画生成AI「Sora」が発表された。デモンストレーション動画の動きや光の反射、サングラスへの映り込みなどが精細に描写されており、生成AIが作ったものだと言われなければ、撮影した映像だと思い込みかねない出来だった。

スパムメールもかつては不自然な文面のものが多かったが、生成AIを利用すれば文法も正しく自然な文章を作ることができる。

実際に、SNSにはフェイク画像・動画が投稿され問題になった。また、韓国では企業の従業員がChatGPTに機密情報を入力し、情報漏えいさせてしまったという事故が起こっている。

リアルな画像や動画、文章が生成AIで実現できるため、意図せず情報漏えいや著作権を侵害する可能性もあるのだ。このような事態を受け、日本でもAI推進基本法(仮)の成立を目指した動きが起きている。

生成AIの利用によって考え得るリスク

法律に触れる可能性があるのは、開発と学習段階、利用段階の二つの段階に大きく分けられる。

開発・学習段階でのリスク

データの学習と、事前学習したものを別のデータセットで再トレーニングする「ファインチューニング」で法的リスクが生じる可能性がある。

学習用データに著作物が含まれる可能性があるため、著作権者に許諾を得ずに著作物を利用した場合に著作権法に抵触するほか、生成AIで生成したものが既存の著作物に類似してしまうことがあり得る。実際に画像生成AIに対し、アメリカではアーティストが作品の盗用・複製を理由に集団訴訟を提起。写真提供サービスのGetty Imagesも学習データに写真を不適切に使用されたとして訴訟を提起している。

著作権以外には特許法や商標法、意匠法、不正競争防止法、肖像権、パブリシティ権などを侵害する恐れもある。これらの法律については現時点では大きな問題は起きていないが、今後生成AIが広く利用されるようになったとき、問題になり得るだろう。

紹介したのは、生成AIをサービスとして提供する側の問題だったが、ユーザー側でも生成AIの法的リスクは押さえておくべきだ。

生成AI利用段階でのリスク

利用者がプロンプトを入力する際、既存の作品の文章をそのまま使用して出力されたものが既存作品に似ている場合は、著作権侵害の可能性がある。画像でも、意図的に実在のイラストや人物に似たものを出力できるように入力することはリスクが大きい。また、生成AIで作成したものをSNSをはじめインターネット上で公開・商品化を行う場合、それが既存作品に似ていれば権利を侵害したと訴えられる可能性もある。逆に、生成AIで作成された画像や文章に著作権が生じるのかどうかはまだはっきりしていない。今後、法整備されていくことになると考えられる。

生成AIを利用する際は、著作物をプロンプトに用いないこと、既存作品や実在の人物を想起させる表記は避けること、生成されたものが既存作品などに似ている場合は、むやみに公開・使用しないことを心掛けることが必要だ。肖像権やパブリシティ権、個人情報保護法にも抵触しないよう注意しなければならない。

また、利用する生成AIサービスが学習データをどこから収集しているかも必ず確認しよう。著作権を侵害しない範囲でデータ収集を行っていることが明記されているサービスを選べば安心だ。フェイク画像や誤情報、マルウェア作成に生成AIを利用した場合、刑事罰になり得る。これは言うまでもなく厳禁だ。

国内外での規制

このようなリスクを踏まえて、各国政府は生成AIに対して法整備、ルール策定に動き始めている。

EU

EU理事会(閣僚理事会)と欧州議会は2023年12月、EU域内でのAI法案に関して暫定的な政治合意に達したと発表した。AI法案は2026年中に適用開始になるとみられ、具体的な法案の内容は公開されていないものの、AIのリスクに応じた規制が実施される見込みだ。個人の行動操作やソーシャルスコアリング(社会的行動や個人の特徴に基づく信用格付け)などが高リスクとされる。インターネットや監視カメラなどからの無差別な収集も取り締まりを受けることになる。

アメリカ

バイデン大統領は2023年10月、最新のAI技術に関する大統領令に署名し、AI技術を開発・提供する企業に対して、開発時点での政府への通知や安全性テストの結果の提示を義務付けた。

NIST(米国国立標準技術研究所)は「AIリスク管理フレームワーク」を発表し、Anthropic社、Google社、Microsoft社、OpenAI社の4社は安全なAI開発に向けて業界団体「Frontier Model Forum」を立ち上げるなど、政府以外の団体・企業などでもさまざまなルール作りが行われている。

日本

日本政府は2023年5月に「AI戦略会議」を内閣府に設置した。また、2023年12月には自民党のデジタル社会推進本部が「AIの安全性確保と活用促進に関する緊急提言」を提出。AIの安全性を確保するための新法を政府に求めている。

AIに関する法規制はまだ明確ではないが、これから各国で次々と整備されていくだろう。現状では、著作権法などを侵害しないよう、注意深く利用していきたい。