セキュリティ
【いまさら聞けない】生成AI業務活用のセキュリティリスクと対策とは
掲載日:2026/04/28

AIを業務活用することのセキュリティリスクは指摘されて久しいが、リスクと対策の整理ができていない人も多いはず。本記事では、生成AIを業務利用することで発生し得るセキュリティリスクとその対策を解説する。
生成AI業務活用で気を付けたい三つのセキュリティリスク
「情報セキュリティ10大脅威 2026」では「AIの利用をめぐるサイバーリスク」が第3位に初選出された。生成AIの活用が業務の効率化に資する一方で、そのリスクもまた、本腰を入れて注意しなければならない時代になったといえる。
では、具体的にどのようなリスクに気を付けるべきなのか。ここでは特にセキュリティに焦点を当てて、三つのリスクを解説する。
セキュリティに関する機密情報の漏えいリスク
生成AIの中には、ユーザーが入力した情報を学習データとして蓄積するものもある。そのため、従業員が誤ってセキュリティに関する機密情報を入力した場合、その情報が第三者に出力されるリスクが生まれてしまう。例えば、セキュリティ関連文書の作成にあたって、生成AIに自社のセキュリティに関する機微な情報を入力してしまったがために、その機密情報が悪意のある第三者に出力され、不特定多数からサイバー攻撃を受けてしまう、というケースも考えられるだろう。
生成AIが出力した脆弱性を抱えるコードを実行してしまうリスク
生成AIがアウトプットしたコードは、場合によっては重大な脆弱性をはらんでいる可能性がある。そのため、出力されたコードをしっかりと確認せずにそのまま用いてしまった場合、サイバー攻撃に悪用されてしまうリスクが高まってしまう。
誤情報を見逃してセキュリティ対策をしてしまうリスク
生成AI活用の注意点として「ハルシネーション(誤情報)」が挙げられる。生成AIが事実とは異なる情報をさも真実かのようにアウトプットしてしまう現象だ。仮に、生成AIと自社のセキュリティに関する壁打ちを行い、ハルシネーションに気付かずにセキュリティ対策を行ってしまった場合、その対策は不十分なものとなってしまう恐れも否定できない。
生成AIを業務で使用する際のセキュリティリスク対策

では、生成AIを業務活用する際のセキュリティリスクを抑えるためにはどうすればよいのだろうか。対策の考案には、東京都デジタルサービス局の「東京都AI導入・活用ガイドライン」の活用が役に立つ。
特に同ガイドラインの中で示されている「AI利活用に当たって留意すべき事項等とその対応」は参考になるはず。そこでは六つの留意すべき事項として「透明性」「公平性」「安全性」「プライバシー」「セキュリティ」「アカウンタビリティ」が挙げられている。
例えば「プライバシー(AI使用による個人情報の漏えい等を防ぐこと)」の対応としては、「AIの学習に当たって個人情報を取り扱う場合は、特定の個人を識別できないようデータの匿名化・加工を施す」と示されている。
また、「セキュリティ(サイバー攻撃等に備えること等)」への対応としては、「入力した情報がAIの学習に利用され、意図せず第三者に漏えいすることを防ぐため、入力データが学習に使われない設定(オプトアウト)を行う」とある。
これらは基本的な対応かもしれないが、確実に行うことによって、生成AIの業務利用のセキュリティリスクを大きく下げられる。
ここで取り上げなかった他の四つの事項も含め、AIの利活用における注意事項は、東京都デジタルサービス局の「東京都AI導入・活用ガイドライン」を参考にし、生成AIの業務活用のリスク低減を図りたい。