IoT・AI
生成AI活用で「やってはいけない」業務とは
掲載日:2025/06/17

業務に生成AIを導入する企業が増えてきているが、情報漏えいリスクや誤情報、著作権問題など生成AIの活用にはリスクが伴う。AI活用が向いている業務、向いていない業務を押さえ、今後のAIとの付き合い方に対する知見を深めていこう。
生成AIによるトラブル
近年は、ChatGPT、Microsoft 365 Copilot、Gemini、Claude、Grokなど、次々に生成AIサービスがリリースされ、急速な発達を遂げている。
OpenAI社のChatGPTが発表された当初、情報漏えいリスクなどを考慮し、利用を制限する企業も多かったが、今では生成AIを積極的に活用しようとする企業が増えている。しかしながら、生成AIの活用にリスクがあることは現在も変わりないため、まずはどのようなリスクがあるのかを見ていこう。
機密情報の漏えい
個人情報や機密情報などをプロンプトへ入力すると、それが学習データに利用されることがある。これにより、出力された個人情報・機密情報を含む回答を、第三者が意図せず閲覧してしまう可能性がある。
ハルシネーション
生成AIは誤った内容でも正しいかのように回答をする「ハルシネーション」を起こす可能性がある。
実際、カナダの大手航空会社が提供していた生成AIチャットボットで、質問をした乗客に対して誤った割引ポリシーを回答した事例が存在する。この乗客は航空会社に対して訴訟を起こし、その結果、裁判所は航空会社に損害賠償金と裁判費用を支払うよう命じている。
ディープフェイク
精巧な画像や動画が生成AIで簡単に出力できるようになり、フェイク情報が出回っている。香港では、ビデオ会議ツールを活用したディープフェイクによって約37.5億円が詐取される事件が発生。本社のCFO(最高財務責任者)の顔と音声を使用したディープフェイクで、支社の従業員を騙し、送金を指示していたというものだ。
著作権の問題
生成された文章やイラストなどが既存の作品に類似してしまうことがある。アメリカでは複数の作家がOpenAI社に対して著作権を侵害しているとして、訴訟を起こしたケースも存在する。
生成AIでやってはいけない業務

業務で生成AIを活用する場合、気を付けなくてはならないのが、前述したリスク例に引っかからないようにすることだ。
特に個人情報や機密情報を取り扱う部署に、オープンモデルの生成AIはおすすめしない。
仮に、お客様の個人情報が生成AIを通じて流出した場合、企業にとって大きな損害になるばかりでなく、信用失墜につながる可能性があるからだ。またプログラミングの補助に活用する際であっても、社外秘の情報は決してプロンプトに入力しないことが重要となる。
また、ハルシネーションや著作権侵害の可能性を考え、出力された文章や画像などをそのまま商品、サービスに利用することも避けたい。
必ず、既存作品や製品などと類似していないか人の目を通して確認しなければならない。特に、クリエイティビティが求められる画像、映像などは偶然類似したとしても問題になるリスクがあるため注意が必要だ。
現在はこれらの問題を回避できるクローズドモデルの生成AIサービスも存在する。機密情報に触れたり、クリエイティビティに関連したりする業務に導入する場合は、そうした学習データが外部に利用されないサービスを活用することを薦める。
積極的に生成AIを活用したい業務
一方で、時間がかかる業務やルーティン作業、データを取り扱う作業などには積極的に生成AIを活用して、業務効率の向上や人件費の削減につなげたい。クリエイティブ業務でもアイデア出しのサポートには役立つ可能性がある。
マーケティング
市場調査やトレンド分析、予測などは生成AIの得意とする作業だ。膨大なデータの収集・分析は生成AIの活用により大幅な業務時間の削減が期待できる。
プログラミング
目的に応じたコードの生成や、プログラミングしたもののエラー検出やデバッグなども生成AIの活用で効率化が可能だ。
ルーティン業務
メールや議事録の作成など、日常で多く発生する業務も生成AIに任せたい。経理業務なども自動化できるところは積極的にAIを活用すると良いだろう。また客先や社内でのプレゼンテーション資料の作成もデザインまで生成AIが即座に対応してくれる。
クローズド環境の生成AIの導入も
オープンモデルの生成AIのリスクを考慮すると、利用できる範囲が限定されてしまう。安全かつ積極的に生成AIの活用を進めたい場合は、クローズド環境の生成AIを導入するべきだろう。
例として、ChatGPT Enterpriseには、以下のような特徴がある。

いまや、生成AIの活用はビジネスパーソンにとって不可欠な時代になっている。さまざまなリスクを考慮したうえで、上手な付き合い方を模索していきたい。