ChatGPTなど生成AIによる情報漏洩リスクとは?企業が今すぐ取るべき対策

生成AIは、文章作成やコードレビュー、業務効率化に大きな効果をもたらしています。

一方で、現在広く使われているクラウド型の生成AIサービスは、「情報を入力した瞬間にインターネット経由で外部サーバーへ送信される」という仕組みのため、企業の情報漏えいリスクが急速に高まっています。

この記事では、生成AIによる情報漏えいの仕組みと実際の事例、発生する理由、企業と個人が取るべき安全対策をわかりやすく解説します。

不要になったパソコン/スマホの処分にお困りなら

【法人専門】高額買取・データ消去サービス

目次

生成AIによる情報漏えいリスクとは

生成AIはさまざまな業務の効率化を高める一方で、企業にとって新しい情報漏えいリスクを生む存在でもあります。

その原因には、AIがユーザーの入力内容を学習データとして扱う仕組みや、外部のクラウド環境を介して情報が処理される特性があります。このような仕組みと特性は、従来のITツールにはなかったリスク構造を持っています。

そのため、情シス担当者にとっては、「AIを使わせるべきか」「どこまで許可するか」という判断が難しくなる領域です。

結論からいえば、生成AIは意図しない情報の外部送信が発生する可能性を常に伴っています。

例えば、社員が機密資料の一部をプロンプトとして入力したり、顧客名や個人情報を誤って貼り付けたりすると、AI側にデータが送信され、学習や解析に利用されるリスクがあります。

このデータが外部サービスに保存されることで、企業の管理外に機密情報が流出する可能性が生まれます。

こうしたリスクは、ユーザー側の誤操作だけが原因ではありません。

AIの設計仕様、クラウド環境の設定不備、ベンダー側のバグ、第三者による不正アクセスなど、複数の要因が絡み合うため、企業がコントロールしきれない部分も存在します。

また、近年は「生成AIへの情報入力は禁止」とする企業も増えていますが、それだけでは不十分で、シャドーAI(社員が個人アカウントで勝手に使う)による漏えいも無視できません。

このように、生成AIは便利である一方、「入力した時点で情報が社外に出る可能性がある」という前提で扱う必要があります。

企業が安全に生成AIを活用するためには、まずそのリスク構造を正確に理解し、なぜ漏えいが起こるのかを把握したうえで、具体的な対策を講じていくことが欠かせません。

法人PCのデータを安心・安全に消去!データ消去・買取サービスの詳細はこちら

実際に起きた生成AIによる情報漏えい事例

生成AIの情報漏えいリスクは、決して「理論上の話」ではありません。

国内外ではすでに複数の企業で、社員の誤入力やサービス側の不具合が原因となり、機密情報や個人情報が外部に流出する事案が報じられています。

ここでは、実際に発生した代表的な情報漏えい事例を紹介します。

事例1:社内ソースコードがChatGPTに入力され外部に保存されたケース

生成AIをコードレビューやバグ修正に活用しようとした従業員が、社内で管理しているソースコードの一部を生成AIに入力してしまったケースが報じられています。本来は社外秘であるプログラムコードが、そのまま外部サービスのサーバーに送信され、保存される可能性が生まれました。

この企業では、従業員が複数回にわたり、仕様書やテスト結果などの内部データを生成AIに入力していたことも判明しており、「生成AIに入力した瞬間に情報が外部に送られる」という基本的な仕組みへの理解不足が根本原因とされています。

この事案を受け、企業は業務端末での生成AI利用を全面的に禁止する措置を取りました。

企業規模を問わず、開発部門や技術職が便利だからという理由で機密コードをAIに入力してしまうリスクは広く存在します。入力内容がそのまま漏えいにつながり得る典型例といえます。

事例2:問い合わせ内容や顧客情報をAIに入力し個人情報が外部に残ったケース

ある生成AIサービスでは、一時的なシステム不具合によって、他ユーザーが過去に入力したチャット履歴が表示されてしまい、氏名やメールアドレス、住所などの個人情報が閲覧可能な状態になったと報じられています。サービス利用者自身は自分の画面に表示された内容が他者の情報であることに気づき、外部に公開されている可能性が判明しました。

この不具合はサービス側の問題であり、利用者に過失があったわけではありません。しかし、企業が社員の業務で生成AIを利用させる場合、「自社が入力した情報だけでなく、サービス側の障害によって情報が漏えいする可能性がある」というリスクを避けられないことを示しています。

生成AIはクラウド環境で動作するため、ユーザーの入力データが一定期間サーバー上に保存される仕様が一般的です。サービス提供側の障害・脆弱性が直接漏えいにつながるリスクも、企業として認識しておく必要があります。

なぜ生成AIの利用で情報漏えいが生じるのか?

生成AIで情報漏えいが起きる背景には、従来のITツールとは異なる仕組みと特有の脆弱性があります。企業が生成AIを安全に利用するためには、「なぜ漏えいするのか」を根本から理解しておく必要があります。

ここでは、主に3つの代表的な原因を解説します。

入力データがAIに学習・再利用されるため

生成AIサービスの多くは、ユーザーが入力した文章・画像・コードなどのデータを、サービス品質の向上や学習のために一時的に保存する仕組みを持っています。そのため、社員がプロンプトに機密情報や顧客情報、ソースコードを貼り付けた瞬間に、情報は外部のAIサーバーに送信されます。

一部サービスでは、利用者が学習設定を明示的にオフにしない限り、入力内容がモデルの学習データとして利用される可能性があります。

学習データへの不正アクセスが発生する可能性があるため

生成AIは大量のデータをクラウド上で処理するため、サーバー側で保管されるデータへの不正アクセスが発生するリスクが存在します。AIの学習データは膨大かつ構造が複雑で、どのデータがどこに保存されているのか把握しきれないケースも多く、攻撃者にとって狙われやすい領域になります。

仮に攻撃者がAIプラットフォームに侵入できれば、利用者が過去に入力した情報を抽出される可能性があり、ログ・プロンプト履歴・画像データなどが盗まれる危険性があります。これは、サービス側のセキュリティに依存するため、企業側では制御しきれないリスクです。

プロンプトインジェクション攻撃が発生する可能性があるため

生成AIに対して外部から悪意ある命令文(プロンプト)を送り込み、機密情報を引き出す「プロンプトインジェクション攻撃」が確認されています。これは、AIが命令に従いやすい性質を悪用した攻撃で、例えば以下のようなケースが発生します。

  • 外部サイトに埋め込まれた悪意ある指示文をAIが読み取り、内部データを出力してしまう
  • チャット形式のAIに巧妙な命令を送ることで、過去のユーザー入力や内部処理を引き出す

従来のシステムには存在しなかった、AI固有の新しい攻撃手法であり、企業のセキュリティ担当者にとっては警戒すべきポイントです。

企業が行うべき情報漏えい対策

生成AIを安全に利用するためには、企業が「ルールの整備」と「安全なツール選定」の2軸で対策を講じる必要があります。

ここでは、企業がまず取り組むべき対策を紹介します。

AI活用ルールを整備し、社員に周知する

生成AIの情報漏えいリスクの多くは、人為的ミスや誤った利用方法が引き金となっています。そのため、企業はまず「AI利用ガイドライン」を策定することが重要です。

具体的には、以下のような内容を明確にする必要があります。

  • 入力禁止情報の定義(顧客情報、社外秘資料、ソースコードなど)
  • 利用してよいAIサービスと、利用禁止のサービス
  • 業務利用時のアカウントルール(個人アカウントの使用を禁止するなど)

ルールを作るだけでなく、社員研修や周知徹底をセットで行わなければ効果は限定的です。社内でなぜ危険なのかや何をしてはいけないのかを理解してもらうことが、漏えい防止の第一歩です。

安全性の高いAIツール・導入形態を選ぶ

生成AIはツールによってセキュリティ仕様が大きく異なります。企業利用を前提としたサービスを選択することで、入力データの扱いをより厳格に制御できます。

企業としては、以下の観点でツール選定を行うべきです。

  • データの学習利用をオフにできるか
  • 入力データが保存される期間・範囲の明示があるか
  • 企業向けの専用環境(Enterprise/Businessプラン)があるか

ChatGPT、Microsoft Copilot、Claudeなどの主要サービスは企業向けプランを提供しており、業務データが学習に利用されない環境を選択できます。

個人でできる情報漏えい対策

企業としてルールを整備しても、最終的に生成AIを操作するのは現場の従業員です。つまり、社員一人ひとりの理解と慎重な操作が、情報漏えいを防ぐうえで欠かせません。

ここでは、社員が日常的に取り組める対策を紹介します。

AIに個人情報や社内機密を入力しないようにする

生成AIへの情報漏えいで多いのは、利用者本人の誤入力です。文章作成、メール文の改善、要約など「ちょっと便利だから」という理由で、以下のような情報をそのまま入力してしまうケースが多く報告されています。

AIに入力した個人情報や社内機密情報は、サービス側のサーバーに送信されるだけでなく、設定によっては学習データとして扱われる場合があります。社員は、「業務情報は絶対に入力しない」ことを常に意識し、迷った場合は必ず上長や情シスに確認するよう徹底する必要があります。

AIの学習設定をオフにして利用する

一部の生成AIサービスでは、ユーザーが学習設定をオフにすることで、入力したデータがAIモデルの学習に利用されないようにできます。これは、無料版・個人アカウント利用時に特に重要です。

ただし、学習設定のオフ=完全に安全ではありません。AIサービス側がデータを一定期間保持する場合があるため、学習オフは「リスク低減策」であり、機密情報入力を許容する理由にはなりません。

情報漏洩はPCの不適切な処分からも起こる。IT機器の安全な処分は加賀マイクロソリューションへ

情報漏洩は生成AIのみならず、様々なパターンで起こりえます。

代表的な原因として、パソコン処分の際に適切なデータ消去を行わなかったことで、情報漏洩したケースがあります。

あわせて読みたい
情報漏洩対策として企業がやるべきこととは?PC処分時にはデータ消去が重要 サイバー攻撃やヒューマンエラー、内部不正など、情報漏洩の原因は多岐にわたります。 結論として、情報漏洩を防ぐには「日常的な社内対策」「技術的なセキュリティ強化...

パソコンやタブレットなど、IT機器の処分にお困りの場合は、加賀マイクロソリューションにお任せください。

弊社は、東証プライム上場企業である加賀電子株式会社のグループ会社として、創業から累計100万台以上のIT機器処分の実績がございます。
データ消去については、お客様の情報セキュリティポリシーに基づいた最適な方法をご提案いたします。

また、IT機器の状態にあわせて、ご納得いただける価格で買取をいたします。

安全・確実かつ納得価格でIT機器を処分・売却したい法人様は、問い合わせフォームよりお気軽にご相談ください。

よかったらシェアしてね!
  • URLをコピーしました!
  • URLをコピーしました!
目次