ChatGPT情報漏洩は実際に起きている
「ChatGPTに業務データを貼ったら漏洩するかも」は、漠然とした不安ではなくすでに何度も実証された事象です。米国セキュリティ企業 Cyberhaven社の2023年調査 では、従業員がChatGPTに貼り付けるデータの約11%が機密情報であると報告されています。
日本の個人情報保護委員会も2023年6月に 生成AIサービスの利用に関する注意喚起 を発出し、要配慮個人情報の入力を機械学習に利用される可能性として明示的にリスクとして指摘しました。
「うちは禁止しているから大丈夫」が最も危険です。Cyberhavenの同調査では、利用禁止ガイドラインのある企業でも、社員の個人アカウント経由の業務データ貼り付けが一定割合発生しています。組織として「貼り付けても漏れない」設計が必要です。
実際にあった主要事件
① Samsung 機密ソースコード流出 (2023年4月)
Samsungの半導体部門のエンジニアが、社内会議の議事録や半導体検査用のソースコードをChatGPTに貼り付けて修正・要約を依頼。これらのデータがOpenAI側のサーバに送信され、機械学習に利用される懸念から、社内では緊急の生成AI利用禁止措置がとられました (Bloomberg報道)。
この事件は「個人がよかれと思って貼り付けた」ことで起きており、悪意ある内部者ではない点が重要です。便利な機能は組織のセキュリティ意識より速く広まります。
② OpenAI ChatGPT 会話履歴バグ (2023年3月20日)
OpenAI側のRedisライブラリのバグにより、一部ユーザーが他のユーザーの会話履歴のタイトルを閲覧できる状態が約9時間発生。さらに約1.2%のChatGPT Plus有料ユーザーの支払い情報の一部 (氏名、メールアドレス、クレジットカード末尾4桁、有効期限) が他ユーザーに表示される可能性があったとOpenAIが公表しました (OpenAI公式声明)。
自社で対策していてもベンダー側のバグで漏洩しうる、というリスクの典型例です。
③ イタリア Garante (データ保護当局) によるChatGPT一時禁止 (2023年3月-4月)
上記のOpenAIバグを受けて、イタリアのデータ保護当局Garanteは「個人データ収集の法的根拠の不足」「未成年者への不適切な対応」などを理由にChatGPTを一時的に国内利用禁止。OpenAIは年齢確認、Opt-out機能、ユーザー通知などを追加実装した後、約1ヶ月後に解除されました (Reuters報道)。
④ Amazon 内部メモ (2023年1月)
Amazonの社内弁護士が「ChatGPTの応答に当社の社外秘情報と酷似した内容が含まれている」と指摘するメモが流出。これは社員がChatGPTに業務情報を入力した結果である可能性が高いと報じられました (Business Insider報道)。
⑤ JPMorgan・Verizon・Goldman Sachs等の利用制限
金融大手・通信大手は2023年早期から従業員のChatGPT利用を制限。理由は明確で、業務情報の外部AI送信が、コンプライアンス・顧客契約・規制要件のすべてに抵触する可能性があるためです (CNBC報道)。
漏洩する仕組み
ChatGPTでの情報漏洩は、技術的に大きく4つのルートで発生します。
ルート1:入力データのモデル学習利用
無料版・個人版ChatGPTのデフォルト設定では、入力された会話がモデル改善の学習データに利用される可能性があります。一度学習に取り込まれると、別のユーザーの応答中に類似情報が再生成されるケースが理論上ありえます。
ルート2:サービス事業者側のバグ・運用事故
上記OpenAIバグのように、提供側のシステム不具合で他ユーザーへ情報が露出することがあります。SaaS全般のリスクですが、AI領域は新しいだけにバグの実例が多い状況です。
ルート3:プラグイン・統合機能経由の意図しない送信
ChatGPTのカスタムGPTやプラグイン、サードパーティ統合 (Slack/Notion等経由) を有効にすると、それらのアプリ経由で本来送るつもりのなかったデータが第三者サービスに渡るケースがあります。
ルート4:個人アカウントと業務アカウントの混在
業務PCで個人ChatGPTにログインしたまま業務データを扱うと、組織のガバナンス対象外のアカウントに業務情報が蓄積されます。退職後の閲覧権、共有設定経由の意図しない開示なども問題に。
各社AIサービスの学習無効化設定
最低限実施すべきは、利用するすべてのAIサービスでの「学習無効化 (Opt-out)」です。各社の設定方法を概観します。
ChatGPT (OpenAI)
ログイン → 右下のプロフィール → Settings → Data Controls → 「Improve the model for everyone」をオフ。これで以降の入力は学習に利用されません (過去のものは残る場合あり)。あるいはChatGPT Team / Enterprise / API利用ならデフォルトで学習無効 (OpenAI Data Controls FAQ)。
Claude (Anthropic)
個人プランは入力データを学習に利用しない方針が公表されています。ただしフィードバック機能で明示的に提出されたデータは別扱いになる場合あり (Anthropic Privacy Policy)。
Gemini (Google)
myactivity.google.comからGeminiアクティビティの保存期間を制御可能。Workspace組織契約はデフォルトで企業データ保護対象 (Gemini Apps Help)。
Microsoft Copilot
Microsoft 365 Copilot (Business/Enterprise) は契約上の組織データ保護が標準。個人版とは扱いが大きく異なるため、組織契約必須 (Microsoft Copilot Privacy)。
Google AI Studio
個人アカウントでの利用は学習対象。本格利用はVertex AI (Google Cloud) 経由でEnterprise契約が前提です。
企業契約と個人プランの違い (一覧)
| サービス | 個人プラン | 企業/Enterprise契約 |
|---|---|---|
| ChatGPT | 学習利用デフォルト有効 (Opt-out可) | Team/Enterprise: 学習無効デフォルト・SOC 2準拠 |
| Claude | 方針上学習不使用 | Claude Team/Enterprise: BAA・SOC 2対応 |
| Gemini | アクティビティが学習に使われる場合あり | Workspace組織契約: 企業データ保護 |
| Copilot | Web検索データを学習に使う場合あり | Microsoft 365 Copilot: 組織テナント分離 |
業務利用での対策5本柱
- 組織契約の必須化: 個人プランの業務利用を禁止し、Team/Enterprise/Workspace組織契約に統一。
- 学習無効化の徹底: 個人プランしか使えないケースでは、Opt-out設定を全社員に強制。Cyberhavenなどのデータ流出監視ツールでチェック。
- マスキング・トークン化ガイドライン: 個人情報・取引先名・財務数値はマスキング/置換ルールを文書化。
- 監査ログの整備: 誰が・いつ・どんな質問をしたかの記録を組織管理。
- 分析用途は専用プラットフォームへ: データ分析・レポート作成はChatGPT直接利用ではなく、データウェアハウス直結のAI分析プラットフォーム (Qubioなど) を併用。生データを送らない構造を作る。
(1)〜(4) は経産省 AI事業者ガイドライン やIPA セキュリティガイド でも示唆されている方針です。
根本対策: データを外に出さない設計
上記5本柱を完璧に運用しても、「ChatGPTにデータを貼り付ける運用」自体を続けるかぎり、人的ミスでの漏洩リスクは残り続けます。本質的な対策は「ChatGPTにデータを送らずにAIの恩恵を得る」アーキテクチャに移行することです。
具体的には以下の設計が選択肢になります:
- データウェアハウス直結型AI分析プラットフォーム (Qubioなど): データはBigQuery/Redshift/Snowflake内に保持、LLMには質問テキストのみ渡し、SQLで結果を取得。
- プライベートクラウド上のLLM (Azure OpenAI、AWS Bedrock等): 自社のクラウド境界内でLLMを動作させる。インフラコストは高い。
- オンプレ/社内ホスティングのオープンソースLLM: Llama 3、Qwen等を自社サーバで動作。運用負荷が大きい。
中小企業・スタートアップにとって最も現実的なのは1番目です。インフラコストは持たず、SaaSとして利用しつつデータは社外に出ない、というハイブリッドが取れます。
Qubioが構造的に漏洩しない理由
Qubioは「ChatGPTにデータを送ること」に伴うリスクを設計から消すことを目指したプラットフォームです。技術的な仕組みを以下にまとめます。
| 観点 | ChatGPT直接利用 | Qubio |
|---|---|---|
| データの所在 | OpenAI側サーバに送信 | お客様のデータウェアハウス内に保持 |
| LLMに渡す情報 | 生データ全体 | 質問テキスト + メタデータのみ |
| 学習利用 | 設定次第 / 個人プランは有効 | 無効・テナント分離が標準 |
| 権限管理 | 個人アカウント単位 | 組織のロール・行レベル権限 |
| 監査ログ | 個人プランは限定 | 標準提供 (誰が何を聞いたか追跡可) |
| サービス側バグ時の影響 | 会話履歴/支払い情報の露出 | 生データはLLM側にないため影響ゼロ |
Qubioは セマンティックレイヤー でデータの定義をプラットフォーム側に持ち、LLMには「この問いをこのテーブルへのSQLに変換せよ」という指示と必要最小限のスキーマ情報だけを渡します。生データ・個人情報・取引明細はお客様のデータウェアハウスから一歩も出ません。
この設計の利点は単にプライバシーだけでなく、法令遵守の観点でも大きいです。GDPR・個人情報保護法・業種別規制において、「データの越境送信」が制約となるケースで、自社クラウド内に保持する設計は最も無難な解になります。
よくある質問
ChatGPTで情報漏洩は本当に起きるのですか?
実際に起きています。Samsungの半導体機密流出 (2023年4月)、OpenAI側のバグでの履歴露出 (2023年3月)、イタリアGaranteによる一時禁止 (2023年3-4月) などが代表例です。Cyberhaven調査では従業員がChatGPTに貼り付けるデータの約11%が機密と報告されており、特定企業の問題ではなく業界全体の構造的リスクです。
ChatGPTに機密情報を学習させない方法はありますか?
設定 → Data Controls → 「Improve the model for everyone」をオフで停止できます。ChatGPT Team / Enterprise / API は学習無効がデフォルト。ただし設定漏れや個人アカウント混在で形骸化するため、業務利用ではAPI経由・企業契約・データウェアハウス直結プラットフォーム (Qubioなど) のいずれかで構造的に保護するのが現実的です。詳しくはChatGPT機密情報を学習させない設定完全ガイドもご覧ください。
ChatGPT Enterpriseなら情報漏洩は完全に防げますか?
モデル学習への利用は防げますが、漏洩リスクすべてを防げるわけではありません。ベンダー側オペレーションへの信頼依存、社員アカウントの二重利用、サービスバグ、サードパーティ統合経由の流出など、技術以外のリスクは残ります。本質的には「自社データが自社のクラウド境界を出ない設計」を選ぶ方が確実です。
業務でChatGPTを安全に使うための最低限の対策は?
①個人プランの業務利用禁止 → ChatGPT Team/Enterprise契約、②学習無効化を全社員に強制、③個人情報・取引先情報のマスキングルール、④利用ログを取れる組織アカウント統一、⑤分析用途はデータウェアハウス直結プラットフォーム (Qubio等) を併用、の5点です。⑤がガバナンス上の根本対策になります。
まとめ
- ChatGPT情報漏洩はSamsung・OpenAIバグ・イタリアGaranteなど実際に多数発生済み
- 漏洩経路は4つ: 学習利用 / サービスバグ / プラグイン / 個人アカウント混在
- 対策5本柱: 組織契約 / 学習無効 / マスキング / 監査ログ / 分析専用プラットフォーム
- 根本対策は「データを外に出さない設計」: Qubioのようにデータウェアハウス直結型を選ぶ
- 個人情報保護法・経産省ガイドライン・IPAガイドラインに即した運用にも合致する
生成AIの便利さと情報漏洩リスクは両立可能です。Qubioなら「ChatGPTにデータを送らずに、ChatGPTのような自然言語データ分析」が実現できます。導入相談・無料デモから始めてみてください。
Hiro
/ AIマーケター / PdMAIマーケター・PdMとして、AI/LLMを活用したデータ分析・マーケティング自動化・プロダクト開発に従事。SQL不要の自然言語データ分析、生成AIの業務実装、セマンティックレイヤー設計を専門領域とする。実プロジェクトでの導入経験をもとに、現場で再現可能な手順と落とし穴の回避策を発信している。
Qubio
データを外に出さないAI分析をQubioで
QubioはBigQuery・Redshift・Snowflakeなど自社データウェアハウスに直接接続し、機密データはお客様のクラウド境界から出ない設計です。LLMには質問テキストとメタデータのみ送信、生データは渡しません。学習無効・テナント分離・監査ログを標準装備。ChatGPTでの情報漏洩リスクへの構造的な回答です。導入相談・資料請求は無料です。
関連記事
ChatGPT情報漏洩 事例10選|実際に起きた事件と漏洩する仕組み・対策2026年版
Samsung・OpenAI・イタリアGarante・JPMorgan等、ChatGPT情報漏洩の実例10件をソース付きで解説。漏洩した情報・原因・各社対応・自社対策まで実例ベースでまとめます。
ChatGPTで機密情報を学習させない設定完全ガイド|全主要AIサービス対応 2026年版
ChatGPT・Claude・Gemini・Copilotそれぞれの学習無効化設定を画面別に解説。Opt-outの盲点、企業契約の違い、業務利用での根本対策までを網羅します。
生成AIで情報漏洩する仕組みと事例|ChatGPT・Claude・Gemini別の対策2026年版
生成AI全般のデータ漏洩リスクと事例を網羅。Cyberhaven調査・各社方針・規制動向(個情委・EU AI Act)・業務利用での根本対策までを解説します。