AI活用

ChatGPT情報漏洩 事例10選|実際に起きた事件と漏洩する仕組み・対策2026年版

ChatGPT情報漏洩は「あるかもしれない」ではなく、すでに何度も起きた事実です。本記事ではSamsungの機密ソースコード流出、OpenAI側のバグ、イタリアGaranteによる一時禁止、JPMorgan等の利用制限など、ソース付きで実際の事件10件を解説。漏洩した情報・原因・各社対応・自社で取るべき対策までを実務目線でまとめます。

H
Hiro
AIマーケター / PdM · 著者

事例から学ぶ全体像

ChatGPT・生成AIをめぐる情報漏洩事件は、2023年以降世界的に頻発しています。多くは「悪意ある攻撃」ではなく「便利すぎてつい貼り付けた」という人的要因が主因です。本記事では公開ソースをもとに10件の代表的な事例を整理し、自社で取るべき対策に落とし込めるかたちで解説します。

前提知識として「ChatGPTで情報漏洩する仕組み」についてはChatGPTで情報漏洩する仕組みと業務利用で防ぐ方法を併読してください。

①Samsung 機密ソースコード流出 (2023年4月)

事件概要: Samsung Semiconductor部門のエンジニアが、半導体検査用のソースコードや社内会議の議事録、不具合修正のための内部情報をChatGPTに貼り付けて修正/要約を依頼。これらのデータがOpenAI側のサーバに送信され、機械学習に取り込まれる懸念が判明しました。

結果: Samsungは社内で生成AI利用を緊急停止。アップロードサイズの上限設定、社内独自AIツール開発の検討に着手。

ソース: Bloomberg "Samsung Bans Staff's AI Use After ChatGPT Data Leak"

②OpenAI 会話履歴・支払い情報露出バグ (2023年3月20日)

事件概要: OpenAIが利用するRedisオープンソースライブラリのバグに起因し、約9時間にわたり一部ユーザーが他のユーザーの会話履歴のタイトルや、ChatGPT Plus有料ユーザーの支払い情報の一部 (氏名・メール・カード末尾4桁・有効期限) を閲覧できる状態が発生。

影響範囲: 約1.2%のChatGPT Plusユーザーの支払い情報が他ユーザーに表示された可能性をOpenAIが公式に認めました。

ソース: OpenAI "March 20 ChatGPT outage"

③イタリアGaranteによる一時禁止 (2023年3月-4月)

事件概要: 上記OpenAIバグとプライバシー保護不足を理由に、イタリアのデータ保護当局Garanteが2023年3月31日にChatGPTのイタリア国内利用を一時禁止。OpenAIが年齢確認・Opt-out機能・利用者通知を追加実装した後、約1ヶ月後に解除。

意義: 政府機関による正式な利用停止措置の初例。EU諸国でのAI規制議論を加速させる契機となりました。

ソース: Reuters "Italy data protection authority bans ChatGPT"

④Amazon 内部メモ流出疑惑 (2023年1月)

事件概要: Amazonの社内弁護士が「ChatGPTの応答に当社の社外秘情報と酷似した内容が含まれている」と指摘するメモが流出。社員がChatGPTに業務情報を入力した結果が応答に表れた可能性を内部資料が示唆。

対応: Amazonは社員に対しChatGPTへの業務情報入力を控えるよう警告。社内独自LLM (後のAmazon Bedrock基盤) の開発を加速。

ソース: Business Insider報道

⑤JPMorgan等 大手金融機関の利用制限 (2023年2月-)

事件概要: JPMorgan Chaseが社員のChatGPT利用を制限したことを皮切りに、Goldman Sachs・Citigroup・Bank of Americaなど多数の金融大手が業務利用を禁止または制限。

理由: 業務情報の外部AI送信が、コンプライアンス・顧客契約・業界規制 (FINRA、SEC等) に抵触する可能性。漏洩事故ではなくリスク予防的な規制。

ソース: CNBC "JPMorgan restricts employees from using ChatGPT"

⑥Cyberhaven調査: 11%のデータが機密 (2023年)

調査概要: 米国セキュリティ企業Cyberhavenが約160万人の従業員データを分析した結果、ChatGPTに貼り付けられたデータの約11%が機密情報 (顧客データ、ソースコード、機微情報など) と判明。

意義: 個別事件ではないが「組織全体での日常的な漏洩」が定量的に裏付けられた重要な統計。「禁止しているから大丈夫」が成り立たないことを示しました。

ソース: Cyberhaven "4.2% of workers have pasted company data into ChatGPT"

⑦Apple 社内ChatGPT利用禁止 (2023年5月)

事件概要: Appleが社員に対してChatGPTおよびGitHub Copilot等の外部AIツールの業務利用を制限。同社が独自LLMを開発中であり、機密情報の漏洩リスクを警戒。

ソース: Wall Street Journal報道

⑧Verizon・Goldman Sachs等の制限 (2023年)

事件概要: 通信大手Verizon・投資銀行Goldman Sachs・Bank of America・Wells Fargo等が同様に社内ChatGPT利用を制限。各社とも顧客情報・取引情報の外部送信リスクを懸念。

パターン: 規制業種 (金融・医療・通信) では、「使う/使わない」ではなく「外部AIへの業務情報送信を禁ずる」が一律の方針となりました。

⑨個人情報保護委員会 注意喚起 (日本, 2023年6月)

概要: 個人情報保護委員会 (PPC) が2023年6月2日、ChatGPTを含む生成AIサービスの利用に関する注意喚起を発出。要配慮個人情報の入力が個人情報保護法上の問題となる可能性を明示し、OpenAIに対しても文書で要請。

意義: 日本でも政府機関が生成AIのデータ取扱いを正式に問題視した初の動き。日本企業のガバナンス整備の起点。

ソース: 個人情報保護委員会「生成AIサービスの利用に関する注意喚起」

⑩Meta LLaMAウェイト流出 (2023年3月)

事件概要: 当時研究者向けに限定公開されていたMetaのLLaMA (大規模言語モデル) のモデルウェイトが、4chan経由でインターネット全体に流出。

意義: モデル提供事業者側でも「審査済み利用者だけに限定公開」のオペレーションが破られた事例。AIサービス事業者全体の運用リスクを示した。

ソース: The Verge報道

事例に共通する教訓

  • 悪意ではなく「便利さ」で漏洩する: ほぼすべての事例で社員は悪意なく業務効率化のために貼り付けている
  • ベンダー側のバグも漏洩源になる: OpenAIバグ、Meta LLaMAウェイト流出のように、自社対策だけでは限界がある
  • 禁止ガイドラインだけでは形骸化する: 個人アカウント経由の利用が止められないため、組織レベルでの構造対策が必要
  • 規制業種は早期に動いた: 金融・通信等は外部AI送信を一律禁止する方向に
  • 政府レベルでの規制強化が進行中: 個人情報保護委員会、イタリアGarante、EU AI Actなど

構造的に漏洩しない設計とは

事例から見えるのは「ChatGPT直接利用を続ける限り、漏洩を完全に防ぐのは不可能」という冷酷な事実です。本質的な対策は「ChatGPTにデータを送らずに、生成AIの恩恵を得る」設計の選択です。

観点ChatGPT直接利用Qubio (DWH直結型)
データ送信先OpenAI側サーバお客様のDWH (BigQuery等) 内のみ
LLMに渡す情報生データ全体質問テキスト + メタデータ最小限
学習利用設定次第・個人プランは有効学習無効・テナント分離
サービスバグ時の影響会話履歴/支払い情報の露出生データはLLM側に存在せず影響ゼロ
監査ログ個人プランは限定標準提供 (組織・行レベル権限)
規制業種での利用禁止対象になりやすい規制要件と整合

セマンティックレイヤー でデータ定義をプラットフォーム側に持ち、LLMには「質問→SQL変換指示」と必要最小限のスキーマだけを渡すQubioの設計は、Samsungのような事故が「構造的に起こせない」アーキテクチャです。

よくある質問

ChatGPT情報漏洩で最も有名な事件は?

2023年4月のSamsung機密ソースコード流出事件です。半導体部門のエンジニアがChatGPTに業務データを貼り付け、機密情報がOpenAI側に送信された可能性が報じられ、社内で生成AI利用が緊急禁止されました。

OpenAI側のバグで個人情報が漏洩したことはありますか?

あります。2023年3月20日のRedisバグで一部ユーザーの会話履歴と約1.2%のChatGPT Plus有料ユーザーの支払い情報の一部が他ユーザーに露出した可能性をOpenAIが公式に認めました。

日本企業でChatGPT情報漏洩事件はありましたか?

個別企業の漏洩公表は限定的ですが、個人情報保護委員会が2023年6月にChatGPT等への要配慮個人情報入力リスクの注意喚起を発出、OpenAIに対しても要請を行ったことが公表されています。

情報漏洩事例から学ぶべき教訓は何ですか?

①「個人がよかれと思って」の漏洩がほとんど (悪意なし)、②ベンダー側のバグでも漏洩しうる、③禁止ガイドラインだけでは形骸化、④根本対策はデータを外に出さない設計、の4点です。データウェアハウス直結型のAI分析プラットフォーム (Qubioなど) で構造的にリスクを排除する流れが進んでいます。

まとめ

  • ChatGPT情報漏洩は2023年以降10件以上の主要事例が発生済み
  • 悪意ではなく「便利さ」が漏洩を引き起こす — 禁止だけでは防げない
  • ベンダー側のバグも漏洩源となるため、自社対策だけでは限界
  • 規制業種(金融・通信・医療)は早期に外部AI送信を一律禁止する方向
  • 本質的対策は「データを外に出さない設計」 → DWH直結プラットフォーム (Qubio等) への移行

Qubioで「ChatGPTにデータを送らずに、ChatGPTのような自然言語データ分析」を始めませんか。導入相談・無料デモから、自社のリスクとベネフィットの整理までサポートします。

H

Hiro

/ AIマーケター / PdM

AIマーケター・PdMとして、AI/LLMを活用したデータ分析・マーケティング自動化・プロダクト開発に従事。SQL不要の自然言語データ分析、生成AIの業務実装、セマンティックレイヤー設計を専門領域とする。実プロジェクトでの導入経験をもとに、現場で再現可能な手順と落とし穴の回避策を発信している。

Qubio

ChatGPTにデータを送らずAI分析できるQubio

QubioはBigQuery・Redshift・Snowflakeなど自社データウェアハウスに直接接続。LLMには質問テキストだけ渡し、生データはお客様のクラウド境界を出ません。Samsungのような事故が「設計上起こせない」AI分析プラットフォームです。導入相談は無料です。