なぜ「学習させない設定」が必要か
ChatGPTを含む生成AIサービスの個人プランは、デフォルトでユーザー入力を「モデル改善のための学習データ」として利用する設定になっているケースが多いです。これを意識せずに業務データ (顧客名・売上・契約内容など) を貼り付けると、その情報が学習に取り込まれる可能性が生じます。
実際に2023年4月にはSamsungの半導体部門で機密情報がChatGPTに送信された事件 (Bloomberg報道) が報じられ、世界的に企業の対応が進んでいます。詳しくはChatGPT情報漏洩事例10選もご覧ください。
「学習させない設定」は最低限の予防線ですが、これを有効にしてもデータがサーバに送信される事実は変わりません。OpenAI側のバグや運用事故 (2023年3月20日の履歴露出など) のリスクは別途残ります。
ChatGPTの学習無効化手順
個人プラン (Free / Plus / Pro)
- ChatGPTにログイン (chat.openai.com)
- 左下のプロフィールアイコン → 「Settings (設定)」
- 「Data Controls (データコントロール)」タブを選択
- 「Improve the model for everyone (すべての人のためにモデルを改善する)」のトグルをオフにする
- 同画面で「Chat history & training」をオフにすると、過去の履歴も保存されなくなる (代わりに履歴が見られなくなる)
この設定は1端末ごとに必要で、複数端末を使う場合は各端末で確認しましょう。詳細はOpenAI Data Controls FAQを参照。
ChatGPT Team / Enterprise / API
デフォルトで学習無効。組織契約のためデータの取扱いはOpenAIのBusiness Termsに従い、SOC 2 Type 2準拠も提供されます。業務利用ではこちらを契約するのが原則です。
Claudeの学習無効化手順
Anthropicのプライバシーポリシーによれば、Claude無料・Pro個人プランの会話データは原則として学習に使用しない方針です。ただし以下に注意:
- 明示的にユーザーが「フィードバック」を提出した場合は学習対象になる場合あり
- 不正利用検出のための一定期間サーバ保存はある
- Claude Team / Enterprise / Bedrock経由ならデータの所有権・取扱いがより明確
Geminiの学習無効化手順
Gemini 個人版 (Google アカウント)
- myactivity.google.com/product/gemini にアクセス
- 「Geminiアプリのアクティビティ」セクション
- 「オフ」または「自動削除」を選択
ただし「アクティビティをオフにしても、会話の品質保証等のため一定期間は保存される」とGoogle Helpに記載があります。
Gemini for Google Workspace (組織契約)
組織のWorkspace管理者が「Geminiを業務データに対して有効化」設定すると、Workspaceテナント内のデータは原則として学習に使われない設計。組織契約こそが業務利用の前提です。
Microsoft Copilotの設定
個人版Copilot (Web/旧Bing Chat)
個人アカウントの会話は学習対象に含まれる場合があります。組織データは扱わないこと。
Microsoft 365 Copilot (Business / Enterprise)
Microsoft Copilot Privacyに基づき、組織テナント内のデータは学習に使用されません。Microsoft 365既存の権限管理が継承されるため、業務利用前提の設計です。
Google AI Studio・Vertex AI
Google AI Studio (個人アカウント): 個人アカウント利用は学習対象になり得ます。試用目的のみに使うべき。
Vertex AI (Google Cloud): Google Cloud上のEnterprise契約。データはお客様のGCPプロジェクト内で扱われ、Geminiモデルへの学習利用なし。本格業務利用はこちら。
個人プラン vs 企業プラン比較表
| サービス | 個人プラン (デフォルト) | 企業/Enterprise契約 |
|---|---|---|
| ChatGPT | 学習有効 (Opt-out可) | Team/Enterprise: 学習無効・SOC 2 |
| Claude | 方針上学習不使用 | Team/Enterprise/Bedrock: BAA・SOC 2 |
| Gemini | アクティビティ設定で制御 | Workspace組織契約: テナント分離 |
| Microsoft Copilot | 個人データは学習対象 | 365 Copilot: 組織テナント分離 |
| Google AI Studio | 学習対象 | Vertex AI: GCPプロジェクト内処理 |
Opt-out設定の盲点
盲点①:「設定したつもり」が機能しない
設定変更が反映されるまで時間がかかる、別端末では未設定、ブラウザシークレットモードでは設定が引き継がれない、などの状況で結果として学習対象になっているケースがあります。
盲点②:過去の入力データは消えない
Opt-out設定は「以降の入力」に対して有効。過去に入力したデータは既に学習や運用に使われている可能性があります。設定変更前の業務利用を棚卸しする必要があります。
盲点③:個人アカウントとの併用
業務PCで個人ChatGPTにログインしたまま業務データを扱うと、組織契約の保護が効きません。組織契約のSSO強制が望ましい。
盲点④:プラグイン・統合経由の流出
ChatGPTのプラグインやGPT Storeのカスタムボット、サードパーティ統合 (Zapier等) を有効にすると、Opt-out設定対象外のデータ送信が発生する場合があります。
盲点⑤:サービス側のバグ
2023年3月20日のOpenAI履歴露出のように、Opt-out関係なくサービス側の不具合で漏洩する事例があります。
根本対策: データを送らない設計
上記の盲点を踏まえると、設定だけでの対策には限界があります。本質的な解は「LLMに業務データを送らない」アーキテクチャを選ぶことです。
- データウェアハウス直結型AI分析プラットフォーム: Qubio等。LLMには質問テキストのみ渡し、データはお客様のDWH内で処理。
- プライベートクラウドLLM: Azure OpenAI、AWS Bedrock等。自社クラウド内でモデル動作。
- オンプレミスLLM: Llama 3、Qwen等を社内サーバで動作。運用負荷大。
業務分析用途では1番目が現実的かつコスト効率が高いです。ChatGPTで情報漏洩する仕組みと業務利用で防ぐ方法でアーキテクチャの全体像を解説しています。
Qubioが学習リスクと無関係な理由
Qubioの設計は「Opt-out設定」というレベルではなく、「データそのものを外に送らない」という構造的な対策です。
- LLMに送られるのは質問テキストとメタデータのみ: 顧客名・売上明細・取引情報といった生データはLLM側に到達しません。
- データはお客様のデータウェアハウス内に保持: BigQuery / Redshift / Snowflakeのテナント内で処理され、Qubioのクラウド境界も生データを保持しません。
- テナント分離・学習無効が標準: 設定漏れの心配がなく、組織のSSO・ロール管理と統合可能。
- 監査ログの組織管理: 誰がどんな質問をしたか組織単位で追跡。
- セマンティックレイヤーでデータ定義を集中管理し、AIの自由な解釈を制限。
「ChatGPTで毎回Opt-outを確認」「社員のアカウントを管理」「プラグインを把握」といった運用コストが構造的に不要になります。
よくある質問
ChatGPTで機密情報を学習させない設定方法は?
個人版ChatGPTの場合、Settings → Data Controls → 「Improve the model for everyone」をオフ。ChatGPT Team / Enterprise / APIはデフォルトで学習無効です。
Opt-outにすれば情報漏洩は完全に防げますか?
完全には防げません。データがサーバに送信される事実、サービス側バグ、社員アカウント併用、過去入力の保存などのリスクは残ります。本質はデータを外に出さない設計 (Qubio等) への移行です。
Google AI StudioやBardでも学習無効化できますか?
個人アカウント利用は学習対象になり得ます。本格利用にはVertex AI (Google Cloud) 経由のEnterprise契約が必要です。Gemini個人版はmyactivity.google.comでアクティビティ保存を制御。
個人プランと企業プランどちらを使うべき?
業務利用なら企業プラン一択。ChatGPT Team/Enterprise、Claude Team、Gemini Workspace、Microsoft 365 Copilotはデフォルトで学習無効・テナント分離・SOC 2準拠を提供。月額数千円差で大きなリスク低減です。
まとめ
- ChatGPTのOpt-out設定は Settings → Data Controls → Improve the model for everyone をオフ
- 業務利用ならChatGPT Team / Enterprise などの企業契約一択
- Claude / Gemini / Copilot はそれぞれ別の手順 — 個人版と組織契約で扱いが大きく違う
- Opt-out には盲点が複数 (端末別・過去入力・プラグイン・バグ) ある
- 根本対策はQubioのようにデータをLLMに送らない設計
設定で防御する運用コストを払い続けるか、構造的にリスクをなくす設計に切り替えるか — Qubioの導入相談・無料デモから判断材料を集めてみてください。
Hiro
/ AIマーケター / PdMAIマーケター・PdMとして、AI/LLMを活用したデータ分析・マーケティング自動化・プロダクト開発に従事。SQL不要の自然言語データ分析、生成AIの業務実装、セマンティックレイヤー設計を専門領域とする。実プロジェクトでの導入経験をもとに、現場で再現可能な手順と落とし穴の回避策を発信している。
Qubio
設定不要で機密データが外に出ないQubio
QubioはBigQuery・Redshift・Snowflakeに直結し、生データを一切LLMに送信しない設計です。「学習させない設定」を毎回確認する必要も、社員ごとのOpt-outを管理する手間もありません。学習リスクと構造的に無関係なAI分析プラットフォーム。導入相談は無料です。
関連記事
ChatGPTで情報漏洩する仕組みと業務利用で防ぐ方法|実例・設定・代替アーキテクチャ2026年版
Samsung機密流出、OpenAI履歴バグ、イタリア禁止など実際の漏洩事件をソース付きで解説。学習無効化設定、業務利用に耐える代替アーキテクチャまで網羅します。
ChatGPT情報漏洩 事例10選|実際に起きた事件と漏洩する仕組み・対策2026年版
Samsung・OpenAI・イタリアGarante・JPMorgan等、ChatGPT情報漏洩の実例10件をソース付きで解説。漏洩した情報・原因・各社対応・自社対策まで実例ベースでまとめます。
生成AIで情報漏洩する仕組みと事例|ChatGPT・Claude・Gemini別の対策2026年版
生成AI全般のデータ漏洩リスクと事例を網羅。Cyberhaven調査・各社方針・規制動向(個情委・EU AI Act)・業務利用での根本対策までを解説します。