目次
はじめに:ChatGPT利用における情報セキュリティの重要性
ChatGPTのような生成AIツールの急速な普及は、業務効率を飛躍的に向上させる一方で、新たな情報セキュリティリスクをもたらしています。その手軽さゆえに、データの取り扱いに関するリスクが見過ごされがちであるという指摘は、現代のデジタル環境において極めて重要です。企業や個人がAIの恩恵を享受するためには、これらの潜在的リスクを正確に理解し、適切な対策を講じることが不可欠となります。
生成AIの利便性が高まるにつれて、ユーザーは無意識のうちに機密情報をAIに入力する傾向が強まる可能性があります。これは、セキュリティ対策が単なる技術的な側面に留まらず、人間の行動変容を促す必要性があることを示唆しています。利便性の追求が、かえってユーザーのセキュリティ意識を低下させ、思考停止を招くという側面も考慮されなければなりません。この状況は、技術的な脆弱性だけでなく、人間の心理と行動がセキュリティの最大の弱点となりうるという、より深い問題を示しています。したがって、情報セキュリティの強化は、技術的なガードレールだけでなく、ユーザー教育と意識改革に重点を置く必要があると認識されています。
本レポートは、ChatGPTの利用における情報漏洩のリスクに関する一般的な認識を検証し、OpenAIの公式ポリシーと最新のセキュリティ知見に基づき、ChatGPTの安全な利用に関する包括的なガイドラインを提供することを目的としています。個人利用と法人利用それぞれにおけるデータ利用ポリシーと潜在的リスクを詳細に解説し、AI活用における情報漏洩リスクを最小限に抑えるための実践的なアプローチを提示します。
ChatGPTのデフォルト設定とデータ利用ポリシーの検証
ChatGPTのデータ利用ポリシーは、利用プランによって大きく異なります。
個人向けプランと法人向けプランでは、AIモデルの学習へのデータ利用に関するデフォルト設定やセキュリティコミットメントに明確な違いが存在します。
個人向けプラン(無料版・ChatGPT Plus)におけるデータ利用とリスク
ChatGPTの個人向けプラン(無料版やChatGPT Plusなど)では、「Chat History & Training」(または「Improve the model for everyone」)設定がデフォルトでオンになっています。この設定が有効な場合、ユーザーがChatGPTに入力したプロンプトや、ChatGPTが生成した応答がすべて記録・保存され、OpenAIのAIモデルの性能改善や新機能開発のための学習データとして利用される可能性があります 1。
この設定をオフにすることで、それ以降の新しい会話は履歴として保存されなくなり、OpenAIのAIモデルの学習にも使われなくなります 1。ただし、この設定をオフにする前の会話履歴は、すでに学習に利用されている可能性があるため、注意が必要です 1。
また、過去にはこの設定がデバイス間で同期しないという情報も存在しましたが 1、OpenAIの公式FAQでは「一度モデル学習をオフにすると、その設定はアカウント全体に適用され、どのデバイスを使用しても関係ない」と明記されており、設定はアカウント全体で同期されることが確認されています 6。
「Chat History & Training」設定がオフの場合でも、新しい会話は30日間、悪用監視のために保持され、その後完全に削除されます 1。この30日間の保持期間中、限定されたOpenAIの正規職員や機密保持契約を結んだ信頼できるサービスプロバイダーが、悪用調査、セキュリティインシデント対応、またはユーザーサポートの提供のためにコンテンツにアクセスする可能性があるとされています 1。
OpenAIは、モデル性能改善のために使用するデータから個人を特定できる情報を削除すると述べていますが 1、データが完全に匿名化されるという絶対的な保証はありません。
「間接的な情報漏洩」は、単に機密情報がモデルの学習データとして取り込まれ、将来的に別のユーザーへの応答に影響を与える可能性に留まりません。
より深く分析すると、このリスクは多層的であることが明らかになります。例えば、機密性の高いデータ(特定のビジネス戦略、未公開の技術詳細など)が学習データとして利用された場合、AIモデルはその情報を「知識」として取り込み、直接的な再現がなくとも、その知識に基づいて推論能力や関連性の高い応答を生成するようになる可能性があります。これにより、競合他社が一般的なプロンプトで質問した際に、間接的に機密情報に関連する示唆を得るリスクが生じます。これは、情報が「漏洩」するのではなく、AIの「知識」として「吸収」され、その結果として「推論能力が向上」することで、間接的に機密性が損なわれるという、より洗練された漏洩経路です。
さらに、「Chat History & Training」をオフにした場合でも、30日間は悪用監視のためにデータが保持され 1、この期間中に限定的ながらも人間によるレビューの可能性があり 1、意図しない情報漏洩や悪用リスクがゼロではありません。
これは、技術的な学習利用とは異なる、人的なアクセスによるリスクであり、データが「学習」されるか否かだけでなく、「誰が、どのような目的で、どれくらいの期間、データにアクセスしうるか」という多層的な視点でのリスク評価が必要であることを示唆しています。
法人向けプラン(ChatGPT Enterprise / Team / API版)におけるデータ利用とセキュリティ
法人利用のChatGPT、具体的にはChatGPT Enterprise、ChatGPT Team、およびAPIプラットフォームといったサービスでは、入力データがAIモデルの学習にデフォルトで利用されないとOpenAIは明確に表明しています 3。これは、企業が機密情報を安心して扱えるようにするためのOpenAIの明確なポリシーであり、個人向けプランが「モデル改善のためのデータ利用」を前提としているのに対し、法人向けは「顧客データの保護」を最優先しているというOpenAIのビジネス戦略上の明確な差別化を示しています。
ただし、この「デフォルトで学習に利用しない」というポリシーには例外も存在します。ユーザーが明示的にオプトインしてデータ共有に同意した場合や、モデルのファインチューニングのためにデータを提供した場合は、そのデータが利用される可能性があります 7。ファインチューニングされたモデルは、作成したユーザー専用であり、他者と共有されたり、他のモデルの学習に利用されたりすることはないとされています 7。
API経由のデータについても、デフォルトではモデル学習に利用されません。特定の利用ケースを除き、API入力・出力はサービス提供と悪用特定のために最大30日間安全に保持され、その後システムから削除されます 7。適格な利用ケースでは「ゼロデータ保持 (ZDR)」も要求可能であり、これは極めて強力なプライバシー機能です 7。
法人向けプランは、エンタープライズレベルのセキュリティ機能を提供しています。これには、SAML SSO(シングルサインオン)による認証、多要素認証(MFA)、きめ細やかなアクセス制御、管理者向けの監査ログへのアクセス、データ暗号化(保存時AES-256、転送時TLS 1.2+)などが含まれます 7。OpenAIは、GDPR、CCPA、CSA STAR、SOC 2 Type 2などの主要なデータ保護およびセキュリティ基準への準拠を表明しており 8、データレジデンシーオプションも提供しているため、特定の地域のデータ主権要件にも対応可能です 8。
法人向けプランの「デフォルトで学習に利用しない」ポリシーは、企業にとって非常に強力なセキュリティコミットメントであり、OpenAIが企業顧客に対して「データプライバシー」を中核的な価値として提供していることを示しています。しかし、この「デフォルト」は、あくまでOpenAI側のポリシーであり、企業内部の運用ミスや、API連携時の設定不備、あるいは明示的なオプトインやファインチューニングといった例外的な利用ケースには適用されません。例えば、従業員が企業の機密情報を個人アカウントのChatGPTに入力してしまう「シャドーAI」問題は、OpenAIの法人向けポリシーでは防ぎきれません 13。したがって、OpenAI側のポリシーだけでは不十分であり、企業自身が厳格な内部ガバナンスと運用規則を設け、従業員への教育を徹底することが不可欠です。これは、セキュリティの責任がOpenAIと企業の間で分担されるべきであるという、より深い示唆を伴います。
表1:ChatGPTプラン別データ利用ポリシー比較
項目 | 個人向けプラン (無料版/Plus) | 法人向けプラン (Enterprise/Team/API) |
モデル学習へのデータ利用 | デフォルトでオン(学習に利用される可能性あり) 1 | デフォルトでオフ(学習に利用されない) 7 |
データ保持期間 | 30日間(悪用監視目的) 1 | 最長30日間(サービス提供/悪用監視目的、ZDRオプションあり) 7 |
会話履歴の保存 | デフォルトでオン(設定でオフ可能) 1 | ユーザーが制御可能 7 |
データアクセス | 限定されたOpenAI職員/信頼できる第三者 1 | 限定されたOpenAI職員/信頼できる第三者、管理者による監査ログ 7 |
暗号化 | 情報なし | 保存時AES-256、転送時TLS 1.2+ 7 |
認証機能 | パスワード、2FA設定可能 5 | SAML SSO、MFA、きめ細やかなアクセス制御 7 |
コンプライアンス | 情報なし | GDPR, CCPA, SOC 2 Type 2, CSA STAR準拠 8 |
データレジデンシー | 情報なし | オプションで選択可能 8 |
情報漏洩リスクの深掘り:なぜ機密情報が危ういのか
ChatGPTのような生成AIツールは、その利便性の高さゆえに、従来のシステムでは想定されなかった新たな情報漏洩経路を生み出し、企業のセキュリティ対策に複雑な課題を突きつけています。
直接的・間接的な情報漏洩経路
機密情報を含むデータがChatGPTに入力され、それが学習データとして使われた場合、AIモデルがその情報を知識として取り込み、将来的に別のユーザーへの応答に影響を与える可能性はゼロではありません 1。これは、直接的なデータ再現ではなく、間接的に機密性が損なわれるリスクとして認識されています。過去には、Samsung Electronicsの従業員が機密性の高いソースコードをChatGPTに入力し、情報が外部に流出したとされるインシデントも報告されており 14、これは学習利用による間接的漏洩だけでなく、OpenAIシステム内でのデータ保持や、限定的ながらも人間によるアクセス(悪用監視やサポート目的)によるリスクも示唆しています 1。
さらに、生成AIの登場により、情報漏洩の経路は多様化し、攻撃対象領域が拡大しています。プロンプトインジェクションは、悪意のあるアクターが巧妙にプロンプトを設計し、ChatGPTに機密情報を開示させたり、安全ガードレールを迂回させたりする攻撃手法であり 13、これはAIの振る舞いを悪用する新たな脅威です。また、知的財産(IP)リスクも深刻です。従業員が独自のコード、製品設計、ビジネス戦略などをChatGPTに入力した場合、その情報がモデルの学習データに組み込まれ、競合他社が同じサービスを利用する際にアクセス可能になったり、意図せず他のユーザーへの応答を通じて漏洩したりする可能性があります 15。AI生成コンテンツの著作権帰属に関する法的不確実性も、IPリスクを複雑にしています 15。従来のデータ漏洩が主にシステムへの不正アクセスや設定ミスによる直接的な流出が中心であったのに対し、生成AIの時代では、情報漏洩の経路は「モデルの学習」という間接的なものに加え、「プロンプトインジェクション」のようにAIの振る舞いを悪用する新たな攻撃手法、さらには「AI生成コンテンツの著作権問題」といった法的・倫理的な側面まで多様化しています。これは、企業が保護すべき対象が単なるデータだけでなく、AIモデルそのものや、AIを介した情報の流れ全体に拡大していることを意味します。
コンプライアンス違反と法的・社会的信用失墜
規制対象となるデータ(個人を特定できる情報 (PII)、保護医療情報 (PHI)、支払いカード情報 (PCI) など)をChatGPTに入力することは、HIPAA、GDPR、CCPAなどの個人情報保護法や業界固有の規制に違反する重大なリスクを伴います 14。これらの違反は、多額の罰金、企業の評判失墜、顧客からの信頼喪失につながる可能性があります 15。例えば、医療従事者が患者の個人情報を含むプロンプトを誤って入力した場合、HIPAAの要件に違反する可能性があります 15。また、ChatGPTが米国のOpenAIによって提供され、そのサーバーが米国に所在するという事実は、日本の個人情報保護法における「外国にある第三者への提供」に該当する可能性があり、法的な管轄権の問題も生じます 14。
生成AIは、時に「ハルシネーション」と呼ばれる、もっともらしいが事実ではない情報(誤情報)を生成することがあります 16。従業員がこれらのAIの出力を検証せずに信頼した場合、誤った情報に基づいたビジネス上の意思決定、不正確な顧客対応、または欠陥のあるコードの実装につながる可能性があります 16。例えば、弁護士がChatGPTを使用して存在しない判例を引用した事例や、航空会社がチャットボットから誤った払い戻し情報を顧客に提供し、賠償を命じられた事例が報告されています 17。これらのハルシネーションは、単なる「バグ」ではなく、企業の「信頼性における亀裂」であると認識されています 16。AIの出力を無批判に受け入れることは、従業員の批判的思考能力を徐々に低下させ、人間による判断の習慣を失わせる可能性があります 16。さらに、AIの誤りがブランドの誤りと区別されずに認識されることで、顧客からの信頼が損なわれ、重大な経済的損失や評判の低下につながる可能性があります 16。したがって、AIの出力は特に高リスクな領域においては、人間による厳格な検証と監視が不可欠です。
ヒューマンエラーの継続的な脅威
サイバーセキュリティ侵害の最大95%はヒューマンエラーに起因するとされており 18、これはデジタル防御の高度化にもかかわらず、人間が依然として最も脆弱なリンクであることを示しています。生成AIの導入は、このヒューマンエラーのリスクをさらに複雑化させる可能性があります。従業員は、AIの利便性ゆえに、無意識のうちに機密情報を公開設定のチャットにコピー&ペーストしてしまったり、特定のプロンプトの記述ミスによって意図しない形で情報が外部に漏洩する可能性がゼロではありません 15。また、生成AIによって高度化されたフィッシング攻撃など、ソーシャルエンジニアリングの巧妙化も従業員を標的とした新たな脅威となります 19。
さらに深刻なのは、「シャドーAI」の蔓延です。組織が公式なAIソリューションを導入していない、またはそのソリューションが不便である場合、従業員はChatGPTやClaude、Geminiといった容易にアクセスできる公開AIツールを業務目的で利用する傾向があります 13。このような無許可のツール利用は、企業のセキュリティ管理下の外で機密情報が流れることを意味し、データ漏洩のリスクを大幅に高めます。これは、AIの利便性がヒューマンエラーのリスクを助長し、カジュアルなデータ入力を促すという側面があることを示しています。また、「シャドーAI」の蔓延は、監視されていないデータフローを生み出し、企業のセキュリティ対策を根本から損なう可能性があります。この状況は、技術的な制御だけでなく、堅牢な従業員教育と、ユーザーにとって使いやすい内部AI戦略を組み合わせた、包括的なアプローチが必要であることを強調しています。
徹底対策:安全なChatGPT活用のための実践ガイドライン
ChatGPTを安全に活用し、情報漏洩リスクを最小限に抑えるためには、個人利用と法人利用それぞれにおいて、適切な設定と厳格な運用ルールを徹底することが不可欠です。
個人利用における具体的な設定方法
個人でChatGPTを利用するユーザーは、以下の設定を適用することで、自身のデータがAIモデルの学習に利用されるリスクを軽減できます。
法人利用における包括的セキュリティ対策
企業でChatGPTを導入している場合、個人向けプランとは異なり、デフォルトで入力データがAIモデルの学習に利用されないというOpenAIのポリシーは強力な基盤となります 3。しかし、これに加えて企業側が以下の包括的なセキュリティ対策を講じることが極めて重要です。
- 厳格なデータポリシーと社内ガイドラインの策定:
- ChatGPTの組織内での許容される利用方法と禁止される利用方法を明確に定義した包括的なガイドラインを策定します 13。特に、顧客の個人情報、企業秘密、財務データなど、AIと共有してはならない情報の種類を具体的に指定することが重要です 15。
- 従業員が個人のChatGPTアカウントを業務目的で利用する「シャドーAI」を防ぐため、業務でのAI利用は承認された法人向けツールに限定するよう明確に指示し、その理由を周知徹底します 13。
- データ抽象化・匿名化の徹底:
- AIに情報を入力する際は、具体的な社名、製品名、個人情報などを直接入力せず、一般的な用語や概念に置き換えて質問する「情報の抽象化・一般化」を推奨します 26。
- 特に機密性の高い個人情報(PII、PHI)を含むデータを扱う場合は、AIに処理させる前に、氏名、住所、電話番号、生年月日などの識別子を削除または置換する「データ匿名化」を徹底します 25。大規模言語モデル(LLM)自体も、テキストを再構築することで機密情報を削除しながら文脈を維持する匿名化タスクに活用できる可能性があります 28。
- アクセス制御と監視の強化:
- ChatGPTの利用を、権限のある従業員に限定するため、ロールベースアクセス制御(RBAC)や多要素認証(MFA)を導入し、既存の企業認証システムと統合します 20。
- AIとの対話履歴を記録するログメカニズムを導入し、異常な挙動や潜在的なデータ漏洩を検知できるようにします。アクセスログを定期的にレビューし、セキュリティポリシーへの準拠を確認し、不正な活動に迅速に対応します 13。ゼロトラストセキュリティモデルを適用し、すべてのユーザー、システム、サービスに対して厳格な検証を要求します 25。
- 継続的な従業員教育とセキュリティ意識向上:
- 従業員に対し、AI利用に伴うリスク、責任あるデータ共有の実践、AIによって高度化されたソーシャルエンジニアリング攻撃(例:フィッシング)への意識向上に関する定期的なトレーニングを実施します 13。
- 組織全体でAIポリシーを周知徹底し、ChatGPTの展開と管理における責任を明確化します 25。セキュリティはIT部門だけの問題ではなく、従業員一人ひとりの意識と行動にかかっているという認識を醸成します 18。
- AI検出ツールとコンテンツモデレーションの導入:
- AIが生成したフィッシングメール、サイバー攻撃、悪意のあるチャットボット活動などの脅威を検知・軽減するために、AI駆動型セキュリティソリューションを導入します 20。
- ChatGPTが生成する出力に対して、不適切、攻撃的、または偏見のある応答をフラグ付けまたはブロックする出力フィルタリングメカニズムを実装し、著作権侵害や企業データの不正利用がないかを確認します 25。
- APIアクセスとシステム連携の厳格化:
- ChatGPTを企業アプリケーションに統合する場合、APIエンドポイントを認証トークン、IPホワイトリスト、暗号化によって保護し、不正アクセスやデータ流出を防ぎます 20。
- レート制限や異常検知を実装し、APIの不正利用や認証情報漏洩攻撃を特定します 20。最小権限のアクセスモデルを確立し、APIが必要最小限のデータのみを提供するようにします 20。APIキーを定期的にローテーションし、不正アクセス試行を監視します。
- ChatGPTを常に最新の状態に保ち、OpenAIのような信頼できるソースからのモデルのみを使用することが推奨されます 25。
結論:安全対策の徹底とAIの恩恵最大化
ChatGPTの登場は、私たちの仕事のあり方を大きく変革しました。しかし、その利便性の裏には、データ保護という重要な課題が潜んでいます。本レポートの検証結果が示すように、ChatGPTの個人向けプランをデフォルト設定のまま利用すると、会話履歴や入力データがAIモデルの学習に利用される可能性があり、間接的な情報漏洩のリスクをはらんでいます。これを防ぐためには、個人向けプランでは「Chat History & Training」設定をオフにすることが不可欠です。
一方、法人向けプラン(ChatGPT Enterprise / Team / API)では、デフォルトで入力データがモデルの学習に利用されないというOpenAIの強力なポリシーが適用されます。しかし、このポリシーはあくまでOpenAI側のコミットメントであり、企業内部の運用ミス、シャドーAIの利用、プロンプトインジェクションといった新たな攻撃手法、そしてハルシネーションによる誤情報の拡散といった多岐にわたるリスクが存在します。
したがって、ChatGPTの強力なパワーを最大限に引き出し、業務の生産性向上や新たな価値創造へと繋げるためには、以下の実践的な対策を徹底することが不可欠です。
- 技術的設定の最適化: 個人利用では「Chat History & Training」をオフにし、法人利用ではOpenAIのデータポリシーを理解し、API連携時の設定に細心の注意を払う。
- 厳格な内部ポリシーとガイドラインの策定: 企業内でAI利用に関する明確なルールを設け、機密情報の入力禁止、データ抽象化・匿名化の徹底を義務付ける。
- アクセス制御と監視の強化: 多要素認証、ロールベースアクセス制御、AIインタラクションのログ監視により、不正利用やデータ漏洩の兆候を早期に発見する体制を構築する。
- 継続的な従業員教育: AIリスクに関する定期的なトレーニングを実施し、従業員のセキュリティ意識とリテラシーを向上させる。シャドーAIの危険性を周知し、承認されたツールのみを使用するよう徹底する。
- ハルシネーション対策と人間による検証: AIの出力は常に検証が必要であることを従業員に周知し、特に重要な意思決定や顧客向け情報には人間の最終確認を義務付ける。
これらの適切なセキュリティ対策と利用ルールを徹底することで、情報漏洩のリスクを最小限に抑えつつ、ChatGPTの恩恵を最大限に享受し、安全かつ効果的なAI活用を実現できるでしょう。
引用文献
- OpenAI ChatGPT Free & Plus Privacy Policies Explained – Bright Inventions, 6月 8, 2025にアクセス、 https://brightinventions.pl/blog/openai-chatgpt-free-plus-privacy-policies-explained/
- Privacy policy – OpenAI, 6月 8, 2025にアクセス、 https://openai.com/en-GB/policies/row-privacy-policy/
- Data Usage for Consumer Services FAQ | OpenAI Help Center, 6月 8, 2025にアクセス、 https://help.openai.com/en/articles/7039943-data-usage-for-consumer-services-faq
- ChatGPTの利用規約を徹底解説!商用利用時の注意点や重要な …, 6月 8, 2025にアクセス、 https://shift-ai.co.jp/blog/7210/
- ChatGPTの利用時にプライバシーは保護される?プライバシー …, 6月 8, 2025にアクセス、 https://shift-ai.co.jp/blog/8192/
- Data Controls FAQ | OpenAI Help Center, 6月 8, 2025にアクセス、 https://help.openai.com/en/articles/7730893-data-controls-faq
- Enterprise privacy at OpenAI, 6月 8, 2025にアクセス、 https://openai.com/enterprise-privacy/
- Business data privacy, security, and compliance – OpenAI, 6月 8, 2025にアクセス、 https://openai.com/business-data/
- ChatGPT Team – OpenAI, 6月 8, 2025にアクセス、 https://openai.com/chatgpt/team/
- help.openai.com, 6月 8, 2025にアクセス、 https://help.openai.com/en/articles/7039943-data-usage-for-consumer-services-faq#:~:text=By%20default%2C%20we%20do%20not,with%20us%20for%20this%20purpose.
- OpenAI におけるエンタープライズプライバシー | OpenAI, 6月 8, 2025にアクセス、 https://openai.com/ja-JP/enterprise-privacy/
- エンタープライズ向け ChatGPT | OpenAI, 6月 8, 2025にアクセス、 https://openai.com/ja-JP/chatgpt/enterprise/
- Building Your Corporate ChatGPT: A Secure Enterprise Approach, 6月 8, 2025にアクセス、 https://www.prompt.security/blog/building-your-corporate-chatgpt-a-secure-enterprise-approach
- ChatGPTに個人情報を入力するのはNG?注意点や対策を徹底解説 …, 6月 8, 2025にアクセス、 https://exawizards.com/column/article/chatgpt/ng-chatgpt/
- ChatGPT Security Risks and How to Mitigate Them: A Complete Guide | Nightfall AI, 6月 8, 2025にアクセス、 https://www.nightfall.ai/blog/chatgpt-security-risks-and-how-to-mitigate-them-a-complete-guide
- From Misinformation to Missteps: Hidden Consequences of AI Hallucinations, 6月 8, 2025にアクセス、 https://seniorexecutive.com/ai-model-hallucinations-risks/
- LLM Hallucinations: What Are the Implications for Businesses? – BizTech Magazine, 6月 8, 2025にアクセス、 https://biztechmagazine.com/article/2025/02/llm-hallucinations-implications-for-businesses-perfcon
- AI Is Reshaping Cybersecurity, Human Error Still Looms Large – BW Security World, 6月 8, 2025にアクセス、 https://bwsecurityworld.com/technology/ai-is-reshaping-cybersecurity-human-error-still-looms-large/
- 95% of data breaches involve human error, report reveals | SC Media, 6月 8, 2025にアクセス、 https://www.scworld.com/news/95-of-data-breaches-involve-human-error-report-reveals
- ChatGPT security risks: Is it safe for enterprises? – NordLayer, 6月 8, 2025にアクセス、 https://nordlayer.com/blog/chatgpt-security-risks/
- Top 10 Generative AI Security Risks and How to Protect Your Business – Office1, 6月 8, 2025にアクセス、 https://www.office1.com/blog/generative-ai-security-risks
- AI and Data Privacy: Mitigating Risks in the Age of Generative AI Tools – Qualys Blog, 6月 8, 2025にアクセス、 https://blog.qualys.com/product-tech/2025/02/07/ai-and-data-privacy-mitigating-risks-in-the-age-of-generative-ai-tools
- How To Turn Off ChatGPT’s Chat History and Training #shorts – YouTube, 6月 8, 2025にアクセス、 https://www.youtube.com/shorts/aBbBqAsqMNY
- Does ChatGPT Store Your Data in 2025? – Nightfall AI, 6月 8, 2025にアクセス、 https://www.nightfall.ai/blog/does-chatgpt-store-your-data-in-2025
- ChatGPT Security for Enterprises: Risks and Best Practices – Wiz, 6月 8, 2025にアクセス、 https://www.wiz.io/academy/chatgpt-security
- Abstract Generator Tool – Originality.ai, 6月 8, 2025にアクセス、 https://originality.ai/blog/abstract-generator-tool
- How to Craft Prompts – AI-Based Literature Review Tools – Library Guides – LibGuides, 6月 8, 2025にアクセス、 https://tamu.libguides.com/c.php?g=1289555&p=9642751
- Data Anonymization and LLM – Finetuning for Success – CROZ, 6月 8, 2025にアクセス、 https://croz.net/data-anonymization-llm/
- Protecting PII data with anonymization in LLM-based projects – The Software House, 6月 8, 2025にアクセス、 https://tsh.io/blog/pii-anonymization-in-llm-projects/