データ漏えい
Data Leakage
でえたろうえい
解説
データ漏えいとは、機密情報や個人情報が意図せず外部へ出たり、学習・出力から復元されてしまうリスクです。安全な運用の基礎になります。
2023年、Samsungのエンジニアがプロセッサの機密ソースコードをChatGPTに貼り付けて最適化を依頼したことが発覚し、同社は全社的にAIチャットツールの使用を禁止する事態に追い込まれました。この事件はAI時代のデータ漏えいリスクを象徴しています。データ漏えい(Data Leakage)とは、AIシステムが学習データやユーザー入力に含まれる機密情報・個人情報を意図せず外部に露出してしまう問題の総称です。
学習データからの情報抽出
LLMが抱える根本的なリスクのひとつが、学習データの記憶と再現です。モデルは数兆トークンのテキストを学習する過程で、電話番号、メールアドレス、住所などの個人情報(PII)や、ソースコード、内部文書の断片を意図せず記憶してしまいます。2023年にGoogleのDeepMindチームが発表した研究では、ChatGPTに特定のトークンを繰り返させる単純なプロンプトで、学習データに含まれていた実在の人物の個人情報を抽出できることが実証されました。モデルのパラメータ数が大きいほど記憶量が増えるため、大規模化に伴いリスクも増大します。
プロンプト経由の漏えい経路
もうひとつの経路が、ユーザー入力を通じた情報漏えいです。Samsungの事例のように、従業員が業務データをAIサービスに入力すると、そのデータがサービスプロバイダのサーバーに送信されます。問題は、そのデータがモデルの追加学習に使われたり、サーバーログに長期保存されたりする可能性があることです。また、プロンプトインジェクション攻撃により、システムプロンプトに含まれた企業の機密指示が流出するリスクもあります。RAGシステムでは、検索対象のデータベースに権限管理が不十分な場合、本来アクセスできないはずの情報が回答に含まれてしまう事故も報告されています。
多層防御のアプローチ
効果的な対策には複数のレイヤーでの防御が不可欠です。入力段階では、Microsoft Presidioなどのツールを使ってPIIを自動検出・マスキングします。モデル段階では、差分プライバシー(Differential Privacy)を学習に適用して個別データの記憶を抑制したり、学習データから個人情報を事前に除去(データサニタイゼーション)したりします。出力段階では、生成されたテキストにPIIが含まれていないかをフィルタリングします。どれか一つの対策だけでは不十分で、複数を組み合わせることが重要です。
企業が今すぐ取るべき対応
AIを業務で利用する企業にとって、データ漏えい対策は最優先事項です。まず、主要なAIプロバイダが提供する「入力データを学習に使用しない」エンタープライズプラン(OpenAI API、Anthropic Claude API、Azure OpenAI Serviceなど)を利用することが基本です。次に、「何をAIに入力してよいか」を明確に定めたAIガバナンスポリシーを策定し、全従業員に周知します。さらに、機密度の高い業務にはローカルLLM(Llama系モデルなど)の導入も検討すべきです。AIの利便性とデータ保護は二者択一ではなく、適切な設計で両立できます。