← ブログ一覧に戻る
入門・基礎知識

PIIとは?AIに個人情報を
入れてはいけない理由

📅 2026年4月7日 ⏱ 読了時間 約8分

この記事で分かること


AIに「この情報」を入れていませんか?

日常業務でChatGPTやClaudeを使う機会が増えました。メールの文面を作ってもらったり、契約書を要約してもらったり、非常に便利です。

でも、こんな使い方をしていませんか?

これらは、PII(個人識別情報)をAIに入力している状態です。一見便利そうですが、重大なリスクが潜んでいます。


PIIとは何か?

PII(Personally Identifiable Information)とは、特定の個人を識別できる情報のことです。日本語では「個人識別情報」や「個人情報」に相当します。

カテゴリ具体例
基本情報氏名、生年月日、住所
連絡先電話番号、メールアドレス
識別番号マイナンバー、パスポート番号、運転免許証番号
金融情報銀行口座番号、クレジットカード番号
健康情報病名、投薬記録、遺伝情報
生体情報顔画像、指紋データ
オンライン情報IPアドレス、Cookie ID

日本の個人情報保護法(APPI)では、氏名・住所・生年月日の組み合わせや、マイナンバーなどは「個人情報」として厳格な取り扱いが求められています。


「AIが学習に使う」は本当か?

「入力したデータがAIの学習に使われる」という話を聞いたことがあるかもしれません。これは一部本当で、一部は誤解です。

OpenAI(ChatGPT)の場合

Anthropic(Claude)の場合

つまり、無料・個人プランでは個人情報の入力は避けるべきです。しかし、仮に「学習に使わない」サービスだとしても、問題はそれだけではありません。


個人情報を入れると起きる3つのリスク

リスク1:情報漏洩インシデント

2025年から2026年にかけて、AIサービスのセキュリティインシデントが相次ぎました。外部に情報が流出した場合、入力したPIIが含まれていれば被害は甚大です。AIサービス自体がどれだけセキュリティに注力していても、利用者が入力した情報はそのサービスのサーバー上に保存されるという事実は変わりません。

リスク2:法的リスク(個人情報保護法・GDPR)

顧客や患者の個人情報をAIサービスに入力することは、第三者提供にあたる可能性があります。

2025年には、従業員がChatGPTに社内の顧客リストを入力したことで、欧州のDPA(データ保護当局)から制裁を受けた企業も出ています。

リスク3:「シャドーAI」問題

多くの企業では、ITポリシーで定められたツール以外の使用を禁じています。しかし現実には、社員が業務効率化のために個人でChatGPTを使い、顧客情報を入力するケースが後を絶ちません。これが「シャドーAI」問題です。経営者・IT担当者が把握できないところでPIIが社外に流出する、非常に厄介なリスクです。


では、どう対策すればいいのか?

対策1:AI使用ルールを明文化する

「個人情報をAIに入力してはいけない」というルールをポリシーとして定め、全社員に周知する。シンプルですが、意識啓発として効果的です。

対策2:匿名化・マスキングして使う

AIに送るテキストから個人情報を取り除いてから入力する方法です。「田中太郎」→「顧客A」のように置き換えるだけでも効果があります。ただし、手作業では抜け漏れが発生します。

対策3:PII保護ツールを導入する

最も確実な方法は、自動でPIIを検知・マスキングするツールを介してAIを利用することです。

PII Firewall は、AIへの送信前にテキスト内のPIIを自動検知し、マスキング処理を行うサービスです。24種類のPII(日本語・英語対応)を検知し、処理後に元のデータに復元することもできます。


まとめ:AIは「個人情報を入れずに使う」が原則

状況リスクレベル
自分の考えを整理するほぼリスクなし
架空の事例で練習ほぼリスクなし
実名・連絡先を含む文書を処理高リスク
患者・顧客・従業員の情報を入力非常に高リスク
マイナンバー・口座情報を入力法的リスクあり

AIは業務を大きく効率化する力を持っています。しかし、個人情報の取り扱いには細心の注意が必要です。「まず匿名化・マスキングしてからAIに渡す」というワークフローを標準にすることが、安全なAI活用への第一歩です。


関連用語

AIを安全に使い始める

PII Firewallは、AIへの入力から個人情報を自動検知・マスキングします。
Freeプランで今すぐ試せます。

🚀 無料で始める