PII・プロンプトインジェクション・秘密分散など、AIを安全に使うために知っておくべき用語を、専門知識なしで理解できるよう解説します。
特定の個人を識別できる情報の総称です。氏名・メールアドレス・電話番号・住所・生年月日・マイナンバーなどが代表例です。単独では識別できなくても、組み合わせることで個人を特定できる情報も含みます。
なぜ重要なのか?
AIサービスに入力したPIIは、AIの学習データに使われたり、外部に漏洩するリスクがあります。特に弁護士・医師・会計士などは、顧客のPIIをAIに送信することで守秘義務違反になる可能性があります。
日本国内の全住民に割り当てられた12桁の番号。税務・社会保障・災害対策の分野で使用されます。漏洩した場合のリスクが非常に高く、番号法により厳格な取扱いが義務付けられています。
個人情報をプレースホルダー(代替トークン)に置き換える処理のことです。例えば「田中太郎」を「[SECURED:name:甲]」に置き換えます。AIはマスクされた状態で処理し、後から元の値に復元できます。
AIシステムに対して、悪意ある命令を紛れ込ませる攻撃手法です。チャットボットやAIアシスタントへの入力に「特殊な命令」を埋め込み、AIの動作を乗っ取ったり、非公開情報を引き出したりします。
なぜ急増しているのか?
生成AIの企業導入が進むにつれ、AIシステムを標的にした攻撃が増加。特に、AIエージェントやLLMパイプラインは攻撃対象になりやすいです。
ユーザーが直接入力するのではなく、AIが読み込む外部データ(Webページ・PDF・メール・データベース)に悪意ある命令を埋め込む攻撃です。RAG(検索拡張生成)システムやAIエージェントで特に危険です。
AIの安全制限を迂回して、本来拒否されるべき応答を引き出す手法です。ロールプレイ形式・仮説形式・翻訳経由など様々なアプローチがあります。
秘密情報を複数のシェア(断片)に分割し、一定数のシェアが揃わないと復元できないようにする暗号技術です。PII Firewallでは XOR秘密分散(2シェア)と Shamir秘密分散(3シェア中2つで復元)を実装しています。
銀行の例え: 金庫を2つの鍵で開ける仕組みと同じです。どちらか1つの鍵だけでは開かない。
数値データに微小なランダムノイズを加えることで、個別の正確な値を隠しつつ、統計的な分析は可能にするプライバシー技術です。Appleが顧客データの収集に使用、米国国勢調査でも採用されている実績ある手法です。
Anthropicが策定した、AIモデルと外部ツール・データソースを接続するための標準プロトコルです。Claude DesktopなどのAIアシスタントに、外部のツール(PII保護・検索・計算など)を「プラグイン」として追加できます。
EU市民の個人データ保護に関する法律(2018年施行)。EU外の企業でも、EU市民のデータを扱う場合は適用されます。違反した場合、年間売上高の4%または2,000万ユーロの高い方が制裁金として課される可能性があります。
日本企業でも、EU向けサービスを提供している場合は対象になります。
AIの開発・利用に関するルール・ガイドライン・監督体制の総称です。日本ではデジタル庁・総務省・経産省がAI活用に関するガイドラインを策定しています。EU AI Act(EU AI規制法)は2024年施行、米国・英国でも規制整備が進んでいます。
企業に求められること: AIを業務利用する際、個人情報の適切な取扱い、透明性の確保、セキュリティ対策の実施が求められます。
ChatGPT・Claude・Geminiなどの基盤となる大規模AIモデルのことです。膨大なテキストデータで学習しており、文章生成・要約・翻訳・質問回答など幅広いタスクをこなせます。
PII Firewallは特定のLLMに依存せず、どのLLMに対しても同じPII保護・インジェクション防御を提供します。
社内文書・データベース・Webなど外部の情報をAIの回答に組み込む技術です。企業の独自情報をAIに活用させる際に広く使われます。
外部ソースにPIIが含まれる場合や、悪意ある内容が含まれる場合(間接注入)のリスクがあるため、PII保護とインジェクション防御が特に重要です。
目標を与えると自律的に計画・実行・フィードバックを繰り返すAIシステムです。複数のAIや外部ツールを組み合わせて複雑なタスクを実行します。AI to AI通信が発生するため、各通信経路でのセキュリティが重要課題になっています。