この記事で分かること
- 「シャドーAI」とは何か、なぜ今これほど問題になっているのか
- 社員がChatGPTに入力した情報が会社にとってどんなリスクになるか
- 実際に起きたシャドーAI起因の情報漏洩事例
- 禁止だけでは解決しない理由と、現実的な対策の考え方
- PII Firewallを使って「使わせながら守る」アプローチとは
シャドーAIとは?「黙って使っている」が生む見えないリスク
「シャドーIT」という言葉をご存知でしょうか。会社の許可を取らずに、社員が個人的にクラウドサービスやアプリを使ってしまう現象です。Dropboxで社外に書類を送ったり、LINEで仕事の話をしたり——これが昔ながらのシャドーITです。
今、これと同じ問題がAIの世界で爆発的に広がっています。それが「シャドーAI」です。
シャドーAIとは、会社の許可・管理なしに、社員が業務でChatGPTやClaude、Geminiなどの生成AIを使っている状態のことを指します。
なぜ黙って使うのか?
社員の立場から見れば、動機は単純です。「使うと仕事が速くなる」からです。
- 議事録の要約に10分かかっていたのが30秒になる
- 英語メールの翻訳・校正が一瞬でできる
- 企画書のたたき台を作るのが格段に楽になる
2026年4月時点でのIPA(独立行政法人情報処理推進機構)の報告でも、「AIの利用をめぐるサイバーリスク」が情報セキュリティ10大脅威の3位に初選出されました。シャドーAIはその代表的なリスク源のひとつです。
社員が何を入力しているか、あなたは把握していますか?
問題の核心は、社員がAIに何を入力しているかを会社が全く把握できていないことです。
よく見られる「危険な入力」の実例
ケース1:営業担当者が顧客情報をそのまま貼り付ける
「この顧客の課題を整理してほしい」と、顧客名・連絡先・取引金額・課題をすべてコピペ。ChatGPTはその情報をもとに回答しますが、そのデータはOpenAIのサーバーに送信されます。
ケース2:人事担当者が社員の個人情報を入力する
「この評価シートをまとめてほしい」と、社員の氏名・役職・給与・評価コメントを入力。個人情報保護法の観点から本人の同意なく第三者(AIサービス事業者)に提供したことになりえます。
ケース3:医療・法律・金融職が機密情報を入力する
「この患者の症状を整理して診断の参考にしてほしい」「この契約書の問題点を教えてほしい」——守秘義務のある情報がAIに送られるケースは、専門職の業界でも頻発しています。
ChatGPTはそのデータをどう扱うのか?
OpenAIのAPIを通じた利用(法人契約)では学習に使用しない設定が可能ですが、無料・個人アカウントでの利用では、入力データが改善目的で使用される可能性があります。社員が個人アカウントで会社の機密情報を入力した場合、その情報の扱いはOpenAIのプライバシーポリシーに委ねられます。
シャドーAI問題の3つのリスク
リスク1:個人情報・機密情報の漏洩
個人情報保護法では、個人データを本人の同意なく第三者に提供することは原則として禁止されています。社員の「善意の業務効率化」が、会社の法令違反につながるケースがあります。
リスク2:守秘義務違反
弁護士・医師・会計士・税理士などの士業は、職業倫理として守秘義務を負っています。クライアントの情報をAIに入力することが守秘義務違反にあたる可能性があり、最悪の場合、資格取り消しや損害賠償の対象になりえます。
リスク3:プロンプトインジェクション攻撃のリスク
社員が業務でAIを使う際、悪意ある第三者が仕込んだドキュメント(PDFや電子メール)を処理させるだけで、AIが意図しない動作をする「間接型プロンプトインジェクション」攻撃が起きる可能性があります。これはAIエージェントが普及した現在、深刻なリスクです。
「禁止」だけでは解決しない
多くの企業がまず取る対策は「ChatGPTの使用を禁止する」ことです。しかし、これは現実的に機能しません。
- 禁止してもスマートフォンから使える——会社のPCから遮断しても、社員が個人のスマートフォンで業務情報を入力すれば同じことです
- 生産性向上の恩恵を捨てることになる——AIを活用できる企業と禁止したまま手作業を続ける企業では中長期的な競争力に差が生まれます
- モグラ叩きになる——新しいAIツールが次々と出てくる中、個別に禁止していてはキリがありません
重要なのは、「使わせない」のではなく「安全に使える環境を整える」ことです。
現実的な解決策:「使わせながら守る」アプローチ
ステップ1:AI利用ポリシーを策定する
まず、会社として「どのAIを」「どの情報を使って」「誰が」利用してよいのかを明文化します。ポリシーなしに禁止・許可を議論しても、社員は基準を持てません。
ステップ2:法人向けAI契約(API利用)に切り替える
OpenAI・Anthropic・Googleはいずれも法人向けAPIプランを提供しており、データが学習に使用されない契約が可能です。個人アカウントでの業務利用を禁止し、法人管理のアカウントのみ許可します。
ステップ3:PII自動検知・マスキングツールを導入する
ポリシーがあっても、社員が意図せず個人情報を入力してしまうことはゼロにはなりません。そこで有効なのが、AIへの入力データを自動でスキャンし、個人情報を検知・マスキングしてから送信する仕組みです。
PII Firewallは、まさにこの用途のために設計されたツールです。
- 氏名・住所・電話番号・マイナンバー・クレジットカード番号など24種類のPIIを自動検知
- 検知したPIIを仮名(プレースホルダー)に置き換えてからAIに送信
- AIの回答に含まれる仮名を元の情報に復元して社員に返す
- 社員はシームレスにAIを使いながら、機密情報はAIサーバーに渡らない
さらに、プロンプトインジェクション攻撃の検知機能(10カテゴリ・155以上のパターン)により、業務で扱うドキュメントを介した攻撃も事前にブロックします。
まとめ:シャドーAI対策は「ガバナンス × 技術」の両輪で
| 対策 | 内容 |
|---|---|
| ポリシー策定 | 利用可能なAI・情報の範囲を明文化 |
| 法人契約への切り替え | データが学習に使われない環境を確保 |
| PII自動検知・マスキング | 入力段階で機密情報の流出を防止 |
| 従業員教育 | リスクを知った上で正しく使う文化を醸成 |
| ログ・監査 | いつ・誰が・何をAIに入力したか把握 |
シャドーAIは「社員のモラル問題」ではありません。仕組みで防ぐことができる構造的な問題です。IPAが発表した「AIセキュリティ短信2026年3月号」でも、AIを活用したサイバーリスクへの技術的対策の重要性が強調されています。今こそ、AIガバナンスの整備に取り組む時期です。
関連用語
- PII(個人識別情報): 氏名・住所・マイナンバーなど、個人を特定できる情報
- シャドーIT: 会社の許可なく社員が使うITサービス全般
- プロンプトインジェクション: AIに悪意ある指示を埋め込む攻撃手法
- AIガバナンス: 組織としてAIの利用ルールを定め管理する仕組み