← ブログ一覧に戻る
AIガバナンス・規制

シャドーAIとは?社員が勝手に
ChatGPTを使うリスクと会社がすべき対策

📅 2026年4月7日 ⏱ 読了時間 約7分

この記事で分かること


シャドーAIとは?「黙って使っている」が生む見えないリスク

「シャドーIT」という言葉をご存知でしょうか。会社の許可を取らずに、社員が個人的にクラウドサービスやアプリを使ってしまう現象です。Dropboxで社外に書類を送ったり、LINEで仕事の話をしたり——これが昔ながらのシャドーITです。

今、これと同じ問題がAIの世界で爆発的に広がっています。それが「シャドーAI」です。

シャドーAIとは、会社の許可・管理なしに、社員が業務でChatGPTやClaude、Geminiなどの生成AIを使っている状態のことを指します。

なぜ黙って使うのか?

社員の立場から見れば、動機は単純です。「使うと仕事が速くなる」からです。

2026年4月時点でのIPA(独立行政法人情報処理推進機構)の報告でも、「AIの利用をめぐるサイバーリスク」が情報セキュリティ10大脅威の3位に初選出されました。シャドーAIはその代表的なリスク源のひとつです。


社員が何を入力しているか、あなたは把握していますか?

問題の核心は、社員がAIに何を入力しているかを会社が全く把握できていないことです。

よく見られる「危険な入力」の実例

ケース1:営業担当者が顧客情報をそのまま貼り付ける

「この顧客の課題を整理してほしい」と、顧客名・連絡先・取引金額・課題をすべてコピペ。ChatGPTはその情報をもとに回答しますが、そのデータはOpenAIのサーバーに送信されます。

ケース2:人事担当者が社員の個人情報を入力する

「この評価シートをまとめてほしい」と、社員の氏名・役職・給与・評価コメントを入力。個人情報保護法の観点から本人の同意なく第三者(AIサービス事業者)に提供したことになりえます。

ケース3:医療・法律・金融職が機密情報を入力する

「この患者の症状を整理して診断の参考にしてほしい」「この契約書の問題点を教えてほしい」——守秘義務のある情報がAIに送られるケースは、専門職の業界でも頻発しています。

ChatGPTはそのデータをどう扱うのか?

OpenAIのAPIを通じた利用(法人契約)では学習に使用しない設定が可能ですが、無料・個人アカウントでの利用では、入力データが改善目的で使用される可能性があります。社員が個人アカウントで会社の機密情報を入力した場合、その情報の扱いはOpenAIのプライバシーポリシーに委ねられます。


シャドーAI問題の3つのリスク

リスク1:個人情報・機密情報の漏洩

個人情報保護法では、個人データを本人の同意なく第三者に提供することは原則として禁止されています。社員の「善意の業務効率化」が、会社の法令違反につながるケースがあります。

リスク2:守秘義務違反

弁護士・医師・会計士・税理士などの士業は、職業倫理として守秘義務を負っています。クライアントの情報をAIに入力することが守秘義務違反にあたる可能性があり、最悪の場合、資格取り消しや損害賠償の対象になりえます。

リスク3:プロンプトインジェクション攻撃のリスク

社員が業務でAIを使う際、悪意ある第三者が仕込んだドキュメント(PDFや電子メール)を処理させるだけで、AIが意図しない動作をする「間接型プロンプトインジェクション」攻撃が起きる可能性があります。これはAIエージェントが普及した現在、深刻なリスクです。


「禁止」だけでは解決しない

多くの企業がまず取る対策は「ChatGPTの使用を禁止する」ことです。しかし、これは現実的に機能しません。

重要なのは、「使わせない」のではなく「安全に使える環境を整える」ことです。


現実的な解決策:「使わせながら守る」アプローチ

ステップ1:AI利用ポリシーを策定する

まず、会社として「どのAIを」「どの情報を使って」「誰が」利用してよいのかを明文化します。ポリシーなしに禁止・許可を議論しても、社員は基準を持てません。

ステップ2:法人向けAI契約(API利用)に切り替える

OpenAI・Anthropic・Googleはいずれも法人向けAPIプランを提供しており、データが学習に使用されない契約が可能です。個人アカウントでの業務利用を禁止し、法人管理のアカウントのみ許可します。

ステップ3:PII自動検知・マスキングツールを導入する

ポリシーがあっても、社員が意図せず個人情報を入力してしまうことはゼロにはなりません。そこで有効なのが、AIへの入力データを自動でスキャンし、個人情報を検知・マスキングしてから送信する仕組みです。

PII Firewallは、まさにこの用途のために設計されたツールです。

さらに、プロンプトインジェクション攻撃の検知機能(10カテゴリ・155以上のパターン)により、業務で扱うドキュメントを介した攻撃も事前にブロックします。


まとめ:シャドーAI対策は「ガバナンス × 技術」の両輪で

対策内容
ポリシー策定利用可能なAI・情報の範囲を明文化
法人契約への切り替えデータが学習に使われない環境を確保
PII自動検知・マスキング入力段階で機密情報の流出を防止
従業員教育リスクを知った上で正しく使う文化を醸成
ログ・監査いつ・誰が・何をAIに入力したか把握

シャドーAIは「社員のモラル問題」ではありません。仕組みで防ぐことができる構造的な問題です。IPAが発表した「AIセキュリティ短信2026年3月号」でも、AIを活用したサイバーリスクへの技術的対策の重要性が強調されています。今こそ、AIガバナンスの整備に取り組む時期です。


関連用語

シャドーAIを「安全なAI活用」に変える

PII Firewallを導入すれば、社員が使いたいAIを使いながら個人情報漏洩を自動防止できます。

🚀 無料で始める