ChatGPTに顧客リストを貼り付けた瞬間、そのデータは自社の外に出ている。
これ、冗談じゃない。2023年、Samsung社の社員がChatGPTに社内のソースコードと会議録を入力して、機密情報が外部に流出した。Bloombergが報じたこの事故をきっかけに、Samsungは全社でChatGPTの利用を一時禁止した。大企業でさえこうなるのだから、セキュリティ専任者のいない中小企業はもっと危うい。
僕自身、先日あるAIブラウザ操作ツールのセキュリティ検証をやった。結論は「便利だけど、社内データを扱わせるにはリスクあり」。利用範囲を公開情報の調査だけに限定した。この判断ができたのは、事前にチェックリストを用意していたからだ。5分の確認が、数千万円規模の損害を未然に防いだかもしれない。
この記事では、ChatGPTを中心に「社内でAIツールを安全に使うためのルールの作り方」を具体的に書いていく。テンプレートもそのまま載せるので、自社に合わせてカスタマイズしてほしい。
ChatGPTの情報漏洩リスク──何がどこに送られるのか
従来のツール(Excel、freee、kintoneなど)は、データが自分のPCか契約先のクラウドに留まるのが基本だった。ChatGPTは根本的に仕組みが違う。
入力した内容は、OpenAIのサーバーに送信されて処理される。 つまり「自社の外」に出る。
具体的にどんなリスクがあるか。
- 顧客名簿をChatGPTに整理させた → 氏名・電話番号・メールアドレスがOpenAIのサーバーへ
- 売上データの分析を頼んだ → 未公開の経営数値が外部へ
- 契約書の要約を依頼した → 取引先との機密条項が外部へ
ここで厄介なのが、ChatGPTの無料プラン(Web版)はデフォルトで入力データがモデルの学習(AIの性能改善)に使われる設定になっている点だ。つまり、入力した情報がOpenAIのAI改善に利用され、最悪のケースでは他のユーザーへの回答に反映される可能性がゼロではない。
「便利」と「危険」は紙一重。ここを理解したうえで、次のセクションから具体的な対策に入る。
ChatGPTの学習オフ設定──まずここから始める
社内でChatGPTを使うなら、最初にやるべきは「学習オフ」の設定だ。手順は簡単で、1分もかからない。
Web版ChatGPTの場合
- ChatGPTにログイン
- 左下の自分のアイコン → 「Settings(設定)」を開く
- 「Data controls(データ管理)」を選択
- 「Improve the model for everyone」をオフにする
これだけで、入力データがモデル学習に使われなくなる。ただし注意点がある。この設定はアカウントごと。社員が10人いれば、10人全員が個別にオフにしないと意味がない。誰か1人でもオンのままなら、その社員が入力したデータは学習に使われる。
API経由の場合
OpenAIのAPI利用規約では「API経由のデータはモデル学習に使わない」と明記されている。社内ツールにChatGPTを組み込む場合はAPI経由のほうがセキュリティ面で有利だ。ただしAPIは従量課金で、月額コストは利用量次第で変動する。
ちなみに余談だけど、僕は1Passwordとopxコマンドでシークレット管理をしている。APIキーをコードに直書きするのは論外なので、環境変数で管理するのが鉄則だ。
Web版 vs API vs Team/Enterprise──どのプランを選ぶべきか
ChatGPTには複数のプランがあり、セキュリティレベルが全然違う。ここを理解せずに「とりあえず無料版で」と始めるのは危険だ。
無料プラン(Free)
- データは学習に使われる(オプトアウト可能だが手動設定が必要)
- 会話履歴はユーザーが削除しない限り無期限保存
- アクセス権限管理なし
- 監査ログなし
- 正直、業務利用には向かない
Plus / Pro プラン(個人有料)
- 学習オフ設定が可能
- 会話履歴の管理は無料版と同じ
- アクセス権限管理なし
- 個人のフリーランスや1人社長なら、学習オフにして使う選択肢はある
Team プラン(月額25ドル〜/ユーザー)
- デフォルトでデータがモデル学習に使われない
- ワークスペースごとの管理機能あり
- 管理者がメンバーの設定を一括管理できる
- 5人以上の組織なら、ここが現実的な選択肢
Enterprise プラン(要問い合わせ)
- SOC2 Type II準拠のセキュリティ
- SSO(シングルサインオン)対応
- 監査ログの完全記録
- データの保存場所を指定可能
- 専任のアカウントマネージャー
- 大企業やセキュリティ要件が厳しい業種(医療、金融、士業など)向け
中小企業の場合、現実的にはTeamプランが落としどころだろう。月額25ドル(約3,800円)は安くないが、情報漏洩1件で発生する損害と比べれば誤差のようなもの。
ChatGPT以外のAIツール──Claude、Gemini、Copilotのセキュリティ比較
ChatGPTだけが選択肢じゃない。他の主要AIツールのセキュリティ方針も押さえておこう。
Anthropic Claude
Claudeは、無料版・有料版ともにユーザーの入力データをモデル学習に使わない方針を公表している。これはかなり大きなアドバンテージだ。APIも同様。Enterprise版ではSSO、監査ログ、データ保存場所の指定にも対応している。僕は普段Claude Codeのスキル機能を活用しているが、入力データの扱いに関してはChatGPTより一歩先を行っている印象がある。
Google Gemini
無料版のGeminiは、入力データがGoogleのAI改善に使われる可能性がある。Google Workspace版(Gemini for Google Workspace)であれば、データは学習に使われないとGoogleは明記している。すでにGoogle Workspaceを契約している企業なら追加導入のハードルは低い。
Microsoft Copilot
Microsoft 365に組み込まれたCopilotは、組織のデータが外部に出ない設計になっている。Microsoft 365のセキュリティ基盤(Azure AD、条件付きアクセスなど)をそのまま活用できるのが強み。ただし無料のBing Chat(Copilot)は、Microsoft 365版とはセキュリティレベルが別物なので混同しないこと。
どのツールを選ぶにしても、共通する原則は同じだ。「無料版は業務利用に向かない」「有料版でも設定の確認は必須」「APIのほうがWeb版よりセキュリティ面で有利」。この3点は覚えておいてほしい。
導入前に5分で確認──セキュリティチェックリスト7項目
新しいAIツールを導入する前に、以下の7項目を確認する。プライバシーポリシーと利用規約を開いて、Ctrl+Fで検索するだけの作業だ。
① データの送信先
入力したデータはどこに送信されるか。サーバーの所在地は国内か海外か。
米国にサーバーがある場合、CLOUD Act(米国政府がデータにアクセスできる法律)の対象になる可能性がある。EU圏のGDPR対象国であれば厳格なデータ保護が義務付けられるが、それ以外の地域は慎重に判断したい。
規約内の検索キーワード:「data center」「server location」「data residency」
② データの学習利用
入力したデータがAIの学習に使われるか。オプトアウト(拒否)できるか。
前述のとおり、ChatGPTのWeb版無料プランはデフォルトで学習に使われる。APIは使われない。この違いは決定的に大きい。
規約内の検索キーワード:「training」「model improvement」「opt-out」
③ データの保存期間
入力したデータはいつまで保存されるか。削除できるか。
OpenAIのAPI利用規約では、データは最大30日間保存される(不正利用の監視目的)。ChatGPTの会話履歴は、ユーザーが削除しない限り無期限に保存される。退会後にデータが残るケースもある。
規約内の検索キーワード:「data retention」「deletion」「account termination」
④ セキュリティ認証
SOC2、ISO27001、ISMAPなどのセキュリティ認証を取得しているか。
SOC2はクラウドサービスのセキュリティ体制を第三者が監査した証明書のようなもの。ISO27001は情報セキュリティマネジメントの国際規格。ISMAPは日本政府のクラウドセキュリティ評価制度。認証があれば「一定水準以上のセキュリティ体制が第三者に確認済み」と判断できる。
⑤ アクセス権限の管理
ユーザーごとのアクセス権限を設定できるか。
全社員が同じ権限でアクセスできる状態は危ない。アルバイトスタッフが顧客の個人情報をそのままAIに入力してしまう、というシナリオは十分ありえる。「管理者」と「一般ユーザー」で権限を分けられるかどうかは必ず確認する。
⑥ 利用ログの記録
誰がいつ何を入力したかの記録(監査ログ)が残るか。
情報漏洩が起きたとき、「何が・いつ・誰によって外部に出たか」を追跡できるかどうかは対応速度に直結する。改正個人情報保護法では、個人データの漏洩時に本人への通知と個人情報保護委員会への報告が義務化されている。ログがなければ報告すらできない。
⑦ 利用規約の変更通知
利用規約やプライバシーポリシーの変更時に通知されるか。
AIサービスは規約を頻繁に更新する。OpenAIは2023年だけで利用規約を3回改定した。導入時は安全でも、半年後に規約が変わってデータの扱いが変わることは普通にある。変更通知がないサービスは、四半期に1回は自分で確認するルーチンを作るべきだ。
チェック結果の判定基準
7項目のチェックが終わったら、それぞれを「○(問題なし)」「△(条件付き)」「×(問題あり)」で判定する。
- ○が5つ以上 → 導入可
- △が3つ以上 → 条件付き導入(利用範囲を限定する。「公開情報のみ」「個人情報は入力しない」等のルールを設定)
- ×が2つ以上 → 導入見送り
「△」が多いツールでも、利用範囲を厳しく限定すれば使える場合はある。全部が○のツールのほうが珍しいので、判断基準を持っておくことが大事だ。
コピペで使える社内ルールテンプレート
ここからが本題。ChatGPTをはじめとする生成AIの社内利用ルールを、テンプレートとして載せる。Markdown形式なので、そのままNotionやGoogleドキュメントにコピペして、自社の事情に合わせて編集してほしい。
# 生成AI利用規程(社内ルール)
## 第1条 目的
本規程は、ChatGPTをはじめとする生成AIツール(以下「AIツール」)の
社内利用にあたり、情報漏洩リスクを防止し、安全かつ生産的な
活用を推進するために定める。
## 第2条 対象範囲
本規程は、当社の全役員および全従業員(正社員・契約社員・
アルバイト・派遣社員・業務委託を含む)に適用する。
## 第3条 利用が許可されるAIツール
以下のツール・プランのみ業務利用を許可する。
- ChatGPT Team プラン(学習オフ設定済み)
- ChatGPT API(社内ツール経由)
- [自社で承認済みのその他ツールを記載]
上記以外のAIツールを業務で使用する場合は、
情報システム担当者の事前承認を得ること。
## 第4条 入力禁止情報
以下の情報はAIツールに入力してはならない。
- 顧客の個人情報(氏名、住所、電話番号、メールアドレス等)
- 従業員の個人情報
- 未公開の経営数値(売上、利益、予算等)
- 契約書・NDA(秘密保持契約)の内容
- 取引先から秘密保持義務を課された情報
- パスワード、APIキー、アクセストークン等の認証情報
- ソースコード(社外秘のもの)
## 第5条 入力時の匿名化ルール
業務上やむを得ずデータをAIに入力する場合は、
以下の匿名化処理を行ってから入力すること。
- 人名 → 「ユーザーA」「担当者B」等に置換
- 社名 → 「A社」「B社」等に置換
- 住所 → 都道府県レベルまでに省略
- 金額 → 指数化(基準値100)またはパーセンテージに変換
- 日付 → 必要に応じて「2024年Q1」等に丸める
## 第6条 利用前の設定確認
ChatGPTを利用する全従業員は、初回利用前に以下の設定を確認すること。
- 「Improve the model for everyone」がオフになっていること
- 会話履歴の保存設定を確認していること
- 業務用アカウントと個人アカウントを分離していること
## 第7条 利用ログの管理
AIツールの利用にあたっては、以下の記録を残すこと。
- 利用日時
- 利用者名
- 利用したAIツール名
- 入力内容の概要(機密情報は記載しない)
- 出力結果の用途
管理者は四半期に1回、利用ログを確認し、
不適切な利用がないか監査を行う。
## 第8条 出力内容の取り扱い
AIツールの出力は「下書き」として扱い、
そのまま社外に公開・送信してはならない。
- 事実関係は必ず一次情報で裏取りすること
- 著作権侵害のリスクがないか確認すること
- 社外向け文書(提案書、契約書、プレスリリース等)に
AI出力を使用する場合は、上長の確認を得ること
## 第9条 インシデント対応
AIツールを通じた情報漏洩またはその疑いが発生した場合は、
直ちに以下の手順で対応すること。
1. 該当するAIツールの利用を即時停止
2. 情報システム担当者に報告(発覚から24時間以内)
3. 漏洩した情報の範囲を特定
4. 個人情報が含まれる場合は個人情報保護委員会に報告
5. 影響を受ける本人に通知
6. 再発防止策を策定・実施
## 第10条 規程の見直し
本規程は、AIツールの技術進化・法改正・
社内運用状況に応じて、少なくとも年1回見直しを行う。
制定日:20XX年XX月XX日
最終改定日:20XX年XX月XX日
このテンプレートをベースに、自社の業種・規模・扱う情報の機密度に合わせてカスタマイズする。たとえば医療系なら「患者情報」を入力禁止に明記する、ECなら「クレジットカード情報」を追加する、といった具合だ。
ポイントは、ルールを作って終わりにしないこと。全社員に周知して、形骸化しないように四半期に1回は見直す。ルールが実態と乖離し始めたら、その時点でルールの意味がなくなる。
実践ステップ──今日から始める3つのアクション
ここまで読んで「やることが多い」と感じたかもしれない。でも全部を一気にやる必要はない。
今日やること(15分)
まず、社内で使っているAIツールを棚卸しする。ChatGPT、Gemini、Copilot、その他のAIサービス。誰が何を使っているか把握できていない会社は多い。「え、うちの新人、無料版のChatGPTに議事録そのまま貼り付けてたの?」──こういう発見が普通にある。
今週やること(1時間)
上のテンプレートをコピーして、自社版の利用規程を作る。完璧じゃなくていい。まず「入力禁止情報」と「許可するツール・プラン」だけ決めて全社に共有する。ルールがゼロの状態と、最低限のルールがある状態では、リスクが桁違いに変わる。
今月やること(半日)
ChatGPTの学習オフ設定を全社員のアカウントで確認する。Teamプランへの移行を検討する。7項目のセキュリティチェックを既存ツールに対して実施する。ここまでやれば、中小企業としてはかなり手厚い対策だ。
Before / After
Before 「このAI便利そう」→ 即登録 → 顧客データを入力 → 「学習に使われる」設定を知らない → 問題が起きてから慌てる
After 「このAI便利そう」→ 7項目チェック(5分)→ 利用プラン判定 → 社内ルール策定 → 学習オフ設定確認 → 利用範囲を決定して安全に活用
AIは「使わない」が正解じゃない。「ルールを決めて使う」が正解だ。
そのための準備に必要な時間は、テンプレートのコピペを含めても1時間程度。1時間の投資で、情報漏洩インシデントによる数千万円の損害リスクと、顧客からの信頼喪失を防げると考えれば、やらない理由のほうが見つからない。
参考文献
- IPA「情報セキュリティ10大脅威 2024」 https://www.ipa.go.jp/security/10threats/
- OpenAI「Usage Policies」 https://openai.com/policies/usage-policies
- OpenAI「API Data Usage Policy」 https://openai.com/enterprise-privacy
- OpenAI「ChatGPT Team」 https://openai.com/chatgpt/team
- 個人情報保護委員会「改正個人情報保護法について」 https://www.ppc.go.jp/personalinfo/legal/kaiseihogohou/
- Bloomberg「Samsung Bans Staff's AI Use After Spotting ChatGPT Data Leak」(2023) https://www.bloomberg.com/news/articles/2023-05-02/samsung-bans-chatgpt-and-other-generative-ai-use-by-staff-after-leak
- Verizon「2024 Data Breach Investigations Report」 https://www.verizon.com/business/resources/reports/dbir/
- NIST「AI Risk Management Framework」 https://www.nist.gov/artificial-intelligence/ai-risk-management-framework
- Anthropic「Claude Usage Policy」 https://www.anthropic.com/usage-policy







