• ホーム
  • 生成AI業務利用ガイドラインの作り方|ChatGPT・Copilotの情報漏洩リスクと社内ルールの実装手順

生成AI業務利用ガイドラインの作り方|ChatGPT・Copilotの情報漏洩リスクと社内ルールの実装手順

生成AIと業務利用

ChatGPT・Microsoft Copilot・Google Geminiなど、生成AIの業務利用は中小企業にも急速に浸透しています。一方で、「会社として何を許可し、何を禁止するか」のルールがないまま現場が使い始めているケースが大半で、情報漏洩・著作権・誤情報といった新しいリスクが顕在化しています。

本記事では、生成AI業務利用に潜むリスクを整理した上で、中小企業が今すぐ作れる実用的なガイドラインの構成・盛り込むべき条項・実装手順をわかりやすく解説します。

生成AI業務利用で実際に起きているリスク

AI活用の現場

生成AIの利便性の裏側で、企業が直面している主なリスクは以下の6つです。

① 機密情報・個人情報の入力による情報漏洩

無料のChatGPT・Geminiなど、個人アカウントの無料プランは入力データがAIの学習に利用される設定が多くあります(オプトアウト可能なものもあり)。

顧客リスト・契約書・人事評価・社内議事録などを安易に入力すると、将来的に他のユーザーへの応答に断片的に現れる可能性があります。実際、海外大手企業ではエンジニアが社内ソースコードをChatGPTに入力したことが内部調査で判明し、生成AI利用を一時禁止する事例も発生しました。

② シャドーAI(会社が把握していないAI利用)

会社の許可・把握なしに、社員が個人アカウントで業務にAIを使っているケースが「シャドーAI」と呼ばれる現象です。

社員からすれば「便利だから使っている」だけですが、会社からは利用実態・入力情報・流出経路が見えないため、リスクを管理できません。多くの企業で「現場の生産性向上」と「ガバナンス欠如」のジレンマが発生しています。

③ 生成物の誤情報(ハルシネーション)

生成AIは、もっともらしい文章を生成する一方で、事実に反する情報を断定的に出力する「ハルシネーション」を起こします。

判例・法令・統計・製品仕様などをファクトチェックせずに顧客提案や社内資料に転用すると、企業としての信用問題に直結します。

④ 著作権・知財リスク

生成AIで作成したテキスト・画像・コードを、そのまま顧客提案や商用コンテンツに利用した場合、第三者の著作物を無自覚に流用している可能性があります。

特に画像生成AIや音楽生成AIは、著作物が学習データに含まれていることが多く、生成物の権利関係が不明瞭になりがちです。

⑤ プロンプトインジェクション・出力改ざん

外部から取得したテキスト(メール本文・Webページ等)を生成AIに読み込ませる際、悪意のある指示文が混入して、AIに不正な動作を行わせる「プロンプトインジェクション」が新しい脅威として登場しています。

RAG(社内データ検索とAIの組み合わせ)が普及するにつれ、企業システムに対する新たな攻撃ベクトルとして警戒が必要です。

⑥ 個人情報保護法・契約上の責任

顧客から預かった個人情報・取引先の機密情報を、契約上認められていない第三者サービス(生成AI含む)に提供する行為は、個人情報保護法違反・契約違反となる可能性があります。

特にBtoB契約では、機密保持条項(NDA)に「クラウドサービスへの開示は事前承諾が必要」と定めているケースが多く、安易なAI入力は契約違反のトリガーになり得ます。

主要生成AIサービスの「学習利用」整理

ガイドラインを作る前提として、各サービスが入力データをどう扱っているかを正確に把握する必要があります。

サービス/プラン 入力データの学習利用 業務利用の推奨度
ChatGPT 無料版・Plus(個人) 既定で学習に使用(設定でオプトアウト可) 業務利用は非推奨
ChatGPT Team/Enterprise/API 学習に使用しない(契約で保証) 業務利用OK
Microsoft 365 Copilot 学習に使用しない(商用データ保護) 業務利用OK
Microsoft Copilot Chat(商用データ保護付き) 学習に使用しない M365契約者は業務利用OK
Google Gemini for Workspace 学習に使用しない(契約で保証) 業務利用OK
Gemini 個人版(無料) 既定で学習に使用される可能性あり 業務利用は非推奨
Claude Pro/Team/Enterprise/API 既定で学習に使用しない 業務利用OK
不明な無料AIチャットサービス 扱い不明・規約も未整備な場合あり 業務利用は禁止すべき

※各サービスの規約は更新される可能性があります。導入前に必ず最新の利用規約・プライバシー条項を確認してください。

業務利用の基本ルール

ガイドラインの大原則は、「個人アカウント禁止/法人契約プランに一本化」です。

これにより、入力データの学習利用を防ぎつつ、SSO・MFA・利用ログ・管理者制御といった企業に必要な統制が可能になります。

ガイドラインに盛り込むべき7つの項目

ガイドライン文書

中小企業向けの実用的なガイドラインとして、最低限盛り込むべき条項は以下の7項目です。

① 利用目的・適用範囲の定義

  • 本ガイドラインが対象とする「生成AI」の定義(テキスト/画像/音声/コード生成等)
  • 業務利用と私的利用の区別
  • 適用対象(正社員/契約社員/業務委託先まで含めるか)

 

② 利用可能サービス・利用禁止サービスの明示

  • 業務利用OKのサービス・プランの一覧(例:M365 Copilot、ChatGPT Enterprise、Gemini for Workspace、Claude Team等)
  • 禁止するサービス(無料の個人アカウント、規約・運営元が不明なサービス等)
  • 申請ベースで利用可能とする「条件付き利用」の手続き

 

③ 入力禁止情報の定義

業務利用を許可するサービスでも、「入力してはいけない情報」を明確に列挙します。

  • 個人情報(顧客・取引先・社員)
  • 取引先から提供を受けた機密情報・契約書全文
  • 未公開の財務情報・人事情報・経営戦略
  • 未特許の発明・ノウハウ・ソースコード(守秘義務範囲)
  • パスワード・APIキー・認証情報

 

④ 生成物の取り扱いルール

  • 外部公開コンテンツ(顧客提案/Web/広告)への利用は管理者承認
  • 生成物のファクトチェック義務(特に法令・統計・判例)
  • 生成物に対する責任は利用者本人が負うことの明記
  • 著作権・商標・肖像権侵害が疑われる場合の事前確認手順

 

⑤ アカウント管理・認証ルール

  • 業務利用は会社契約の法人アカウントに限定
  • 個人メールアドレス・個人アカウントでの業務利用禁止
  • SSO・MFAの必須化
  • 退職時の即時アカウント無効化

 

⑥ ログ・モニタリング

  • 法人プランで取得可能な利用ログ・監査ログの定期確認
  • 不審なプロンプト・大量入力の検知ルール
  • ログ保管期間(法令・契約上の要件に応じて設定)

 

⑦ インシデント発生時の報告・対応

  • 機密情報の誤入力に気づいた場合の即時報告窓口
  • 報告者を非難しない「ノーブレーム文化」の明文化
  • 重大インシデント時のエスカレーション先(情シス/管理職/個情委)
  • 外部への影響が疑われる場合のインシデント対応プレイブック連携

 

中小企業向け|ガイドライン策定・実装ロードマップ

社内研修の様子

実際に社内に展開するまでの段取りを、5つのステップで整理します。

STEP 1|現状把握(1〜2週間)

  • 社員アンケートで「使っている生成AIサービス・利用シーン」を可視化
  • エンドポイント・プロキシのログから業務時間中のAIサービスアクセス状況を確認
  • シャドーAIの実態を把握し、リスクの大きい使い方を特定

 

STEP 2|利用方針の決定(1〜2週間)

  • 経営層・情シス・法務・人事を含む検討会で基本方針を合意
  • 「どのサービスを公式に許可するか」「個人アカウントを禁止するか」を決定
  • 既存契約のM365/Google Workspaceで利用可能な機能から優先検討

 

STEP 3|ガイドライン文書化と社内周知(2〜4週間)

  • 本記事の7項目を雛形にして、A4数枚規模の実用的な文書を作成
  • 全社員説明会・eラーニング・誓約書での周知徹底
  • 「禁止事項」だけでなく「推奨される使い方」も併記してネガティブ印象を軽減

 

STEP 4|法人プラン契約と利用環境整備(並行進行)

  • 業務利用を許可するサービスの法人プラン契約・SSO設定・MFA必須化
  • シャドーAIで使われていた個人アカウントの利用停止
  • 必要に応じてCASB/SWGで非承認AIサービスへのアクセス制限

 

STEP 5|モニタリングと継続改善(恒常運用)

  • 四半期ごとに利用ログ・アンケートで運用状況を確認
  • 新サービス・規約変更に応じてガイドラインを更新
  • 違反事例・近隣他社事例を共有し、社内のセキュリティ意識を維持

 

ガイドライン作成時の注意点

最後に、ガイドラインを「作って終わり」にしないためのポイントを3つ挙げます。

① 禁止だけのガイドラインは形骸化する

「あれもダメ・これもダメ」型のガイドラインは、現場の生産性を奪い、結果として「隠れて使う」シャドーAIを助長します。

「公式に推奨する使い方」「便利な活用例」「業務効率を高めるプロンプト例」も併記し、『安全に使う方法を会社が示している』形にすることが重要です。

② 経営層自身が率先して使う

経営層が「AIなんて」と距離を置く文化では、ガイドラインも軽視されがちです。経営層自身が法人プランを業務に活用し、自社のAI活用方針を発信することで、社員も安心して取り組めます。

③ 1年に1度は必ず更新する

生成AIの規約・機能・市場プレイヤーは半年単位で大きく変わります。『年1回の見直しを義務化』とガイドライン本文に明記し、定期的なアップデートを仕組みに組み込んでおきましょう。

まとめ:「禁止」ではなく「安全な使い方を会社が示す」へ

生成AIは、もはや一過性のトレンドではなく、業務基盤の一部として定着しています。

ガイドラインなしの放置は、情報漏洩・著作権侵害・契約違反・シャドーAI拡大といった見えない火種を抱えることにつながります。一方で、過度な禁止は現場の生産性を奪い、結果的にシャドーAIを増やします。

中小企業に必要なのは、完璧な規程ではなく「会社として安全な使い方を明示した、A4数枚の実用的なガイドライン」です。本記事の7項目と5ステップを叩き台に、自社の実態に合わせてカスタマイズしてください。

c-compe.comでは、生成AIを含む業務環境のセキュリティ対策(メールセキュリティ/DLP/MDR等)について複数ベンダーで比較・お見積もりできます。具体的な実装支援のご相談はお気軽にお問い合わせください。

 

お問合せはこちら➡