コラム > 選び方

社内AI利用ガイドライン テンプレート【2026年版】そのまま使える雛形付き

2026-03-23 公開8分選び方

なぜ社内ガイドラインが必要か

AIの業務利用を「個人の判断」に委ねるのは危険だ。社員がどのAIツールに何を入力するかは、企業の情報セキュリティに直結する。

2024年4月に総務省・経済産業省が策定した「AI事業者ガイドライン」(2025年3月に第1.1版へ改訂)では、AI利用者に対しても適切なリスク管理が求められている。社内ガイドラインはこの要請に応える第一歩であり、法的リスクの低減、情報漏洩の防止、そして全社員が安心してAIを活用できる環境づくりに不可欠だ。

Pick AIの安全性テストでは、モデル間で最大24.4点の差(Claude 93.7点 vs Grok 69.3点)があった。どのモデルを承認するかの判断基準を含め、組織としてのルール整備が急務だ。

項目1: 利用可能なAIツールの指定

ガイドラインの最重要項目は、会社が承認したAIツールの明示的なリスト化だ。

承認の基準として推奨するのは以下の3条件。(1)法人プランが提供されており、デフォルトでモデル学習にデータが使用されないこと。(2)SOC 2 Type II以上のセキュリティ認証を取得していること。(3)データ処理地域が自社のポリシーと合致していること。

Pick AIの安全性テストと公式認証情報に基づくと、ChatGPT Team/Enterprise(SOC 2、ISO 27001、学習不使用)、Claude Team/Enterprise(SOC 2、ISO 27001、ISO 42001、HIPAA BAA対応)、Gemini for Workspace Business Standard以上(Google Cloud認証群、学習不使用)が現時点で承認候補になる。

未承認ツールの利用は原則禁止とし、新しいツールの利用希望がある場合は承認プロセスを経ることを明記すべきだ。

項目2: 入力禁止情報の定義

どのツールを使うかに関わらず、AIに入力してはならない情報を明確に定義する。曖昧な表現ではなく、具体的なカテゴリと例を示すことが重要だ。

絶対禁止(レベル1): 顧客の個人情報(氏名、連絡先、購買履歴)。人事情報(給与、評価、健康情報)。マイナンバー、クレジットカード番号、銀行口座情報。取引先とのNDA対象情報。アクセスキー、パスワード、APIトークン。

原則禁止・上長承認が必要(レベル2): 未公開の財務データ(売上、利益、予算、中期計画)。プロプライエタリなソースコード。取引先との契約内容。社内の戦略資料、M&A関連情報。

注意して利用可(レベル3): 公開済みの製品情報。一般的な業界情報のリサーチ。文章の校正やブレインストーミング。

レベル分けを設けることで、全面禁止ではなく実務的な運用が可能になる。

項目3: 利用可能な業務範囲と項目4: 出力の検証義務

AIを使ってよい業務と、使うべきでない業務を線引きする。

利用OK: 一般的な文章校正・推敲。アイデア出し・ブレインストーミング。公開情報に基づくリサーチ。社内向けの資料ドラフト作成。コードのリファクタリング(機密でない部分)。

要注意(機密レベルによる): 社内文書の要約。議事録の構造化。顧客向け文書のドラフト。

NG: 顧客データを入力しての分析。人事評価や採用判断の補助。法的文書の最終版作成。医療情報に基づく判断。

出力の検証義務も明記すべきだ。AIの出力をそのまま顧客に送信することは禁止する。数値データは必ず原典で確認する。法的・医療的・財務的な情報は、専門家の確認を経てから使用する。AIの出力を最終成果物にする前に、人間のレビューを必ず挟む。

この「人間によるレビュー必須」のルールは、AIの精度に関わらず堅持すべきだ。

項目5: アカウント管理と項目6: インシデント対応

アカウント管理では以下を規定する。業務でのAI利用には必ず法人アカウントを使用し、個人アカウントの業務利用は禁止する。法人アカウントの発行・管理はIT部門が一元管理する。退職時のアカウント処理手順を定め、退職日当日にアカウントを無効化する。共有アカウントの使用は禁止し、1人1アカウントを徹底する。

インシデント対応も不可欠だ。誤って機密情報をAIに入力してしまった場合の対応手順を以下のように定める。(1)直ちに当該チャットを削除する。ChatGPTの場合は左サイドバーから該当チャットを削除。Claudeの場合は会話を削除。(2)情報セキュリティ担当者(CISO/IT部門)に報告する。報告内容は日時、使用ツール名、入力した情報の概要、削除の有無。(3)情報セキュリティ担当者がリスクを評価し、必要に応じてAIプロバイダーへのデータ削除要請、関係者への通知を実施する。

報告をためらわない文化づくりが重要だ。インシデント報告を理由に懲罰しないことを明記し、迅速な報告を促す。

項目7: 定期見直しとテンプレート

AIの進化は速い。ガイドラインは四半期ごとに見直しを行い、新しいツールの追加承認、ポリシー変更への対応、社員からのフィードバック反映を実施する。新しいAIツールの承認プロセスは、申請者がツール名・利用目的・対象データを記載した申請書を提出し、IT部門がセキュリティ評価を実施し、CISO承認の上で承認リストに追加する流れとする。

以下にそのまま使えるガイドラインテンプレートの骨格を示す。

---
{会社名} AI利用ガイドライン 第1.0版 制定日: {日付} 管理部門: {部署名}

第1条(目的)本ガイドラインは、{会社名}における生成AIツールの適切な業務利用を定め、情報セキュリティの確保と業務効率の向上を両立することを目的とする。

第2条(適用範囲)本ガイドラインは、{会社名}の全役職員(派遣社員、業務委託先を含む)に適用する。

第3条(承認済みツール)業務で利用可能なAIツールは別表1に定める。別表1に記載のないツールの業務利用は禁止する。

第4条(入力禁止情報)別表2に定めるレベル1情報はいかなるAIツールにも入力してはならない。レベル2情報は上長の事前承認を必要とする。

第5条(出力の取扱い)AIの出力を社外に送信する場合は、担当者が内容を確認した上で行う。数値データは原典との照合を必須とする。

第6条(アカウント管理)法人アカウントを使用する。個人アカウントでの業務利用は禁止する。

第7条(インシデント対応)機密情報を誤って入力した場合、直ちに{報告先}に報告する。

第8条(改訂)本ガイドラインは四半期ごとに見直しを行う。
---

参考: 日本のAI関連法規制の現状

2026年3月時点で、AIの業務利用に関連する主な日本の法規制は以下の3つだ。

AI事業者ガイドライン: 総務省・経済産業省が2024年4月に策定し、2025年3月に第1.1版へ改訂。法的拘束力はないが、AI利用者を含む各主体の責務を示す実質的な行動規範だ。プライバシー保護、透明性確保、リスク管理を求めている。

個人情報保護法: AIへの個人情報の入力は個人情報の「提供」に該当し得る。第三者提供の制限(法第27条)に抵触しないよう、AIプロバイダーの利用規約とデータ処理の実態を確認する必要がある。法人プランでデータが学習に使用されない場合でも、入力した個人情報がサーバーに送信される点は変わらない。

著作権法第30条の4: AI学習段階では、著作物の「享受」を目的としない場合に限り、著作権者の許諾なく利用可能。ただし著作権者の利益を不当に害する場合は適用外。AI出力物が既存著作物に類似する場合は通常の著作権侵害と同様に判断される。文化庁が2024年3月に「AIと著作権に関する考え方」を公表している。

これらの法規制は今後も改訂が予想される。社内ガイドラインの定期見直しで最新の法規制に追従することが重要だ。詳細はPick AIの安全性特集ページで確認できる。