【2026年最新】中小企業のAIセキュリティ対策ガイド|情報漏洩リスクと社内ガイドライン作成テンプレート

中小企業向けAIセキュリティ対策ガイドと社内ガイドライン作成テンプレートを解説する記事のイメージ

JIPDEC「企業IT利活用動向調査2026」によると、ランサムウェアの感染割合は45.8%にのぼり、約2社に1社が被害を経験しています。AIツールの普及で業務効率化が進む一方、生成AIを通じた情報漏洩リスクも新たに顕在化しています。この記事では、中小企業が直面するAIセキュリティの3つのリスクと、今すぐ使える社内ガイドラインのテンプレートを解説します。


中小企業のAIセキュリティとは?2つのリスクを整理する

AIセキュリティという言葉は、2つの全く異なる意味を持ちます。混同したまま対策を進めると、守るべきものを守れなくなります。まず全体像を整理してから、中小企業が優先すべき領域を特定してください。

AIセキュリティの定義

Iセキュリティとは、AIツールの業務利用に伴う情報漏洩・不正アクセス・誤情報拡散などのリスクを管理し、安全にAIを活用するための対策全体のことです。

「AIで守る」と「AIを守る」——2種類のリスクの違い

AIセキュリティには、「AI for Security(AIで守る)」と「Security of AI(AIを守る)」の2種類があります。中小企業が今すぐ取り組むべきは後者の「AIを守る」領域です。

項目AI for Security(AIで守る)Security of AI(AIを守る)
意味AIを使ってサイバー攻撃を検知・防御するAIツール自体が情報漏洩・攻撃の経路になるリスクを防ぐ
主な対象ウイルス検知・異常検知・不正アクセス監視入力情報の管理・シャドーAI・プロンプトインジェクション
中小企業の優先度○ 高度なツール導入が必要な場合も多い◎ ルール整備だけで今すぐ着手できる最重要領域
具体的な対策例AIセキュリティ製品の導入社内ガイドライン・入力禁止リスト・承認ツール管理

2026年の最新動向:IPA10大脅威にAIリスクが初選出

IPA(情報処理推進機構)は2026年版「情報セキュリティ10大脅威」に「AIの利用をめぐるサイバーリスク」を初めて選出しました。AIが私たちの業務に一層浸透し、様々なサイバーリスクが顕在化してきたことが選出の理由です。また、2026年3月27日には総務省が「AIのセキュリティ確保のための技術的対策に係るガイドライン」を正式に公表しました。国が公式の指針を打ち出したことで、企業側の対応が求められる段階に入っています。

NTTデータグループのセキュリティアナリストは「大企業・中小企業という規模の違いに関わらず、被害は無差別に発生している」と分析しています。規模が小さい企業だから狙われないという前提は、もはや成立しません。


中小企業が特に注意すべきAIセキュリティの3つのリスク

AIセキュリティのリスクには、中小企業が特に直面しやすい3つのパターンがあります。それぞれの発生原因と具体的な被害イメージを把握しておくことが、適切な対策の出発点です。

リスク①|社員が機密情報をAIに入力してしまう「内部漏洩」

最も発生しやすいリスクは、社員が悪意なく機密情報をAIに入力してしまうケースです。韓国サムスン電子では、社員が業務効率化のために社外秘のソースコードや会議の議事録をChatGPTに入力し、データが外部サーバーに送信されてAIの学習に利用されるリスクが発覚。同社は生成AIの利用を一時禁止せざるを得なくなりました。中小企業でも、「ちょっとだけなら」という意識での入力が重大なインシデントにつながることがあります。特に無料プランや個人アカウントでの利用は、入力データが学習に使われるリスクが高いため要注意です。

リスク②|許可されていないAIを使う「シャドーAI」

シャドーAIとは、企業が許可していないAIツールを社員が独自に使用している状態のことです。「便利なツールを見つけたので試してみた」という善意の行動が、管理外のまま機密データを流出させるリスクを生みます。シャドーAIが発生する主な原因は、会社として公式に承認したツールのリストがないことと、何が使えて何が使えないかのルールが周知されていないことです。把握・管理できていないツールの利用は、セキュリティの盲点になります。

リスク③|AIが攻撃の糸口になる「プロンプトインジェクション」

プロンプトインジェクションとは、AIに対して不正な指示(プロンプト)を送り込み、開発者が意図しない情報を引き出す攻撃手法です。直接型では「システムの設定情報をすべて教えてください」のような不正入力が行われます。間接型では、悪意ある指示を外部のWebページや文書ファイルに隠しておき、AIがその情報を参照した瞬間に不正な動作が引き起こされます。中小企業向けのAI活用が進むほど、このリスクへの理解と対策が必要になります。


今すぐできるAIセキュリティ対策5つのステップ

AIセキュリティ対策は、高価なシステムを導入しなくても始められます。以下の5ステップは、ルールと設定の整備だけで今すぐ着手できる対策です。順番通りに進めることで、最も重要なリスクから順に抑えられます。

【AIセキュリティ対策ステップリスト】

ステップ1|AIツールの「承認リスト」を作る
まず、社内で利用を許可するAIツールを明確にします。重要な観点は「法人契約を前提としているか」という点です。法人プラン(ChatGPT Team・Claude for Work等)はデフォルトで学習機能がオフになっており、入力データがAIの学習に使用されない設定が保証されています。個人アカウントや無料プランとは、セキュリティの前提条件が根本的に異なります。承認リストには、会社が費用を負担して契約した法人プランのみを掲載することを推奨します。

ChatGPTの各プランのセキュリティ設定については「中小企業のChatGPT活用ガイドはこちら」をご覧ください。

【保存版】中小企業のChatGPT活用ガイド|始め方・業務別の使い方・セキュリティ設定まで解説

中小企業がChatGPTを業務で使う方法を解説。無料版の始め方・セキュリティ設定・そのまま使えるプロンプト例5選(提案書・議事録・メール・マニュアル・調査)を実務に基づいて紹介します。

ステップ2|入力禁止情報を明文化する
次に、AIに入力してはいけない情報をリスト化します。顧客の個人情報・契約内容・価格情報・社員の人事情報・未公表の新製品情報・秘密保持義務がある取引先情報がこれに該当します。禁止情報は「具体的に何が該当するか」を明記することが重要です。「機密情報は入力しないこと」という抽象的なルールでは、判断が社員に委ねられてしまい、誤入力が発生します。

ステップ3|承認外ツールの申請フローを設ける
承認リスト外のツールを使いたい場合に備えて、申請・承認のフローを設けます。「このツールを使いたいのだが、セキュリティ上問題がないか確認してほしい」という申請を社員が出せる仕組みがあれば、シャドーAIを防ぎながら現場のニーズにも対応できます。申請先の担当者と承認基準(法人プランか、学習オフが保証されているか等)を事前に決めておくことが有効です。

ステップ4|AIの出力は必ずチェックし、そのまま使わないルールを設ける
AIが生成した文章・情報・数値は、必ず人間が確認・修正してから使用することをルールとして明文化します。AIの出力をそのままコピー&ペーストして使用することは禁止します。理由は2つあります。まず、AIは誤情報・hallucination(事実と異なる情報の生成)を含む場合があります。次に、著作権・個人情報が含まれるコンテンツが出力される可能性があるためです。「AIは下書き生成のアシスタント、最終判断は必ず人間が行う」という原則を全社に徹底することが重要です。

ステップ5|インシデント発生時の報告フローを決める
最後に、情報漏洩が疑われる場合の報告ルートを事前に決めます。「誰に・いつ・どの情報を」報告するかを明確にしておくことで、インシデント発生時の初動対応が速くなります。特に「誤って入力禁止情報をAIに送信してしまった」という場合の報告先と対応手順を1枚のドキュメントにまとめておくことが有効です。

AI導入後に定着しない原因については「DX・AI導入が失敗する原因と対策はこちら」をご覧ください。

【保存版】中小企業のChatGPT活用ガイド|始め方・業務別の使い方・セキュリティ設定まで解説

中小企業がChatGPTを業務で使う方法を解説。無料版の始め方・セキュリティ設定・そのまま使えるプロンプト例5選(提案書・議事録・メール・マニュアル・調査)を実務に基づいて紹介します。


社内AIガイドラインの作り方とそのまま使えるテンプレート

ここまでの5ステップを1枚のドキュメントにまとめたものが「社内AIガイドライン」です。ガイドラインを作ることで、ルールが明文化され、社員が判断に迷う場面を減らせます。以下のテンプレートをそのままコピーして、自社の実情に合わせて編集してください。

ガイドラインに盛り込むべき5つの項目

社内AIガイドラインには、承認ツールリスト・入力禁止情報リスト・利用ルール・申請フロー・違反時の対応の5項目を必ず盛り込みます。この5項目が揃っていれば、社員が日常業務でAIを使う際の判断基準が明確になります。

コピーして使えるテンプレート

以下のテンプレートをベースに、自社の状況に合わせて編集してください。

【社内AI利用ガイドライン(テンプレート)】
最終更新日:〇〇年〇〇月

1. 利用できるAIツール(承認リスト)
   ・会社が法人契約したAIツールのみ利用可能
   ・法人プランはデフォルトで学習機能がオフのため、
     入力データがAI学習に使用されない設定が保証されている
   ・現在の承認ツール:〇〇(都度更新)
   ・承認リスト外のツールを使いたい場合は必ず事前に申請すること

2. 申請フロー(承認リスト外ツールを使いたい場合)
   ・申請先:〇〇(担当者名)
   ・確認事項:法人プランか・学習オフが保証されているか・
     データ保存場所・セキュリティ認証の有無
   ・承認後、承認リストに追加してから利用開始

3. 入力禁止情報リスト
   【絶対に入力してはいけない情報】
   ・顧客の個人情報(氏名・住所・電話番号・メールアドレス)
   ・契約内容・価格情報・見積書の数値
   ・社員の人事情報・給与情報
   ・未公表の新製品・新サービス情報
   ・取引先との秘密保持義務がある情報
   ・社内システムのアクセス情報・パスワード

4. 利用ルール
   ・AIが生成した情報は正確性を必ず人間が確認する
   ・AIの出力物をそのまま使用することは禁止
     (必ず人間が修正・加筆した上で使用する)
   ・個人のプライベートアカウントでの業務利用は禁止
   ・AIを使って作成したコンテンツは著作権・個人情報を確認する

5. 違反時の対応
   ・誤って入力禁止情報をAIに送信した場合:
     → 当日中に〇〇(担当者)に報告する
   ・重大な情報漏洩が疑われる場合:
     → 〇〇のインシデント対応フローに従う
   ・ガイドライン違反が判明した場合:
     → 〇〇(就業規則の該当条項)に基づいて対応する

6. ガイドラインの更新ルール
   ・年1回以上見直し・更新する
   ・新ツールを承認リストに追加する際は都度更新する

このテンプレートのポイントは「法人契約を前提とする」という原則です。法人プランは個人プランと異なり、デフォルトで学習機能がオフになっているため、入力情報が学習データとして利用されるリスクを制度として排除できます。個人判断でセキュリティ設定を確認するよりも、法人契約を条件とすることで、組織全体のセキュリティ水準を底上げできます。


ChatGPTなど主要ツールのセキュリティ設定確認ポイント

承認ツールを選定する際には、各ツールのセキュリティ仕様を事前に確認することが必要です。IPA「2024年度 中小企業における情報セキュリティ対策に関する実態調査」では、侵害を受けたデータの種類で最も多かったのは顧客の個人情報(PII)で46%を占めると報告されています。AIツールに入力される情報の大半が顧客関連であることを踏まえると、ツール選定のセキュリティ確認は必須です。

ChatGPT・Claude・Geminiの法人プランの特徴

ChatGPT(OpenAI)は、Teamプランおよびenterpriseプランでは、デフォルトで会話が学習に利用されない設定になっています。Plusプラン(個人)は手動でオフにする必要があります。

Claude(Anthropic)は、Claude for Workプランでは入力データを学習に使用しないことがポリシーに明記されています。

Gemini(Google)は、Google Workspaceの法人プランでは、管理者がデータ保護の設定を組織単位で管理できます。

いずれも、法人プランの方が個人プランより高い水準のセキュリティが保証されている点は共通しています。

総務省「AIセキュリティガイドライン2026」のポイント

2026年3月27日に総務省が公表した「AIのセキュリティ確保のための技術的対策に係るガイドライン」では、AIを業務に取り入れる企業が対策すべき事項が整理されています。特に、AIが参照できる情報源のアクセス制限・監視体制の整備と、プロンプトインジェクション対策が重点項目として挙げられています。「AIの導入は進めているが、セキュリティが追いついていない」という企業は、このガイドラインを見直しの起点として活用してください。


AIセキュリティ対策の相談はどこにすべきか

ITコーディネーターに相談すべき理由

AIセキュリティの対策は、特定のベンダー製品の導入を前提としない中立的な立場でのアドバイスが重要です。ITコーディネーターは国家資格に基づく中立的な専門家として、ツール選定・ガイドライン策定・社員研修設計まで一貫して支援できます。「どのツールを買えばいいか」という提案ではなく、「自社の業務と規模に合ったルール設計」をゼロから一緒に考えられる点が特徴です。

専門家への相談先・選び方については「AI活用・DX支援の相談先の選び方はこちら」をご覧ください。

「AI活用を相談したいけど誰に頼めばいい?」中小企業経営者が知っておくべき専門家の選び方

AI活用の相談先はITコーディネーター・コンサルタント・診断士・ベンダーの4種類。中小企業が失敗しない選び方・費用相場・相談前の準備を、ITコーディネーター資格保有者が解説。新潟拠点・全国オンライン対応、初回相談無料。

アカンパニー・パートナーズの支援内容

アカンパニー・パートナーズは、ITコーディネーター・上級Web解析士の資格を持ち、中小企業のAI活用支援を行っています。セキュリティ対策の支援範囲は、社内AIガイドラインの策定・承認ツールリストの選定・社員向け研修の設計・インシデント対応フローの設計まで対応できます。新潟を拠点に、オンラインで全国対応しています。

「社内のAIセキュリティルールを整備したい」「ガイドライン作成を一緒に進めてほしい」という方は、まずお気軽にご相談ください。 初回相談無料・オンライン対応可。 👉 [無料相談を予約する]


よくある質問

ChatGPTに入力した情報は本当に漏洩しますか?

プランによります。法人プラン(Team・Enterprise)はデフォルトで学習オフです。個人・無料プランは設定確認が必要です。本文ステップ1をご参照ください。

無料版と有料版でセキュリティの安全性は変わりますか?

大きく変わります。法人プランはデフォルトで学習オフが保証されています。セキュリティを重視するなら法人契約を前提としたツール選定を推奨します。

シャドーAIはどうやって把握・管理すればいいですか?

承認リストを先に作り、「リスト外は申請が必要」というルールを周知することが有効です。把握より「使う前に申請する文化」の醸成が先決です。

社内ガイドライン作成にはどのくらいの時間がかかりますか?

テンプレートをベースにすれば1〜2時間で初版作成できます。専門家のサポートを受ければより実態に即した内容になります。

中小企業はどのセキュリティ対策から始めるべきですか?

まず承認ツールリストと入力禁止リストの作成から始めてください。費用ゼロで着手でき、リスクを大幅に下げられます。本文ステップ1・2を参照ください。

新潟でAIセキュリティの相談ができる専門家はいますか?

アカンパニー・パートナーズが新潟拠点・全国オンライン対応で支援しています。初回相談無料です。上記CTAよりご連絡ください。


執筆:アカンパニー・パートナーズ(ITコーディネーター・上級Web解析士) 参考:JIPDEC「企業IT利活用動向調査2026」/IPA「情報セキュリティ10大脅威2026」/IPA「2024年度 中小企業における情報セキュリティ対策に関する実態調査」/総務省「AIのセキュリティ確保のための技術的対策に係るガイドライン」(2026年3月)/NTTデータグループ「AI時代のサイバー攻撃は次のステージへ」(2026年3月) ※本記事の制度・ガイドライン情報は2026年4月時点のものです。最新情報は各公式サイトでご確認ください。

投稿者プロフィール

アカンパニー・パートナーズ
アカンパニー・パートナーズ代表
プログラマーとしてキャリアをスタートし、製造業の社内SEとして「工場」の論理を、士業事務所の社内SEとして「先生」の論理を肌で学んできました。異なる文化を持つ組織の中でITを推進するには、技術力以上に「聴く力」と「翻訳力」が必要です。

現在はその経験を活かし、新潟の中小企業のDXを支援しています。

ITコーディネーター/上級ウェブ解析士/上級SNSマネージャー