近年、ChatGPTをはじめとする生成AIは、業務効率化やアイデア創出の手段として中小企業でも急速に広がっています。一方で、使い方を誤ると「情報漏洩」と「著作権トラブル」が現実の損失に直結します。
国も、AIの利活用を前提にしつつ、リスクを受容可能な水準で管理する「AIガバナンス」を重視した指針・ガイドラインを整備しています。総務省・経済産業省の「AI事業者ガイドライン(第1.1版、令和7年3月28日)」は、AIの安全・安心な活用を促進するための統一的な指針として位置付けられています。
今回は、中小企業が「最低限ここだけは外さない」運用として、情報漏洩対策と著作権対策を、社内ルールに落とし込める形で整理します。
目次
生成AIの情報漏洩でまず理解すべきは、「入力=社外の事業者が運用するシステムに渡る可能性がある」という点です。とくに個人情報は、法令上の取り扱いが直接問題になります。
個人情報保護委員会は、生成AIサービスに個人情報を含むプロンプトを入力する場合、利用目的の達成に必要な範囲内であることの確認や、本人同意なく個人データを入力し、その個人データが“出力以外の目的”で取り扱われる場合には法令違反となる可能性があることを示しています。また、そのような入力を行う場合は、提供事業者が当該個人データを機械学習に利用しないこと等を十分確認するよう求めています。
中小企業で実際に事故につながりやすいのは、ハッキングよりも「現場の善意・うっかり」です。典型例は次のとおりです。
これらは「便利」ですが、入力情報の中身次第では、法令・契約(守秘義務)・信用のいずれも傷つくリスクがあります。
ルールづくりは大企業の専売特許ではありません。むしろ中小企業ほど、迷いなく判断できる「小さくて強いルール」が効きます。最低限、次の5つを文章化し、全社員に共有してください。
最重要はこれです。抽象的に「機密情報禁止」だけだと現場は迷います。以下のように具体例で線引きします。
「入力するなら匿名化・伏字・ダミーデータに置換する」という代替策も一緒に明記すると、現場の生産性を落としにくいです。
いわゆる“シャドーAI”を防ぐために、業務で使ってよいサービス・アカウントを限定します。ここで重要なのは、利用規約・設定・契約で、入力データがどう扱われるかを把握することです。
個人情報保護委員会も、個人データを入力する場面では、提供事業者が当該データを機械学習に利用しないこと等を十分確認するよう求めています。
つまり「便利だから無料版を各自で使う」運用は、会社として避けたほうが安全です。
生成AIは自然な文章を出力できますが、不正確な内容が混ざるリスクがあります。個人情報保護委員会も、応答結果に不正確な内容の個人情報が含まれるリスクに触れ、利用規約等の確認や適切な判断を促しています。
したがって、社外向け文書・Web公開・顧客対応メールなどは、次のように決めておくと事故が減ります。
現場が迷ったときに止まれる仕組みが必要です。
“報告しやすさ”が事故対応の質を決めます。罰則より先に、報告フローを整えるのが効果的です。
生成AIは仕様もリスクも変化が速い領域です。実際に、デジタル庁の会議体では、政府の生成AIガイドラインの「充実に向けた改定方針案」が議題として扱われており、継続的なアップデートが前提になっています。
中小企業でも、最低でも年1回、可能なら半年に1回の見直しを前提にしておくのが現実的です。
生成AIの著作権は、「AIが作ったから自由」とはなりません。文化庁の「チェックリスト&ガイダンス」では、著作権侵害の要件として、既存著作物との類似性と依拠性の双方が必要であり、利用に先立ってまず既存の著作物と類似していないか確認する必要がある、という整理が示されています。確認方法の例としてインターネット検索(文章検索・画像検索)の活用も挙げられています。
さらに、プロンプトとして既存著作物そのものを入力したり、題号(タイトル)やキャラクター名など特定の固有名詞を入力した場合、利用者が既存著作物を認識していたことを推認させる事情になり、依拠性が認められやすくなる点にも注意が必要です。
中小企業が“最低限”やるなら、複雑な法解釈よりも、運用で事故を潰すのが近道です。
文化庁のガイダンスでも、依拠性がないことを説明できるよう、生成に用いたプロンプト等の生成過程を確認可能な状態にしておくことが望ましい、と整理されています。
ここは「AIを疑う」のではなく、「公開物は必ず検品する」という品質管理の発想で定着させるのがコツです。
中小企業が全部読み込むのは大変なので、重要ポイントだけ押さえましょう。
「AIを使うならガバナンス(責任と仕組み)を作る」という思想がベースです。最新版は第1.1版(令和7年3月28日)として公表されています。
デジタル庁は、生成AIの利活用促進とリスク管理を“表裏一体”で進めるためのガイドラインを、公開日:2025年5月27日/最終更新日:2025年6月13日として掲載しています。
また本文PDFでも、ガイドラインを「利活用促進のためのガードレール」と位置付けています。
中小企業にとっても、ここから学べるのは「禁止ではなく、ガードレール(入力制限・権限管理・レビュー)で回す」という考え方です。
内閣府の指針は、令和7年12月19日 人工知能戦略本部決定として示され、AIの研究開発・活用の適正な実施に向け、各主体の自主的・能動的な取組を促すものとして整理されています。
中小企業でも、「自社の規模やリスクに応じて、できる範囲で水準を上げていく」という考え方で運用を設計すると無理がありません。
生成AIは、中小企業にとって生産性を上げる武器になり得ます。ただし、情報漏洩と著作権のリスクは、仕組みなしに現場任せにすると高確率で顕在化します。
まずは次の3点だけでも、今日から整備してください。
「ガードレールを作って安全運転する」ことが、生成AIを継続的に活かす一番の近道です。
総務省・経済産業省「AI事業者ガイドライン(第1.1版)」(令和7年3月28日)https://www.meti.go.jp/shingikai/mono_info_service/ai_shakai_jisso/20240419_report.html
デジタル庁「『行政の進化と革新のための生成AIの調達・利活用に係るガイドライン』を策定しました」(公開日:2025年5月27日/最終更新日:2025年6月13日) https://www.digital.go.jp/news/3579c42d-b11c-4756-b66e-3d3e35175623
デジタル庁「行政の進化と革新のための生成AIの調達・利活用に係るガイドライン(DS-920)」 https://www.digital.go.jp/assets/contents/node/basic_page/field_ref_resources/e2a06143-ed29-4f1d-9c31-0f06fca67afc/80419aea/20250527_resources_standard_guidelines_guideline_01.pdf
文化庁「AIと著作権について」/「AIと著作権に関するチェックリスト&ガイダンス」(令和6年7月31日) https://www.bunka.go.jp/seisaku/chosakuken/aiandcopyright.html
内閣府(人工知能戦略本部)「人工知能関連技術の研究開発及び活用の適正性確保に関する指針」(令和7年12月19日) https://www8.cao.go.jp/cstp/ai/ai_guideline/ai_gl_2025.pdf
デジタル庁「第2回先進的AI利活用アドバイザリーボード」(最終更新日:2026年2月4日) https://www.digital.go.jp/councils/ai-advisory-board/eb376409-664f-4f47-8bc9-cc95447908e4