" ["post_title"]=> string(96) "AI経由のkintoneデータ流出を防ぐ!「データ学習・漏洩」のリスクと対策" ["post_excerpt"]=> string(0) "" ["post_status"]=> string(7) "publish" ["comment_status"]=> string(6) "closed" ["ping_status"]=> string(6) "closed" ["post_password"]=> string(0) "" ["post_name"]=> string(27) "generative-ai-data-security" ["to_ping"]=> string(0) "" ["pinged"]=> string(0) "" ["post_modified"]=> string(19) "2026-01-21 17:21:22" ["post_modified_gmt"]=> string(19) "2026-01-21 08:21:22" ["post_content_filtered"]=> string(0) "" ["post_parent"]=> int(0) ["guid"]=> string(45) "https://adiem.jp/?post_type=blog&p=15850" ["menu_order"]=> int(0) ["post_type"]=> string(4) "blog" ["post_mime_type"]=> string(0) "" ["comment_count"]=> string(1) "0" ["filter"]=> string(3) "raw" } } ["post_count"]=> int(1) ["current_post"]=> int(-1) ["before_loop"]=> bool(true) ["in_the_loop"]=> bool(false) ["post"]=> object(WP_Post)#4336 (24) { ["ID"]=> int(15850) ["post_author"]=> string(2) "13" ["post_date"]=> string(19) "2026-01-22 09:00:06" ["post_date_gmt"]=> string(19) "2026-01-22 00:00:06" ["post_content"]=> string(22047) "kintoneの画面に映るのは、取引先名も原価も全て入った生産管理データ。 「この工程表、ChatGPTに貼り付けて分析させたら便利そうだな…」 データの整理をAIに任せたら、普段なら30分ほどかかっている作業が一瞬で終わる…しかし、話はそう簡単ではありません。 「待てよ?これってAIに学習されるんじゃないか?」 「万が一機密データが漏れたら、自分の責任になるのでは?」 そんな不安が頭をよぎり、結局コピペをやめた経験はありませんか? セキュリティの不安 kintone AIの導入を検討する際、最も多く寄せられる質問がセキュリティに関するものです。 「自社データはAIの学習に使われるのか?」 「生成AIに情報漏洩のリスクはあるのか?」 便利そうだが怖い。使いたいが責任を取らされたくない。この葛藤こそが、AI活用の最大の壁になっています。 本記事では、kintoneと生成AIにおけるデータ学習の仕組みを技術的根拠とともに解説し、その対処法を紹介します。

機密データの学習は「システム設定」、漏洩は「運用ルール」で防ぐ

AIには2つのリスクがあります。「データが学習に使われるリスク」「機密情報が外部に漏洩するリスク」です。 単刀直入に言うと、学習リスクはシステム設定で防ぐことが可能で、漏洩リスクは人間による運用ルールの設計と徹底が鍵を握ります。 設定とルールで防ぐ もう少し詳しく見ていきましょう。 まず、kintoneのAIでは入力データは学習に使われません。管理画面で機能のON・OFFを選ぶだけで導入できます。 次に、一般的な生成AI(ChatGPT・Gemini・Claude)については学習オフ設定で学習リスクを防げます。 設定さえきちんと行えば、入力したデータがAIモデルの改善に転用されることはありません。 しかし、学習を止めても漏洩リスクは残ります。最大の問題は、社員が顧客名や原価などの機密情報をそのままコピペしてしまうことです。設定だけでは、人間の判断ミスは防げません。
  • 運用ルールのポイント
    1. kintone内の生データを、そのままAIに貼り付けない
    2. 顧客名や原価を記号(A社、B社、数値のみ)に変換してから入力する
    3. AIの回答を鵜呑みにせず、必ず人間が最終確認する
学習は設定で止める。漏洩は運用で止める。この2段構えで、kintone AIも一般的な生成AIも、安全に使い分けられます。本記事では、AI利用時のセキュリティについて、各ツールの仕様と具体的な対策を解説します。

kintoneのAIは入力データを「学習しない」

kintone AIは、ユーザーが入力したデータをAIモデルの学習に利用しません。これは設定の問題ではなく、システムの仕様として最初から保証されています。つまり、あなたが何も設定しなくても、kintoneに入力したデータが勝手にAIモデルの学習に転用されることはないのです。

「学習」はされないが、「回答のためのデータ利用」はされる

ここで重要なのは、「学習」と「一時的な利用」を混同しないことです。AIが情報漏洩すると誤解される一因は、この2つの概念の違いが曖昧なまま語られている点にあります。 静的学習とコンテキスト利用 静的学習とは、入力されたデータを蓄積し、AIモデル自体を改善するために再利用することです。 一方、コンテキスト利用とは、その場の回答を生成するために一時的にデータを参照することです。例えば検索AI機能では、kintone内のレコードデータを一時的にAIに渡し、回答を生成します。ただし処理終了後、データは破棄されます。 kintoneのAI機能は静的学習は行わずに、コンテキスト利用のみを行います。

基盤となるAWS Bedrockも「学習利用なし」を保証

kintoneのAI機能は、Amazonが提供する生成AIサービス「AWS Bedrock」を基盤としています。 このAWS Bedrockでは、顧客のデータをベースモデルの学習に使用しないことをサービスレベルで保証しています。サイボウズもこの保証をユーザーに継承する形で「学習利用なし」を明示しています。詳細は「サイボウズエンジニアのブログ」をご覧ください。 https://blog.cybozu.io/entry/2025/01/22/112000

kintone管理者が知るべき「守りの設定」

ここからは、管理者向けにもう少し詳しい設定を紹介します。

kintoneのAI管理について

kintone AIの設定は、「kintoneシステム管理」内の「kintone AI管理」メニューから行います。設定画面は2段階の制御構造になっています。 kintone操作画面1
  • 第1段階:マスター・スイッチ(全体有効化)
    • 「kintone AIを有効にする」という項目があります。ここをOFFにすると、以下の全機能が強制的に停止します。文字通りの「緊急停止ボタン」です。
  • 第2段階:機能別スイッチ(個別制御)
    • 次に、「kintone AIラボ」セクション内に、検索AI、アプリ作成AIなど各機能の「利用する」チェックボックスがあります。ここでは、機能ごとの利用可否を個別に制御できます。
kintoneAI設定

監査ログで「誰がいつ設定を変更したか」を追跡する

管理者の責任を全うするためには、「誰がいつAI設定を変更したか」を追跡できる体制が必要です。 kintoneの監査ログでは、AI機能のON・OFF操作が記録されます。いつ、誰が「検索AI」を有効化したかがログに残るため、無許可の設定変更を検知できます。 より詳細な仕様は、kintoneの公式ヘルプページをご覧ください。 https://jp.kintone.help/k/ja/admin/audit_logs/audit_logs 監査ログのDL

生成AI(ChatGPT・Gemini・Claude)のデータ学習リスクと対策

各サービスの学習ポリシーの違い

kintone AIは最初から学習しない設計ですが、一般的な生成AIのChatGPT、Gemini、Claudeでは状況が異なります。 これらはデフォルトでは入力データをモデル改善のために学習する設定になっているので、オフに切り替えましょう。
  • ChatGPT(OpenAI)
設定画面で「データコントロール」から「すべての人のためにモデルを改善する」のスイッチをオフにすることで、会話が学習に使われなくなります。 なお、法人向けのChatGPT Enterpriseでは、デフォルトで学習がオフになっています。
  • Gemini(Google)
左下の「設定とヘルプ」から「アクティビティ」を開きます。 Gemini設定 次に、Googleアカウントの「アクティビティ管理」設定で、Geminiアプリのアクティビティをオフにすることで、学習利用を停止できます。ただし、無料版では一定期間(18カ月)データが保存される点に注意が必要です。 なお、Google Workspace for Businessを利用している場合、管理者が組織全体でデータ利用ポリシーを制御できます。 Geminiアクティビティ設定
  • Claude(Anthropic)
設定画面から「プライバシー」→「Claudeの改善のご協力ください」のスイッチをオフにします。 もし、気になる場合は「ロケーションメタデータ」もオフにすると良いでしょう。 claude設定

生成AIを安全に使うための3つの運用ルール

システムの設定を変更する一方で、人間が誤った判断をすれば、セキュリティ事故は起きます。 もし設定でデータ学習をオフにしても、社員が顧客名入りの帳票や未公開情報をそのままAIに投入してしまえば、リスクは変わりません。 そこで、生データをAIにコピペするのではなく、「人が一度"業務の言葉"に要約・抽象化する工程」 を挟むこと。これこそが、kintone AIでも一般的な生成AIでも共通する、最大の漏洩対策になります。 以下の3つの運用ルールを守ることで、この漏洩対策を実践することができます。 AI運用ルール

ルール1:生データを直接入力しない(業務の言葉への変換)

最も重要な運用ルールは、kintoneから抽出した生データをそのままAIに貼り付けないことです。 例えば、顧客別売上データを分析したい場合、次のような変換を行います。
  • NG例(生データをそのまま入力)
株式会社山田製作所,12,500,000円
田中工業株式会社,8,300,000円
佐藤商事株式会社,15,700,000円
  • OK例(業務の言葉に変換)
A社:1,250万円
B社:830万円
C社:1,570万円
この変換により、顧客名という機密情報がマスキングされ、金額データのみを分析対象にできます。AIには「売上規模の順位付けをしてください」という指示だけを出せば、十分な分析が可能です。 さらに、入力者が「これは出していい情報か」を一度考えるため、リテラシーが向上する効果もあります。

ルール2:機密情報の定義と入力禁止事項の明確化

2つ目は、組織内で「何が機密情報なのか」を明確に定義し、全社員に周知することです。
  • 入力禁止事項の例
    • 個人情報:氏名、住所、電話番号、メールアドレス、マイナンバー
    • 取引先情報:企業名、担当者名、契約条件、価格情報
    • 社内機密:未発表の製品情報、財務データ、人事情報
    • 認証情報:パスワード、APIキー、アクセストークン
    • 法的機密:契約書の条文、訴訟関連情報
これらの情報は、どのような状況でもAIに入力してはいけません。「匿名化すれば大丈夫」という判断も原則として禁止すべきです。 「この情報は、社外の誰かに見られても問題ないか」という基準で判断することを推奨します。少しでも迷った場合は、入力しない選択が安全です。

ルール3:出力結果の人間による最終確認

3つ目は、AIの回答は、あくまで「下書き」として扱うことです。必ず人間が最終確認を行います。 なぜなら、AIは文脈を誤解したり、古い情報を元に回答したりする可能性があるからです。 そこで、数値データや固有名詞などは必ず元データと照合する習慣をつけましょう。確認のポイントは以下の通りです。
  • 数値の正確性:AIが提示した数値を、元のkintoneデータと突き合わせます。計算ミスや桁の誤りがないかを確認します。
  • 論理の一貫性:AIの説明が論理的に矛盾していないか、前後の文脈が合っているかチェックします。
  • 情報の鮮度:AIが最新の状況を反映しているか確認し、必要に応じて追加情報を補います。

kintone×生成AIの効果的な運用方法

使い分けの基本原則

kintone AIと一般的な生成AI(ChatGPT等)を適切に使い分けることで、安全性と利便性を両立しながら効率化できます。
  • kintone AIを使うべき場面
    • kintone内のデータを直接検索・分析したい場合
    • アプリの作成やプロセス管理の設定支援が必要な場合
    • データを外部に出さず、クローズドな環境で処理したい場合
このような場面においてkintone AIの最大の強みは、データがkintone環境から出ない点です。
  • 生成AI(ChatGPT等)を使うべき場面
    • kintone AIでは対応できない高度な分析や文章生成が必要な場合
    • 業界知識や一般常識を組み合わせた回答が必要な場合
    • 業務の言葉に変換したデータを使って、より深い洞察を得たい場合
ChatGPTやClaude等は、より高度な推論能力や幅広い知識を持っています。ただし、運用ルールを必ず守ることが前提です。

「kintone×生成AI」二段構えの実践フロー

上記の原則に基づいて、kintoneと生成AIの具体的な使い分けフローを示します。 この二段構えの戦略により、kintone AIの安全性と生成AIの推論能力を両方とも活用できます。 kintoneと生成AIの使い分け
  1. まずkintone AIで処理できるか検討する
    • データがkintone内にある場合、まずkintoneの各種AI機能で対応できないか検討します。kintoneで完結できればそれが最も安全です。
  2. kintone AIで不十分な場合、データを変換する
    • kintoneでは対応できない高度な分析が必要な場合、データを「業務の言葉」に変換します。固有名詞を記号(A社、B社)に置き換え、機密情報を削除します。
  3. 変換したデータを生成AIに入力する
    • 学習オフ設定を確認した上で、変換後のデータをChatGPT等に入力します。「売上トレンドの分析」「改善提案の作成」など、より高度な処理を依頼します。
  4. AIの出力を人間が最終確認し、kintoneに反映する
    • AIの出力結果を人間が確認・修正した上で、kintoneのレコードやコメントに反映します。

そのまま使える「AI導入セキュリティチェック」

ここまでの内容を踏まえて、社内稟議や導入判断の際に応用できるチェックリストを作成しました。社内の状況に合わせて調整してご利用ください。 AIチェックリスト
  • 導入前チェック
    • データ棚卸し:kintone内にマイナンバー等の情報が含まれていないか。含まれている場合、そのアプリはAI検索の対象外にするか、アクセス権を厳格化する。
    • 法的確認:使用するAIツールが自社のプライバシーポリシーに沿っているか法務確認する。
    • 規約同意:Kintone AI Lab利用規約を確認する。
    • 生成AIサービスの選定:業務利用を許可する生成AIサービスと、利用プラン(個人版・法人版)を決定する。
  • 設定時チェック
    • 管理者制限:kintoneシステム管理者に、AI設定を勝手に変更できる不要なユーザーが含まれていないか再確認する。
    • IP制限:社外からの不正アクセスを防ぐため、IPアドレス制限などが有効になっているか確認する。
    • 学習オフ設定:許可した生成AIサービスで、全社員が学習オフ設定を実施していることを確認する。
  • 運用時チェック
    • 教育:全社員に対し「AIに個人名やパスワードを入力しない」「生成された回答を鵜呑みにしない」などのガイドラインを周知する。
    • ログ監視:定期的に監査ログを確認し、意図しない設定変更がないかチェックする。
    • 定期見直し:四半期ごとに運用状況を確認し、ガイドラインや許可サービスの見直しを行う。

過度な恐れを捨てて「守りのDX」を進めよう

守りのDX

「面倒さ」は強固なセキュリティ

kintone AIはデフォルトで学習されない設計になっています。一般的な生成AI(ChatGPT等)も、学習オフ設定を実施すれば安全に活用できます。 しかし、システムが安全でも、人間が判断ミスをすればセキュリティ事故は起きます。 そこで、人が一度「業務の言葉」に要約・抽象化する工程を挟み、思考停止のコピペをさせないこと。この「面倒さ」こそが強固なセキュリティです。

kintone AIと一般的な生成AIの「二段構え」で守りと攻めを両立

本記事の情報とチェックリストを組み合わせることで、「導入すべきか否か」を自信を持って判断できるようになります。 kintone AIは安全性を最優先した「守りのツール」として、一般的な生成AIは運用ルールを守った上で高度な分析を行う「攻めのツール」として、それぞれの強みを活かして使い分けましょう。 過度な恐怖を捨て、「正しく恐れて正しく使う」姿勢で守りのDXを進めていきましょう。 [cta] " ["post_title"]=> string(96) "AI経由のkintoneデータ流出を防ぐ!「データ学習・漏洩」のリスクと対策" ["post_excerpt"]=> string(0) "" ["post_status"]=> string(7) "publish" ["comment_status"]=> string(6) "closed" ["ping_status"]=> string(6) "closed" ["post_password"]=> string(0) "" ["post_name"]=> string(27) "generative-ai-data-security" ["to_ping"]=> string(0) "" ["pinged"]=> string(0) "" ["post_modified"]=> string(19) "2026-01-21 17:21:22" ["post_modified_gmt"]=> string(19) "2026-01-21 08:21:22" ["post_content_filtered"]=> string(0) "" ["post_parent"]=> int(0) ["guid"]=> string(45) "https://adiem.jp/?post_type=blog&p=15850" ["menu_order"]=> int(0) ["post_type"]=> string(4) "blog" ["post_mime_type"]=> string(0) "" ["comment_count"]=> string(1) "0" ["filter"]=> string(3) "raw" } ["comment_count"]=> int(0) ["current_comment"]=> int(-1) ["found_posts"]=> int(1) ["max_num_pages"]=> int(1) ["max_num_comment_pages"]=> int(0) ["is_single"]=> bool(false) ["is_preview"]=> bool(false) ["is_page"]=> bool(false) ["is_archive"]=> bool(true) ["is_date"]=> bool(false) ["is_year"]=> bool(false) ["is_month"]=> bool(false) ["is_day"]=> bool(false) ["is_time"]=> bool(false) ["is_author"]=> bool(false) ["is_category"]=> bool(false) ["is_tag"]=> bool(true) ["is_tax"]=> bool(false) ["is_search"]=> bool(false) ["is_feed"]=> bool(false) ["is_comment_feed"]=> bool(false) ["is_trackback"]=> bool(false) ["is_home"]=> bool(false) ["is_privacy_policy"]=> bool(false) ["is_404"]=> bool(false) ["is_embed"]=> bool(false) ["is_paged"]=> bool(false) ["is_admin"]=> bool(false) ["is_attachment"]=> bool(false) ["is_singular"]=> bool(false) ["is_robots"]=> bool(false) ["is_favicon"]=> bool(false) ["is_posts_page"]=> bool(false) ["is_post_type_archive"]=> bool(false) ["query_vars_hash":"WP_Query":private]=> string(32) "c996168fb5bb8876f33fbb91c51957f5" ["query_vars_changed":"WP_Query":private]=> bool(true) ["thumbnails_cached"]=> bool(false) ["allow_query_attachment_by_filename":protected]=> bool(false) ["stopwords":"WP_Query":private]=> NULL ["compat_fields":"WP_Query":private]=> array(2) { [0]=> string(15) "query_vars_hash" [1]=> string(18) "query_vars_changed" } ["compat_methods":"WP_Query":private]=> array(2) { [0]=> string(16) "init_query_flags" [1]=> string(15) "parse_tax_query" } ["query_cache_key":"WP_Query":private]=> string(84) "wp_query:6de5e68611fbe0e9d18f118a1150f08b:0.04390200 17691695080.08946000 1769169508" } -->

    AI経由のkintoneデータ流出を防ぐ!「データ学習・漏洩」のリスクと対策