ChatGPTに入れてはいけない情報5つ|中小企業が今日からできる対策
目次
「社員がChatGPT使ってるみたいなんだけど、あれって大丈夫なの?」
最近、クライアントの社長さんからこう聞かれることが本当に増えました。製造業でも、建設業でも、小売でも。業種は関係ありません。テレビやネットで「AI」「ChatGPT」という言葉を毎日のように目にするから、気になるのは当然です。
結論から言うと、ChatGPTは正しく使えばものすごく便利なツールです。ただし、入れていい情報と、絶対に入れてはいけない情報がある。 この線引きを知らないまま使うのが、一番こわい。
この記事では「ChatGPTに何を入れたらダメなのか」を具体的に5つ挙げて、今日からできる対策とセットでお伝えします。
ChatGPTに入力した情報はどこへ行くのか?
ChatGPTに入力した情報は、OpenAI(開発元のアメリカの会社)のサーバーに送られます。そして設定によっては、AIの性能を良くするための「学習データ」として使われる可能性があります。
ここで大事なのは、AIは人間のように「覚えている」わけではないということ。AIには記憶や意識はありません。ただ、入力された文章を「データ」として取り込み、将来の回答精度を上げるために使う仕組みになっている。
つまり、「AIの学習に使われる」とは、あなたが入力した内容がAIの知識の一部になり、まったく関係のない別の人への回答に影響する可能性がある、ということです。
僕自身、日常的にAIツールを使って仕事をしています。でも「これだけは絶対に入力しない」と決めている情報がいくつかあります。なぜかというと、一度サーバーに送った情報は取り戻せないから。送信ボタンを押した瞬間、その情報のコントロールは自分の手を離れます。
なぜ「うちは関係ない」が一番危ないのか?
中小企業こそ、AIの情報漏洩リスクに注意が必要です。理由はシンプルで、ルールが決まっていないから。ルールがない=防衛線がゼロ、ということです。
IPA(独立行政法人 情報処理推進機構)の調査によると、AIを利用している企業の約60%がセキュリティ上の脅威を感じています。ところが、適切なルールや体制を整備できている企業は20%に満たない。つまり、「不安だけど何もしていない」という会社が大半なんです。
さらに、IPAが2026年1月に発表した「情報セキュリティ10大脅威 2026」では、「AIの利用をめぐるサイバーリスク」が初めて選出され、いきなり3位にランクインしました。ランサムウェア攻撃、サプライチェーン攻撃に次ぐ3番目の脅威です。これはもう「大企業の話でしょ?」とは言えない状況です。
実際に大企業でも事故は起きています。2023年、韓国のサムスン電子では、ChatGPTの社内利用を許可したところ、わずか20日間で3件の機密漏洩が発生しました。エンジニアがプログラムのコードを貼り付けたり、会議の録音内容をテキスト化して入力してしまったり。結果、サムスンはChatGPTの社内利用を全面禁止にしています。
大企業でもこうなる。ルールのない中小企業で、社員が個人の判断でAIを使い始めたら? リスクは推して知るべし、です。
ちなみに、会社が把握しないまま社員が勝手に業務でAIを使うことを「シャドーAI」と呼びます。IT部門がない中小企業では、このシャドーAIが特に起きやすい。そしてこれが、情報漏洩の温床になるんです。
ChatGPTに入れてはいけない情報5つ
ここが本題。ChatGPTに入力してはいけない情報を5つ、具体的に挙げます。迷ったら、この5つに該当しないか確認してください。
1. クレジットカード番号・銀行口座などの金融情報
カード番号、暗証番号、口座番号、ネットバンキングのパスワード。これらは絶対にNGです。
僕自身、AIに何かを相談するときでも、カードのパスワードや口座情報は絶対に入力しません。当たり前に聞こえるかもしれませんが、たとえば「この請求書の内容をまとめて」と頼むときに、振込先口座がそのまま含まれていたりする。意外と盲点です。
2. 社員や顧客の個人情報(名前・住所・電話番号)
氏名、住所、電話番号、メールアドレス、マイナンバー。これらを入力すると、個人情報保護法に抵触するリスクがあります。
「顧客リストを整理して」とChatGPTに頼みたくなる気持ちはわかります。でもそのリストに名前と電話番号が入っていたら、それは個人情報をアメリカのサーバーに送ったことになる。お客さんの同意なく、です。
3. 自社の売上・原価・取引条件などの経営数字
月商、利益率、仕入れ価格、取引先との特別な条件。これらは経営の生命線です。
「うちの売上データを分析して」という使い方は危険。競合に知られたらまずい数字は、そもそも外部のサーバーに送るべきではありません。
4. 契約書・見積書など取引先との機密書類
契約書の文面、見積金額、NDA(秘密保持契約)で守られている情報。取引先との信頼関係に直結します。
「この契約書をわかりやすくまとめて」と丸ごとコピペするのは、やめたほうがいい。どうしても要約したいなら、社名や金額をダミーに置き換えてから入力する、というひと手間が必要です。
5. 社内システムの仕様やパスワード
社内システムのログインID・パスワード、サーバーの構成情報、APIキー(システム同士をつなぐための暗号のようなもの)。
サムスンの事例がまさにこれ。プログラムのコードを貼り付けた結果、自社の技術的な仕組みが外部に漏れかねない状況になりました。「このエラーを直して」とコードを丸ごと貼り付ける前に、一呼吸置いてください。
「じゃあ何を入れていいの?」安全な使い方の線引き
入れていい情報の基準はシンプルです。「すでに公開されている情報」か「個人や会社を特定できない情報」なら基本的にOK。
たとえば、こんな使い方は問題ありません。
- メールの文面を丁寧な言い回しに直してもらう(宛先や固有名詞は伏せる)
- 「製造業で使える業務改善のアイデアを出して」と一般的な相談をする
- 社内研修の資料の構成を考えてもらう
- 文章の誤字脱字をチェックしてもらう
ポイントは「固有名詞と数字を抜く」こと。社名をA社、金額をXX万円に置き換えるだけで、リスクは大幅に下がります。
また、ChatGPTの設定で「チャット履歴をAIの学習に使わない」ようにすることもできます。設定画面から「Chat history & training」をオフにするだけ。これだけで、入力内容が学習データに使われるリスクを減らせます。
今日からできる3つのアクション
「全部理解してから動こう」と思うと、結局何もしないまま時間が過ぎます。まずは以下の3つだけ、今日やってみてください。
1つ目:ChatGPTの設定を1つ変える。 設定画面で「Chat history & training」をオフにする。これだけで、入力内容がAIの学習に使われなくなります。所要時間は1分。
2つ目:「入れていい情報・ダメな情報」のリストを紙1枚にまとめる。 上で挙げた5つのNG情報を書き出して、社員の目につく場所に貼るだけでいい。完璧なガイドラインじゃなくていいんです。A4一枚の「やっちゃダメリスト」で十分。
3つ目:「迷ったら入れない」を合言葉にする。 これが一番大事。判断に迷う情報は、入れない。シンプルだけど、これだけで事故の大半は防げます。
それでも不安なら
「設定を変えたけど、本当にこれで大丈夫なのか」「うちの業務だと、どこまでAIを使っていいかわからない」。そう感じたら、ITに詳しい人に一度相談してみるのがいちばん早いです。
社員数名の会社でも、AI利用のルールは作れます。自社の業務内容に合わせて「ここまではOK、ここからはNG」の線引きを一緒に考えてもらうだけで、安心感がまるで違います。
AIは怖いものじゃありません。ただの道具です。包丁と同じで、正しい使い方を知っていれば頼もしい味方になる。知らないまま使うから、ケガをする。
まずは今日、設定を1つ変えるところから始めてみてください。
よくある質問
ChatGPTに入力した情報はほかの人に見られる?
直接見られるわけではありませんが、学習に使われた場合、ほかの人への回答に影響する可能性があります。無料版はデフォルトで学習に使用される設定なので、業務利用なら学習オフの設定が必須です。
無料版と有料版でセキュリティに差はある?
あります。法人向けの「ChatGPT Enterprise」や「Team」プランは、入力データが学習に使われない仕様になっています。業務で本格的に使うなら、法人プランの検討をおすすめします。
ChatGPTの利用を社内で全面禁止すべき?
禁止より「ルールを決めて使う」方が現実的です。禁止しても社員が個人スマホで使えば意味がありません。それよりも、入れていい情報の基準を決めて、全員に共有するほうが効果的です。
社員がこっそり使ってた場合どうすればいい?
まず責めないこと。「便利だから使った」という動機は自然です。大事なのは、これを機に「入れていい情報・ダメな情報」のルールを一緒に決めること。禁止より整備が先です。