生成AIは、資料作成や問い合わせ対応など、さまざまな業務で使われるようになり、企業にとって身近な存在になりました。
一方で、「便利そうだから」と使い始めた結果、思わぬ情報漏洩につながってしまった事例も実際に起きています。
チャットの履歴や社内のソースコード、アカウント情報が外部に流出してしまうケースは、決して他人事ではありません。
本記事では、実際に起きた3つの情報漏洩事例をもとに、なぜ生成AIで情報漏洩が起こるのかを整理します。
そのうえで、企業が取るべき具体的な対策や、規制産業で安全に生成AIを活用するための考え方について、わかりやすく解説します。
💡 生成AIを業務で使う中で、情報漏洩の不安を感じている企業様へ
Athena Platformは、社内環境でAIを動かすローカルLLMや、入力・出力を制限するガードレール機能を備え、情報漏洩や誤った使われ方を防ぎやすく設計されています。 ChatGPTや生成AIを安全に業務へ取り入れたい企業の方は、Athena Platformのサービス内容をぜひご確認ください。
⇨Athena Platformについて詳しくはこちら
生成AIはとても便利ですが、使い方や仕組みを正しく理解していないと、思わぬ形で情報が外に出てしまうことがあります。
ここでは、実際に起きた3つの情報漏洩事例をもとに、なぜ問題が起きたのかを分かりやすく見ていきます。
チャット履歴の漏洩(OpenAI社)
ソースコードの漏洩(サムスン社)
マルウェアによるアカウント情報の漏洩
OpenAI社のChatGPTでは、過去にオープンソースの外部プログラムの不具合が原因で、他のユーザーのチャット履歴の一部が表示されてしまう問題が発生しました。
このトラブルは、生成AIが自ら情報を外に出したというよりも、裏側で使われていたチャット履歴を一時的に保存・管理する仕組みにバグがあったことが原因です。
本来であればユーザーごとに分けて扱われるはずのデータが、処理の不具合によって誤って混ざり、別の人の画面に表示されてしまいました。
この事例から分かるのは、生成AIの安全性はAIそのものの性能だけで決まるわけではないという点です。
周辺システムや外部ツールも含めて、全体をどう設計・管理するかが、情報漏洩を防ぐうえでとても重要になります。
参考:OpenAI「March 20 ChatGPT outage: Here’s what happened」
サムスン社では、従業員が業務の中で生成AIにプログラムの内容を入力してしまったことをきっかけに、社内で開発した情報が外部に送られてしまう問題が起きました。
生成AIは、入力された文章を社内だけで処理するのではなく、インターネット上のサービスとして外部のネットワークに送られます。
このケースでは、ソースコードや機密情報を入力しても自動でブロックしたり、警告を出したりする仕組みが用意されていなかったことが問題でした。
結果として、入力された情報がそのまま外部に渡ってしまいました。
この事例から分かるのは、生成AIを使う際には、入力内容を自動で制御したり、外部に送られないよう制限したりするシステム側の対策が用意されていないと、情報がそのまま外部へ渡ってしまう可能性があることです。
生成AIを安全に使うには、仕組みそのものに情報を守る設計を組み込む事が大事です。
参考:Forbes JAPAN 「サムスン、ChatGPTの社内使用禁止 機密コードの流出受け」
生成AIそのものに問題がなくても、使っているパソコンや端末がウイルスに感染していると、情報漏洩につながることがあります。
アメリカのセキュリティ企業 Malwarebytes の報告では、ChatGPTのアカウント情報が大量に不正に取得され流通していた事例が確認されました。これは、ChatGPTの仕組みに問題があったわけではありません。
原因は「インフォスティーラー」と呼ばれる盗み見用のウイルスです。このウイルスに感染すると、ブラウザに保存されているIDやパスワード、ログイン情報が自動的に外部へ送られてしまいます。
アカウントが乗っ取られると、過去のチャット履歴や入力した内容を第三者に見られるおそれがあります。
そのため、生成AIを安全に使うには、AIの設定だけでなく、端末側のセキュリティ対策も含めて考えることが重要だと分かります。
参考:MalwareBytes 「20 million OpenAI accounts offered for sale」
先ほど紹介したように、生成AIの情報漏洩は、実際の現場でさまざまな形で起きています。
他のユーザーのチャット履歴が見えてしまった、社員が業務情報を生成AIに入力してしまった、ウイルス感染によるアカウント流出など、原因はそれぞれ異なっていました。
こうした事例を踏まえると、「なぜそんなことが起きたのか」を仕組みの面から理解することが重要です。
ここでは、生成AIで情報漏洩が起こる代表的な理由を、バグや入力内容、外部からの攻撃といった観点に分けて、順に解説していきます。
生成AI側のバグや不具合
プロンプトへの機密情報の入力
マルウェアへの感染
サーバーやストレージへの不正アクセス
プロンプトインジェクション攻撃
生成AIによる情報漏洩は、生成AIを動かしている仕組みそのものに問題がある場合にも起こります。
生成AIは、質問を受け取るたびに内容を一時的に記憶しながら答えを作ったり、多くの利用者の処理を同時に進めたりしています。
このとき、システム障害などが原因で利用者ごとに情報を正しく分ける仕組みや、見てよい範囲を制御する設定がうまく動かないと、本来は関係のない情報が混ざってしまうことがあります。
また、処理に使われる入力データや記録情報の扱いが不十分だと、過去の内容が意図せず表示されることもあります。
このように、生成AI側の内部処理や設定の不具合が原因で、情報漏洩につながるケースもあります。
プロンプトに機密情報を入力してしまうことも、生成AIで情報漏洩が起こる大きな原因の一つです。
生成AIは、入力された文章をもとに答えを作るため、内容をそのまま受け取って処理します。
氏名や顧客情報、社内資料の文章などを入力すると、それらはAIの処理対象となり、サービスによっては学習や品質改善の目的で使われたり、一定期間保存されたりする場合があります。

利用者側は「その場で質問しているだけ」の感覚でも、実際には機密情報や個人情報を外部のAIサービスに渡している状態です。
この仕組みを理解しないまま使ってしまうと、情報が意図しない形で残り、情報漏洩のリスクにつながってしまいます。
マルウェアへの感染も、生成AIを使った情報漏洩につながる原因の一つです。
マルウェアとは、端末の中の情報を盗んだり、画面操作や入力内容を外からこっそり監視したりする不正なプログラムのことを指します。
もし生成AIを使っているパソコンやスマートフォンがマルウェアに感染すると、入力したプロンプトや生成された結果、ログイン情報などが、本人の知らないところで外部に送られてしまう可能性があります。
生成AIそのものに問題がなくても、利用する端末の安全が保たれていないと、結果的に機密情報が漏れてしまう点には注意が必要です。

サーバーやストレージへの不正アクセスも、生成AIに関わる情報漏洩の原因の一つです。
生成AIのサービスでは、ログイン情報を含め、入力された内容や処理結果を、動作確認や改善のためにサーバーや保存場所へ一時的に保管することがあります。
もしアクセス制限の設定が甘かったり、外部からの攻撃を防ぐ対策が十分でなかったりすると、第三者が不正に入り込み、情報を盗み出す可能性があります。
生成AIそのものが正しく動いていても、データを保管している場所が狙われると、関連する情報がまとめて漏れてしまうリスクがあります。
プロンプトインジェクション攻撃は、生成AIが指示を受け取る仕組みを悪用した攻撃です。
生成AIは、入力された文章をそのまま「指示」として受け取り、前後の文脈も含めて判断しながら回答を考えます。

そのため、一見すると普通の質問に見えても、制限を無視するような文言を巧妙に混ぜ込まれると、意図しない動きをしてしまうことがあります。
この結果、本来は表示されないはずの情報や、内部の設定に関わる内容を出力してしまうケースもあります。
入力の仕方ひとつで生成AIの回答が変わるという、生成AIならではの特徴が、情報漏洩につながる原因になっています。
こうした理由から、生成AIによる情報漏洩は使う人の「うっかりミス」だけでなく、仕組みそのものに原因があるケースも少なくありません。
そのため、人に注意を促すだけでは限界があり、システム側でリスクを抑える工夫が重要になります。
ここからは、生成AIを使う環境や仕組みを見直すことで、情報が外に出てしまうリスクをどう減らせるのかを見ていきます。
特に、ネットワークの分け方や入力・出力の制限、使われ方を把握する仕組みといった、生成AI側でできる対策に注目し、具体的な考え方を紹介します。
プライベートネットワークでの生成AI活用
入出力の制限
利用履歴の明確化

プライベートネットワークで生成AIを活用することは、情報漏洩対策として有効です。
社内専用のネットワークや閉じた環境でAIを動かせば、入力した情報がインターネット上の外部サービスに直接送られません。
社内資料や顧客情報を扱う場面でも、外に出るリスクを抑えられます。
また、アクセスできる人や端末を制限しやすく、誰がどの情報を使ったかを管理しやすい点も特徴です。生成AIを安全に使うには、使う場所や通信経路をコントロールすることが重要になります。
株式会社Athena Technologiesが提供する、セキュリティと安定した運用を前提に生成AIを導入できるAthena Platformでは、オンプレミスや閉域網クラウドなどのプライベートネットワークで生成AIを利用できるため、データを外に出さずに業務へ活用できます。

入出力の制限は、生成AIに「ここまでは回答してOK、ここから先は回答してはダメ」というガードレールを設ける対策です。
生成AIは、入力された内容から回答を作るため、制限がないと機密情報まで扱ってしまいます。
そこで、入力できる項目を決めたり、生成AIの回答内容に特定の言葉や情報が含まれると処理を止める仕組みを入れます。
あわせて、社員がどんな内容を入力してよいのか、人のルールとして明確にしておくことも重要です。技術と運用の両方で制御することで、情報漏洩のリスクを下げられます。
Athena Platformには、入力内容や生成結果をチェック・制御するガードレール機能があり、不適切な情報のやり取りを防ぐことができます。

利用履歴を明確にすることは、生成AIの情報漏洩対策として大事です。
生成AIは、誰でも簡単に使える反面、使い方が見えにくくなりがちです。そこで、誰がいつ生成AIを使い、どんな内容を入力し、どのような結果を受け取ったのかを記録しておきます。
履歴が残ることで、問題が起きた際に原因を確認しやすくなり、不適切な使い方にも早く気づけます。利用状況を見える化することが、生成AIを安全に運用することにつながります。
Athena Platformでは、生成AIの利用履歴をまとめて管理できるため、誰が・いつ・どのようにAIを使ったのかを後から確認できます。問題が起きた際の原因調査や説明がしやすくなり、不適切な使い方にも早く気づけるため、ガバナンスの強化につながります。
ここまで、生成AIで情報漏洩を防ぐための具体的な対策を見てきました。
実際、こうした仕組みを整えることで、多くの業界では生成AIの活用が少しずつ広がっています。業務を楽にしたり、対応の質をそろえたりと、便利さを実感している企業も増えてきました。
一方で、金融や医療、公共分野のように、情報が漏れると影響が大きい業界では、導入が進んでいるわけではありません。
ここでは、業界ごとの生成AIの進み具合と、その背景にある考え方を整理していきます。
生成AIの使われ方は、業界によってかなり違いがあります。
実際の推進度ランキングを見ると、ITやサービス、通信といった分野が上位にあり、日々の仕事を助けるツールとして生成AIを積極的に取り入れています。
資料作成や問い合わせ対応、開発作業の補助など、「まずは使ってみる」動きが進みやすいのが特徴です。

出典:PwC「生成AIに関する実態調査 2025」を基に弊社作成
一方で、金融・医療・公共分野などの規制産業は、ランキングの下の方でにあり生成AIの導入はあまり進んでいません。
扱う情報の多くが機密性の高いもので、万が一の情報漏洩やミスが大きな影響につながるためです。
そのため、便利さが分かっていても、すぐに広く使う判断はしづらい状況にあります。

このように、生成AIはどの業界でも同じように広がっているわけではなく、情報の重さや責任の違いが、活用の進み方に大きく影響しています。
金融や医療、公共分野などの規制産業で生成AIを使うには、いくつか押さえておきたいポイントがあります。
まず大切なのがセキュリティです。これは、機密情報や個人データを外に漏らさないための対策を指します。データを外部に出さない仕組みや、不正なアクセスを防ぐ工夫が欠かせません。
次に重要なのが可用性です。可用性とは、システムにトラブルが起きても止まらず、使い続けられる状態を保つことです。
規制産業では、システム停止が業務や社会に与える影響が大きいため、安定して動き続ける設計が求められます。
そしてガバナンスも欠かせません。ガバナンスとは、誰が・いつ・どのように生成AIを使っているのかを把握し、問題が起きた際に確認や説明ができる管理の仕組みのことです。
この3つをバランスよく整えることで、規制産業でも生成AIをより安心して活用しやすくなります。
前の章で見てきたように、生成AIは多くの業界で使われ始めている一方、金融や医療、公共分野などでは、情報漏洩やシステム停止への不安から導入が慎重になりがちです。
Athena Platformは、こうした規制産業の前提を踏まえ、「セキュリティ」「可用性」「ガバナンス」の3つを軸に、安心して生成AIを使える環境を整えています。
まずセキュリティについてご紹介します。
Athena Platformは、オープンネットワーク上のクラウド環境だけでなく、オンプレミスや閉域網クラウドといった自社で管理されたネットワーク環境でも利用できる設計となっています。
そのため、新たに外部のインターネットとの接続を前提とした仕組みを用意することなく、社内ネットワークのまま生成AIを利用することが可能です。
オンプレミスや閉域網クラウドなどのプライベートネットワーク内で活用できるため、業務で扱う機密データを外部に出さずに運用できます。
重要な情報を社内のみにとどめたうえでAIを活用できることで、情報漏えいのリスクを抑え、安心して利用できる環境を実現しています。

次に可用性についてです。
Athena Platformでは、生成AIを業務の中で安心して使い続けられるよう、処理が一部に集中しない構成となっています。
複数のサーバーを同時に稼働させ、それぞれで処理を分担することで、日常的に安定した動作を保っています。
また、万が一サーバーの一部でトラブルが発生した場合でも、別のサーバーを追加して処理を引き継ぐ仕組みが用意されています。
そのため、サーバーの台数を保ったままサービスを継続でき、急に停止することを避けやすい設計となっています。
このような仕組みにより、業務の流れを止めることなく、生成AIを安心して活用することができます。

そしてガバナンスについてです。
Athena Platformでは、生成AIに入力する内容や、AIから返ってくる回答をあらかじめ確認・調整できる仕組みが用意されています。
そのため、意図しない使われ方や、不適切な内容がそのまま表示されてしまうことを防ぐことができます。
たとえば、特定の人や属性を不公平に扱ってしまう質問や、個人情報を含む内容が入力された場合には、自動的に注意を促したり、回答を控えるようにするといった対応が行われます。
このような仕組みによって、生成AIを安心して使える環境を整えながら、情報の扱いに関するリスクを抑えることができます。

ガバナンスのもう一つのポイントとして、生成AIの利用履歴を確認できる安心感があります
Athena Platformでは、生成AIがどのような処理を行い、どのような結果を返したのかを、あとから確認することができます。
利用者が入力した内容や、AIが出力した結果、処理の流れなどを一覧で把握できるため、「なぜこの結果になったのか」を振り返りやすくなっています。
万が一、想定と異なる動きがあった場合でも、履歴を確認することで原因を把握しやすく、安心して生成AIを業務に活用することができます。

本記事で見てきたように、生成AIによる情報漏洩は、使い方だけでなく仕組みや環境の設計によっても起こります。
特に企業で安心して生成AIを使うためには、「セキュリティ」「可用性」「ガバナンス」の3つをバランスよく整えることが欠かせません。
Athena Platformは、データを外に出さないセキュアな環境、トラブル時でも止まりにくい安定した運用、そして利用状況を把握できる管理の仕組みを一つの基盤で提供しています。
生成AIを安全に、かつ現場で使いやすい形で取り入れたい企業にとって、安心して検討できる仕組みを備えたプラットフォームといえるでしょう。
情報漏洩対策をした上で生成AIを導入していきたいと検討している方は、ぜひAthena Platformのサービスサイトをご覧ください。
ブログ記事一覧へ戻る