AIを活用したサービスや業務システムは、すでに多くの企業で当たり前の存在になりつつあります。
その一方で、AIをどう守るか、AIが関わることでどんなリスクが生まれるのかについては、十分に整理されないまま使われているケースも少なくありません。
サイバー攻撃は、主にサーバーやネットワークを狙い攻撃するものですが、最近ではAIを悪用した攻撃や、AIシステムそのものを狙う手口も増え、以前の対策だけでは対応しきれない場面が出てきています。
本記事では、AIが関わるサイバー攻撃の特徴を整理し、代表的な攻撃例や企業が取るべき対策、業界ごとのルールの違いまでを、分かりやすく解説していきます。
💡 生成AIのセキュリティ対策に悩んでいる企業様へ
Athena Platformは、ローカルLLMの活用や入出力を制御するガードレール、利用履歴の管理などを一つの基盤で提供し、AIを狙った攻撃や情報漏洩のリスクを抑えます。
AIを便利に使いながらも、安全性やルールをしっかり守りたい企業に向けた設計となっております。
サイバー攻撃に備えつつ生成AIを活用したい方は、ぜひAthena Platformのサービス内容をご覧ください。
⇨Athena Platformについて詳しくはこちら
生成AIは、仕事を早く進めたり、人手不足を補ったりする手段として、多くの企業に広がっています。
文章作成や問い合わせ対応など、日常業務の役立つ場面で活用されています。
一方で、AIの利用が広がるほど、サイバー攻撃のリスクも目立つようになってきています。
Digital Artsの調査によると、国内のセキュリティインシデントは年々増加しており、2025年上半期は、セキュリティ事故を公表した組織数が2024年下半期の770件から1,027件と増え、過去最多を記録しています。
数年前と比べると、不正アクセスや情報漏洩が特別な出来事ではなくなりつつあることが分かります。
背景には、AI自体がサイバー攻撃の手段にも使われていることがあります。
最近では、AIを使って本物そっくりの詐欺メールを作ったり、音声や映像を加工して人をだます手口も確認されています。
こうした状況から、サイバー攻撃の被害は今後も増えていく可能性が高いと考えられています。
参考:Digital Arts「2025年上半期国内セキュリティインシデント集計」
生成AIは業務を助ける便利な存在である一方、サイバー攻撃の手段としても使われ始めています。
ここでは、実際に被害が広がっている代表的な攻撃の例を見ていきます。
フィッシング詐欺
マルウェア・ランサムウェア
ディープフェイク詐欺
フィッシング詐欺とは、実在する企業やサービスを装ったメールやメッセージを送り、偽の Web サイトに誘導して ID やパスワードなどを盗み取る手口です。

以前は日本語の不自然さから見分けられることもありましたが、最近は生成 AI の利用により、文章がとても自然になっています。
実在する会社名や担当者名を使ったメールも多く、個人だけでなく企業でも被害が起きています。
こうした被害の背景には、AI が誤った情報を提示してしまう問題もあります。
Netcraft の調査によると、生成 AI や AI 検索エンジンに企業のログイン用URLを質問したところ、約3分の1で正規のものとは関係のないURLが示されました。
多くは使われていないドメインであり、利用者が間違いに気づきにくいURLとなっていました。
AI の回答をそのまま信じてアクセスしてしまうと、フィッシングサイトに誘導され、情報が盗まれるおそれがあります。
参考:netcraft「Sophisticated AI-generated Gitbook lures phishing the crypto industry」
マルウェアやランサムウェアは、パソコンやサーバーに入り込み、データを盗んだり、使えなくしたりする不正なプログラムです。
中でもランサムウェアは、ファイルを勝手に使えない状態にし、元に戻したければお金を払ってほしいと要求されるものです。

最近では AI が使われるようになり、攻撃の準備や作成が簡単になっているため、これまでより多くの企業が被害にあうおそれが高まっています。
実際の事例として、アサヒグループホールディングス株式会社では、サイバー攻撃によって社内システムに問題が起きました。
社内の機器を通じて不正に入り込まれ、ランサムウェアが動いたことで、複数のサーバーや一部の業務用パソコンのデータが使えなくなったことが分かりました。
また、従業員に貸し出していたパソコンの一部データが外に流れたことも確認されています。
参考:アサヒグループホールディングス「サイバー攻撃による情報漏えいに関する調査結果と今後の対応について」
ディープフェイク詐欺は、AI を使って作られた偽の音声や映像で人をだます手口です。
経営者や上司の声や顔を本物そっくりに再現し、「急ぎの送金が必要です」と指示するケースが報告されています。
声の調子や話し方まで似ているため、本物だと信じてしまいやすく、冷静な判断が難しくなります。

海外では、ディープフェイク音声を信じて多額の送金をしてしまった企業もあり、日本でも同じような被害が起きるおそれがあります。
実際に香港では、ディープフェイクを使った詐欺が急増しています。
2024年には、偽のビデオ会議で海外本社の幹部を装い、従業員に送金を指示する事件が発生しました。
この事例では、事前に作られた偽の映像が使われ、数十億円以上の被害が出ています。
香港警察は、映像や音声があってもすぐに信じず必ず別の方法で確認するよう注意を呼びかけています。
参考:香港特別行政区政府 新聞公報「ディープフェイクに関連する詐欺事件への対処」
AIを使って人をだますさまざまな攻撃の例を見てきましたが、ここからはAIそのものが狙われる攻撃について見ていきます。
生成AIやAIを使った仕組みは、ユーザーからの入力を受け取りながら動いています。
そのため、入力の内容を工夫されてしまうと、正しく答えられなくなったり、想定していない回答をしてしまうことがあります。
ここでは、AIの動きや判断に直接影響を与えてしまう、代表的な攻撃の例を分かりやすく紹介します。
モデル抽出攻撃
モデルポイズニング攻撃
プロンプトインジェクション攻撃
ファインチューニング攻撃
モデル抽出攻撃とは、AIに対してたくさんの質問や指示を繰り返し、その答え方を分析することで、AIの仕組みや特徴を外から探ろうとする攻撃です。

攻撃する人はAIモデルに直接アクセスすることなく、AIへの質問に対して返ってくる答えの内容や微妙な違いを集めていき、AIがどのような情報を元に考えているのかや、判断のくせを少しずつ推測します。
2025年、MicrosoftとOpenAIは、中国のAIスタートアップDeepSeekの関係者とみられる人たちが似たようなAIを開発するために、OpenAIのAIに対して非常に多くの質問を送り、その答えを大量に集めていた可能性があると明らかにしました。
AIがどんな考え方で答えているのかや、どこまでできるのかを詳しく知るために使われたとみられています。
AIを安全に使うためには、質問の回数を制限したり、不自然な使い方を見つける仕組みを用意することが大切です。
モデルポイズニング攻撃とは、AIが学ぶために使っているデータや仕組みに、間違った情報を混ぜ込む攻撃です。

一見すると普通のデータに見えるため、気づかれにくいのが特徴です。
AIは与えられた情報をそのまま信じて覚えてしまうため、少しずつ判断がずれたり、誤った答えを出すようになります。
実際の事例としてMicrosoftが以前に公開した、若者向けの会話用AI「Tay」があります。
公開後すぐに、一部の人がわざと乱暴な言葉や差別的な表現を何度も話しかけ、Tayはそれを正しい情報だと思い込み、そのまま学習してしまい不適切な内容を回答するようになりました。
その結果、公開後、短時間でも大きな問題になり、サービスは停止されることになりました。
AIを公開して終わりにするのではなく、学習の内容や振る舞いを継続的にチェックし、問題があればすぐに対応できる体制が大切です。
参考:Microsoft「Learning from Tay’s introduction」
プロンプトインジェクション攻撃とは、AIに与える指示文(質問や命令文)に細工をして、AIをだまそうとする攻撃です。

攻撃する人は、見た目は普通の文章の中に特別な指示を紛れ込ませ、AIが本来守るべきルールを無視するよう仕向けます。
AIは入力された内容をそのまま理解しようとするため、意図しない回答をしてしまうことがあります。
実際の事例として2025年に Microsoft 365 Copilot で確認された「EchoLeak」があります。
攻撃する人が従業員に送った一見普通の業務メールの文章の中に、AIを誤作動させるための指示をこっそり含めていました。
従業員がメールを読むだけでは何も起きませんが、後日、仕事の調べものなどで Copilot に質問した際、そのメール内容が使われ、結果としてCopilotが社内の大切な情報を本人の気づかないうちに外部へ送ってしまうリスクがありました。
このように、AIは人が気づかない形で悪用される可能性があるため、利用する側も仕組みやリスクを正しく理解しておく必要があります。
参考:NTT Security「(1) AI エージェント時代の新たな脅威:Copilot ゼロクリック攻撃」
ファインチューニング攻撃とは、すでに作られているAIに対して、特定のデータを使って追加の学習を行い、AIの回答を意図的に変えてしまう攻撃です。

本来は性能を良くするための仕組みですが、攻撃する人が関わると、AIが守るべきルールを無視するよう仕向けられることがあります。
2023年ごろから、ダークウェブ上で犯罪に使えるAIチャットボットが売られていることが確認されました。
これは、OpenAIなどのAIを参考にしたうえで、安全対策を外したり、詐欺メールや不正プログラムの作成に役立つ文章を学習させたものだとされています。
実際に人をだます内容のメール文面を自然な文章で作成できてしまうことが報告されています。
本来は役立つはずのAIが、追加の学習によって危険な使われ方をするよう変えられてしまった点が問題視されています。
誰がどのデータで学習させているのかを管理し、想定外の変化が起きていないかを定期的に確認することが大切です。
参考:WIRED「Criminals Have Created Their Own ChatGPT Clones」
これまで、AIそのものを狙ったさまざまな攻撃の例を見てきました。
こうした攻撃が実際に起きている今、企業にはどうやって攻撃から守るかを具体的に考えることが求められています。
大切なのは、AIそのものを守る考え方と、AIを使って守りを強くする考え方の両方を持つことです。
Security for AIとは、生成AIやAIの仕組みを、安全に使い続けるための考え方のことです。
まず意識したいのが、安全な場所でAIを動かすことです。 社内サーバーや限られたネットワークの中でAIを使えば、入力した情報を外に送らずに済み、情報が漏れる心配を減らせます。

あわせて、AIへの入力とAIの回答にルールを設けることも重要です。 たとえば、個人情報を含む質問は受け付けない、危険につながりそうな回答はそのまま表示しない、といった決まりを作っておくことで、安心して使いやすくなります。
AIを何でも自由に使わせるのではなく、使ってよい範囲をあらかじめ決めておくことが、安全な活用につながります。
生成AIを安全に活用するための考え方や、具体的なセキュリティ対策については、以下の記事で詳しく解説していますので、ご参照ください。
参考記事:AIセキュリティとは?基本の対策や規制産業での生成AI活用ポイントを解説
AI for Securityは、AIを活用してサイバー攻撃に気づいたり、被害を防いだりする考え方です。
日々発生する通信や操作の記録はとても多く、人の目だけですべてを確認するのは現実的ではありません。
そこで役立つのがAIです。
AIは、いつもと違う動きや不自然なパターンを見つけるのが得意なため、不正アクセスかどうかやウイルス感染の可能性に早く気づくことができます。

もちろんAIだけですべてを防げるわけではありませんが、人の確認を助ける存在として取り入れることで、セキュリティ対策をより心強いものにしてくれます。
AIを活用したセキュリティ対策の全体像や、導入時に押さえておきたいポイントについては、以下の記事で整理していますので、ご参照ください。
参考記事:AIセキュリティとは?基本の対策や規制産業での生成AI活用ポイントを解説悪くて
AIが関わるサイバー攻撃への対策を考えるうえで、業界ごとの立場ごとに独自のルール違いも欠かせない視点です。
同じ生成AIを使う場合でも、扱う情報や社会への影響の大きさによって、求められる安全対策やルールは大きく変わります。
ここでは、生成AIの広がり方に業界ごとに差が生まれている理由と、特に慎重な導入が求められる業界の特徴を整理します。
業界ごとの生成AI推進度ランキングを見ると、活用が進んでいる業界と、まだ慎重な業界の差がはっきりと見えてきます。
テクノロジーやIT、サービス業、通信業界では、文章作成やプログラム作成、問い合わせ対応などに生成AIが積極的に使われています。
業務の負担を軽くしたり、これまで時間がかかっていた作業を効率よく進めたりする目的で、日常業務の中に自然と取り入れられています。

一方で、公共事業、金融、医療、エネルギーといった規制産業では、外部に情報を出さない社内向けの使い方など生成AIの活用が限定的となっています。
たとえば、資料の整理やアイデア出し、社内文書の下書き作成など、比較的リスクの低い業務が中心です。
いきなり業務の中に多く取り入れるのではなく、まずは安全な範囲で試すという姿勢が多く見られます。

このように、生成AIの広がり方は業界ごとのルールに大きく左右されており、その違いがセキュリティに対する考え方にも影響しています。
公共事業、金融、医療、エネルギーといった業界では、生成AIの活用がどうしても慎重になりがちです。
これらの分野では、個人情報や重要なデータを扱うことが多く、万が一の情報漏洩が社会に大きな影響を与えてしまうためです。
たとえば、銀行や保険では顧客情報の扱いに細かい決まりがありますし、医療分野では患者データの管理に特に厳しいルールがあります。
そのため、便利そうだから試してみるという判断がしづらく、事前の確認や準備が欠かせません。
こうした業界では、生成AIを使うこと自体よりも、どうすれば安全に使えるかを考えることが最初の課題になります。
業界ごとにAIの使われ方やルールが違う中で、多くの企業が共通して感じているのが便利だけど、本当に安全に使えるのかという不安です。
最近では、サイバー攻撃の手口が複雑になり、AIそのものが狙われるケースも増えてきました。
こうした状況では、ただ生成AIを導入するだけでなく、安全に使い続けられる土台を用意することが重要になります。
その一つの選択肢がAthena Platformです。
まず特徴として挙げられるのが、安全面を重視したつくりです。
Athena Platformは、業務データを外部に送らず、社内や限られたネットワークの中で生成AIを使える設計になっています。
そのため、社内資料や個人情報を扱う場面でも、余計な心配をせずに使いやすくなります。
AIに入力した内容や、AIが出した結果も管理できるため、知らないうちに情報が外に出てしまうといった不安を減らせます。

次に、止まりにくさを考えた仕組みも特徴です。
仕事の中でAIを使う以上、突然使えなくなるのは避けたいところです。
Athena Platformでは、複数のサーバーを同時に動かすことで、一部にトラブルが起きても全体が止まりにくい工夫がされています。
攻撃や不具合があっても、業務への影響をできるだけ小さく抑えられるため、日常的に使うツールとして安心感があります。

3つ目は、ユーザーの利用状況が管理できる仕組みです。
誰がいつAIを使い、どんなやり取りをしたのかが記録されるため、後から内容を振り返ることができます。
もし問題が起きた場合でも、何が原因だったのかを整理しやすく、社内外への説明もしやすくなります。
ルールが厳しい業界や、責任が求められる業務でも使いやすい設計となっています。

さらに、入出力を制限するガードレール機能も備わっています。
個人情報を含む質問や、不適切な表現につながるやり取りは自動でブロックされるため、利用者が細かく気を配らなくても安全な使い方を保ちやすくなります。
人の注意だけに頼らず、仕組みでリスクを減らせる点が心強いところです。

このようにAthena Platformは、サイバー攻撃のリスクが高まる中でも、生成AIを安心して業務に取り入れるための環境を整えています。
便利さと安全性の両方を実現しながらAI活用を進めたい企業にとって、最適な選択肢といえるので、ぜひAthena Platformをチェックしてみてください。
ブログ記事一覧へ戻る