生成AIのサイバーセキュリティリスク
未来の技術、現代の脅威:生成AIのサイバーセキュリティリスクに備える
2024年1月27日
著者: Ahona Rudra
翻訳: 竹洞 陽一郎
この記事はPowerDMARCのブログ記事 Cybersecurity Risks of Generative AI の翻訳です。
Spelldataは、PowerDMARCの日本代理店です。
この記事は、PowerDMARCの許可を得て、翻訳しています。
生成AI技術の新たな力が現れるにつれて、生成AIのサイバーセキュリティリスクも現れます。
生成AIは、機械学習(ML)と人工知能(AI)の能力を組み合わせた最先端技術のフロンティアを代表します。
私たちは、AI技術が指数関数的に進歩する技術ルネッサンスの夜明けにいます。
しかし、生成AIのサイバーセキュリティに関連するリスクは見過ごすことができません。
この観点から、生成AIの使用と濫用がもたらすサイバーセキュリティの課題をどのように防ぐことができるかを探求しましょう。
生成AIとは何か?
生成AI(生成人工知能の略)は、既存のデータに似たり、類似した新しいデータを作り出すことに焦点を当てた人工知能技術の種類を指します。
特定のタスクに対して明示的にプログラムされるのではなく、生成AIモデルは訓練されたデータからパターンや構造を学習し、その学習した知識に基づいて新しいコンテンツを生成します。
生成AIの主な目的は、本物のデータと区別がつかないデータを生成し、それが人間によって作成されたかのように、または元のデータと同じ分布から来たかのように見せることです。
この能力は、自然言語生成、画像合成、音楽作曲、テキストから音声への変換、さらには動画生成など、様々な領域で多くの応用があります。
生成AIが次なる最大のサイバーセキュリティ脅威である理由
GPT-3、GPT-4、およびその他の生成AIツールは、生成AIのサイバーセキュリティリスクやサイバー脅威から免れていません。
企業は、生成AIに関連する重大なサイバーリスクを避けるために、ポリシーを実施する必要があります。
マイクロソフトのチーフセキュリティアドバイザーであるテレンス・ジャクソンがフォーブスの記事で強調したように、ChatGPTのようなプラットフォームのプライバシーポリシーは、IPアドレス、ブラウザ情報、およびブラウジング活動などの重要なユーザーデータの収集を示しており、これらは第三者と共有される可能性があります。
ジャクソンはまた、攻撃対象領域を拡大し、ハッカーが悪用する新たな機会を提供することで、生成AIがもたらすサイバーセキュリティ脅威について警告しています。
さらに、4月のWiredの記事は、これらのツールの脆弱性を明らかにし、生成AIのサイバーリスクを強調しました。
わずか数時間で、セキュリティ研究者はOpenAIの安全システムを迂回し、GPT-4を操作しました。
これは、生成AIのサイバー脅威の可能性と、強固なサイバーセキュリティ対策の必要性を浮き彫りにします。
上位7つの生成AIのサイバーセキュリティリスクを公開
生成AIは問題解決のための強力なツールですが、いくつかのリスクを孕んでいます。
最も明白なリスクは、知的財産の盗難や詐欺など、悪意のある目的で使用される可能性があることです。
- 1. フィッシングメールの作成
-
生成AIの最大のサイバーセキュリティリスクは、フィッシングの作成です。
フィッシングの脅威は現実のものであり、消え去ることはありません。
企業がメールやその他のデジタル通信形式を使用して製品やサービスを市場に出すにつれ、犯罪者は個人情報を提供するよう人々をだますための努力をより洗練させています。
最も一般的な詐欺は「フィッシング」と呼ばれます。
これは、しばしば信頼できるソース(例えば、あなたの銀行)から送信された偽のメールを含み、正当に見える添付ファイルやリンクが含まれていますが、実際には偽のWebサイトに誘導され、アカウントにアクセスするために認証情報を入力します。 - 2. モデル操作と汚染
-
生成AIのサイバーセキュリティリスクの一つに、モデル操作と汚染があります。
このタイプの攻撃には、既存のモデルを操作または変更して、誤った結果を生み出させることが含まれます。
たとえば、攻撃者はあなたのデータベースの別の画像のように見えるように画像を変更することができます。
攻撃者は、これらの操作された画像をネットワークや組織に対する攻撃戦略の一部として使用することができます。 - 3. 敵対的攻撃
-
機械学習アルゴリズムに対する敵対的攻撃は、ハッカーがこれらのシステムの弱点を悪用しようとするにつれて、より一般的になっています。
アルゴリズムに間違いを犯させたり、データの分類を誤らせたりする、敵対的攻撃の使用は、AI研究の初期から存在しています。
しかし、敵対的攻撃がより洗練され、強力になるにつれて、生成モデルやチャットボットを含むあらゆるタイプの機械学習システムに脅威をもたらします。 - 4. データプライバシーの侵害
-
生成モデルに関する一般的な懸念は、個人や組織に関する機密データを不注意に開示してしまう可能性があることです。
たとえば、組織が生成モデルを使用して画像を作成し、その過程で顧客や従業員に関する機密情報を偶然にも漏らしてしまう可能性があります。
これが発生すると、プライバシーの侵害と損害賠償請求の訴訟につながる可能性があります。 - 5. ディープフェイクと合成メディア
-
生成モデルは、ディープフェイク(偽のビデオ)や合成メディア(偽のニュース)で使用できる偽のビデオや音声録音を生成することにより、悪意のある目的で使用することもできます。
これらの攻撃の背後にある技術は比較的単純です。
誰かが適切なデータセットといくつかの基本的なソフトウェアツールにアクセスすれば、悪意のあるコンテンツの作成を開始します。 - 6. 知的財産の盗難
-
知的財産の盗難は、今日の技術業界で最大の懸念の一つであり、人工知能がより進化するにつれてその懸念は増大するだけです。
生成AIは、本物に見えて人間にとって受け入れられる偽のデータを生成することができます。
このタイプのデータは、ヘルスケア、金融、防衛、政府など様々な業界で使用される可能性があります。
偽のソーシャルメディアアカウントを作成したり、オンラインで個人を偽装することさえできます。 - 7. 生成コンテンツの悪意のある使用
-
生成AIは、Webページやソーシャルメディアプラットフォームのテキストや画像内の単語やフレーズの意味や文脈を変更することで、コンテンツを操作することもできます。
例えば、人間の介入なしに画像のキャプションを自動生成するアプリケーションを使用しているとします。
これにより、誰かが写真自体には何も変更せずに(キャプションを編集するだけで)、キャプションを「白い犬」から「黒い猫」に変更することが可能になります。
生成AIのサイバーセキュリティリスクに対する防御を強化する方法
この高まる懸念に応えて、組織はこれらのリスクに対する防御を強化する必要があります。
そのためのいくつかのヒントは以下の通りです。
- DMARCへの切り替え
-
DMARCは、自身のドメインを偽装するフィッシング攻撃やメールスプーフィングを防ぐのに役立つメール認証プロトコルです。
DMARCアナライザーを実装することで、組織はメール通信に自身のドメインを使用できるのは承認された送信者のみであることを保証し、AIによって生成されたフィッシングメールに関連するリスクを最小限に抑えることができます。
DMARCは、ドメイン所有者がメール配信に関する報告を受け取り、メールセキュリティを強化するための必要な行動を取ることを可能にすることで、追加の保護層を提供し、生成AIのサイバーセキュリティリスクに対する盾として機能します。
DMARCを実装するための前提条件として、SPFまたはDKIM(推奨されるのは両方)を実装する必要があります。 - セキュリティ監査の実施
-
ハッカーがシステムにアクセスするのを防ぐもう1つの方法は、サイバーセキュリティ監査を行うことです。
これらの監査により、システムの潜在的な脆弱性を特定し、マルウェア感染などの大きな問題になる前にそれらを修正する方法を提案するのに役立ちます。 - 敵対的トレーニング
-
敵対的トレーニングは、敵対的攻撃をシミュレートし、モデルを強化する方法です。
これは、システムを欺こうとする敵(または攻撃者)を使用し、間違った答えを与えます。
目標は、モデルがどのように反応し、より堅牢なモデルを設計するために、その制限が何であるかを見つけ出すことです。 - 堅牢な特徴抽出
-
別の解決策は堅牢な特徴抽出(RFE: Robust Feature Extraction)です。
RFEはディープラーニングを使用して、生の画像から関連する特徴を抽出します。
この技術はスケーラブルで、大規模なデータセットに使用できます。
サンプリングによる検証(VTS: Verification Through Sampling)や外れ値検出(OD: Outlier Detection)などの他の技術と組み合わせることで、特徴抽出の精度を向上させることもできます。 - セキュアモデルアーキテクチャ
-
セキュアモデルアーキテクチャ(SMA)は、ソフトウェアコード、データファイル、またはAIシステムの他のコンポーネントの脆弱性を悪用する攻撃を防ぐために、セキュアなモデルアーキテクチャを使用します。
SMAの背後にある考え方は、攻撃者がシステム自体の弱点を単に悪用するのではなく、コード内の脆弱性を見つけ出さなければならないというものです。 - 定期的なモデル監査
-
モデル監査は、多年にわたりサイバーセキュリティの重要な部分でした。
これには、システムで使用されるモデルを検査し、それらが健全で最新であることを確認することが含まれます。
モデル監査はまた、モデルの脆弱性を検出するため、またはハッカーによって汚染されたり変更されたりした可能性のあるモデルを特定するためにも使用できます。 - 入力検証とフィルタリング
-
入力検証は、モデル開発者が本番環境にモデルを展開する前に取ることができる最も重要なステップの一つです。
入力検証は、モデルに入力されるデータが不正確であるか、システム内の脆弱性を悪用しようとするハッカーによって悪意を持って変更されていないことを確認します。
入力フィルタリングにより、開発者はモデルを通過させるべきデータタイプを指定し、その他の種類のデータが通過するのを防ぐことができます。
まとめ
この技術は数多くの利益と進歩を提供しますが、潜在的な脆弱性と脅威への扉も開きます。
生成AIが説得力のある偽の画像、ビデオ、テキストを作成する能力は、身元盗用、誤情報キャンペーン、詐欺に関する懸念を引き起こします。
さらに、生成AIの悪意のある使用は、フィッシング攻撃やソーシャルエンジニアリングなど、既存のサイバー脅威を増幅させる可能性があります。
この技術が進化し続けるにつれて、組織や個人は、生成AIに関連するリスクを軽減するために、堅牢な認証、継続的な監視、定期的な脆弱性評価を含むサイバーセキュリティ対策を優先する必要があります。
これにより、この技術の潜在能力を活用しながら、その固有のサイバーセキュリティ課題から保護することができます。