AIの暗黒面を警告!セキュリティの専門家が提起する新たなリスクとは

2024.09.13

WorkWonders

最新のAI技術である大規模言語モデル(LLM)ですが、セキュリティの危険性が指摘されています。
米国で開催された「Black Hat USA 2024」で、NVIDIAのセキュリティアーキテクトが2つの脅威、「間接プロンプトインジェクション」と「プラグインの脆弱性」について説明しました。
間接プロンプトインジェクションは、第三者を使ってLLMに不正な情報を挿入し、LLMが誤った回答をしてしまう攻撃です。これはRAGという技術が使われ始めると、特に起きやすくなります。
次に、プラグインの脆弱性は、LLMの機能拡張に使われるものですが、ここにも攻撃のリスクが潜んでいます。
こうした脅威から保護するためには、アクセス制御やシステムの隔離、情報の検証などの対策が必要だと、専門家は警告しています。

出典 : 「RAG」が特に危ない? NVIDIAが指摘した生成AIの“2大脅威” https://techtarget.itmedia.co.jp/tt/news/2409/12/news07.html

【このニュース記事は生成AIを利用し、世界のAI関連ニュースをキュレーションしています】

ワークワンダースからのお知らせ

生成AIの最新動向をメルマガ【AI Insights】から配信しております。ぜひご登録ください