新たな脅威「InputSnatch」:LLMのプライバシーを侵害するサイドチャネル攻撃

2024.12.01

WorkWonders

サイバーセキュリティ研究者たちは、大規模言語モデル(LLM)を使用する際のユーザーのプライバシーを脅かす新しいサイドチャネル攻撃を明らかにしました。
攻撃者は、キャッシュを共有する際のタイミングの違いを利用して、ユーザーが意図せずに入力した情報をリークさせてしまいます。
その結果、攻撃者はユーザーの秘密のクエリを高い精度で再構築することが可能となります。
研究者たちは、性能の向上に伴うセキュリティの穴を指摘し、LLM推論の改善と同時に、プライバシーとセキュリティの重要性を強調しています。
LLMが医療、金融、法務などの敏感な領域でますます重要な役割を果たすにつれ、パフォーマンス最適化とユーザーのプライバシーの間の微妙なバランスに対処することが求められます。
この研究はAIコミュニティに、タイミングベースのサイドチャネル攻撃に対処するために、プライバシーを保護するための堅牢な技術の実装を提案しています。

出典 : InputSnatch – A Side-Channel Attack Allow Attackers Steal The Input Data From LLM Models https://cybersecuritynews.com/inputsnatch-novel-side-channel-attack/

【このニュース記事は生成AIを利用し、世界のAI関連ニュースをキュレーションしています】

【お知らせ】
弊社ワークワンダース社主催ウェビナーのご案内です。


<2025年1月21日実施セミナー>

生産性を爆上げする、「生成AI導入」と「AI人材育成」のコツ


【内容】
1. 生産性を爆上げするAI活用術(安達裕哉:ワークワンダース株式会社 代表取締役CEO)
2. 成功事例の紹介:他業種からAI人材への転身(梅田悟司:ワークワンダース株式会社CPO)
3. 生成AI導入推進・人材育成プログラム「Q&Ai」の全貌(元田宇亮:生成AI研修プログラム「Q&Ai」事業責任者)
4. 質疑応答



日時:
2025/1/21(火) 16:00-17:30

参加費:無料  
Zoomビデオ会議(ログイン不要)を介してストリーミング配信となります。



お申込み・詳細 こちらウェビナーお申込みページをご覧ください

(2024/12/11更新)