AIの秘密を盗み出す新手法、セキュリティの脆弱性を暴く

2024.03.15

WorkWonders

AI研究者たちが、「モデル窃盗攻撃」と呼ばれる新たな攻撃手法を発表しました。
この手法は、ChatGPTやGoogleのPaLM-2などの大規模言語モデルから機密情報を盗み出すことが可能です。
2020年に初めて発見され、2023年には実際に機能することが確認されました。

研究チームは、OpenAIのGPT-3などから、最終層の情報を盗み出す実験に成功。
ただし、完全なモデルを復元することは、未だ困難であると指摘しています。
Google DeepMindをはじめ、多くの機関が研究に関わり、結果は2023年11月に公開されました。

この攻撃手法の発見により、AIモデルに対するセキュリティの脆弱性が明らかになり、セキュリティに対する新たな対策が求められています。
将来的には、より実用的な攻撃手法が登場する可能性があると研究チームは示唆しています。

出典 : https://gigazine.net/news/20240313-ai-llm-model-stealing-attack/

【このニュース記事は生成AIを利用し、世界のAI関連ニュースをキュレーションしています】

ワークワンダースからのお知らせ

生成AIの最新動向をメルマガ【AI Insights】から配信しております。ぜひご登録ください