AIの核心を盗む時代。ChatGPTもパルムも、安全じゃない。

2024.03.14

WorkWonders

AI研究者たちが、OpenAIのChatGPTやGoogleの大規模言語モデルPaLM-2などから機密情報を抽出できる「モデル窃盗攻撃」を発表しました。

この攻撃は以前から知られていましたが、2023年に稼働中の言語モデルのAPIで効果があることが判明。研究チームは2023年11月に実証実験を行い、その後の攻撃を通じて脆弱性を持つサービスへと情報を提供。それによりサービス提供側は脆弱性の修正に乗り出しました。

この攻撃により、AIモデルから特定の機能が盗み出される可能性があることが示されたにもかかわらず、完全なモデルの復元は非現実的です。研究チームは、セキュリティを考慮したAPI設計の重要性を強調し、攻撃が成功した理由としてAIモデルへの特定のAPIアクセスを挙げました。

出典 : https://article.auone.jp/detail/1/3/7/48_7_r_20240313_1710324152777399

【このニュース記事は生成AIを利用し、世界のAI関連ニュースをキュレーションしています】

ワークワンダースからのお知らせ

生成AIの最新動向をメルマガ【AI Insights】から配信しております。ぜひご登録ください