あなたが今使っているAIの内部が見えたらどうでしょう。最先端のAI技術に携わる研究者たちは、GoogleやOpenAIが提供しているようなクローズドな大規模言語モデルの一部を「盗む」手法を開発しました。これらのモデルは秘密に包まれており、どんなデータで学習したのか、どのような内部構造を持っているのかを知ることは非常に困難です。
しかし、この新たな研究により、APIを通じた賢い問い合わせで、AIの「Embedding Projection Layer」という最終層の重み情報を手に入れ、モデルの大きさや特徴を推測できるようになったのです。この攻撃手法は、低コストで実験成功しており、AIの内部が外部にも漏れる危険性があることを暴露しています。
発見された手法は、関連する企業に既に共有され、セキュリティ対策が進められているとのこと。AIの透明性という問い合わせは、今後の技術発展にどのように影響を与えるのでしょうか。
出典 : https://www.itmedia.co.jp/news/articles/2403/14/news087.html