イスラエルの研究者たちが、AIチャットbotを利用する際、攻撃者が通信データを傍受し、個人間の会話を盗み出す手法を明らかにしました。
この攻撃では、暗号化された通信から、AIが生成する応答の内容を推測することが可能です。
研究者たちはこの手法をLLM(大規模言語モデル)を用いたチャットbotに適用し、2つのモデルを活用してテキスト回答を復元するプロセスを構築しました。
実際の例として、OpenAIのGPT-4など複数の有名サービスで実験を行い、一定の成功率で情報を復元できることを証明しました。
この研究は、私たちが利用するAIサービスの安全性に新たな課題を投げかけています。
出典 : https://www.itmedia.co.jp/news/articles/2403/21/news054.html