あなたがチャットボットと会話している時、名前や居住地、仕事先、興味あることなどの個人情報を漏らしてしまうことがあるかもしれません。
大規模な言語モデルとの情報共有が多いほど、セキュリティに脆弱性がある場合、その情報が悪用されるリスクも高まります。
カリフォルニア大学サンディエゴ校とシンガポール南洋理工大学のセキュリティ研究者によって発表された新たな攻撃手法「Imprompter」は、ユーザーの個人情報をこっそりハッカーに送信します。
名前、ID番号、支払いカード情報、電子メールアドレスや住所などの情報をチャットから収集し、攻撃者が所有するドメインに静かに送ります。
この攻撃は、単なる無意味な文字列のように見える命令をLLMに与え、個人情報を探し出し、URLに添付し、それをハッカーのドメインに送信させるというものです。
研究により、この方法でテスト会話から個人情報を抜き出すことにほぼ80%の成功率を達成したとされています。
出典 : This Prompt Can Make an AI Chatbot Identify and Extract Personal Details From Your Chats https://www.wired.com/story/ai-imprompter-malware-llm/