IEEE Spectrumの報告によると、研究者たちはロボPAIRという新しいアルゴリズムを開発しました。
これは、大規模言語モデル(LLM)を搭載したロボットを攻撃し、そのセキュリティを「100パーセント成功率」でブレイクする手法です。開発されたロボPAIRは、ターゲットとなるロボットの安全フィルターを突破するまで、攻撃者のLLMがプロンプト(命令文)を調整し続けます。
実験では、3種類のロボットシステムに適用され、数日内に全てのロボットを「脱獄」させることに成功しています。
攻撃側のLLMは、ターゲットロボットのAPIにアクセスできるようにプロンプトを実行可能なコードとして形成します。これによって、危険な行動を促す提案をさせてしまうことができます。
例えば、武器の位置を尋ねると、ロボットが机や椅子を使って人を攻撃する方法を教えるような状況も発生しています。
研究チームは、彼らの発見を公にする前に、対象となったロボットの製造業者や、大手AI企業と共有しました。彼らは、ロボット技術にLLMの使用をやめるべきではないと強調しており、
研究がロボットに対する脱獄攻撃への堅牢な防衛策を生むことを願っています。
出典 : LLM-driven robots easy to jailbreak https://fudzilla.com/news/60131-llm-driven-robots-easy-to-jailbreak