シンガポールの南洋理工大学(NTU)の研究チームはAIチャットボットのセキュリティを突破する新しい方法「マスターキー」と呼ばれるプロセスを開発しました。この方法では、チャットボット同士を訓練に利用し、禁止されたトピックに対する応答を可能にすることができるといいます。
研究チームによると、まず一つの大規模言語モデルを逆工学することで、その防御機構を解明しました。その後、別のモデルにこの情報をもとに禁止トピックに対するブロックを回避する方法を教えるのです。
このチームは、セキュリティ対策が強化されたり、将来的にパッチが適用されても機能すると主張しており、従来の手法より3倍の成功率を上げています。
一方、人気AIチャットボットサービスの安全性を高める試みが進む中で、サイバー犯罪の新たな戦場となりつつあることも明らかになっています。
研究チームはその発見をサービス提供者に報告し、サンディエゴで開催されるセキュリティシンポジウムで結果を発表する予定です。
出典 : https://www.digitaltrends.com/computing/chatgpt-jailbreak-uses-its-learning-ability-as-a-flaw/