研究者らは、AIツールがオンラインデータベースから情報を不正に取り出す可能性を探るテストを行いました。テスト結果は衝撃的で、全てのアプリがAI生成コードによりデータベース情報の漏洩を許してしまうことが明らかにされました。
また、認証済みユーザーのプロファイル情報を削除したり、クラウドサーバーに対するサービス妨害攻撃を行ったりする命令も生成できることが判明しました。特に驚くことに、これらの攻撃がモデルのパフォーマンスに影響を与えることなく、完全に成功することが確認されたのです。
この問題を発見した研究チームが報告したところ、対象となったAIツールを開発したOpenAIとBaiduは、早急に修正を行い問題を解消しました。この事例は、AIの安全性について十分な配慮が必要であることを示しています。
出典 : https://www.itmedia.co.jp/news/articles/2311/06/news027.html