ChatGPTをはじめとする大規模言語モデルは、自然言語を扱うことができるため、多くの人々に使われていますが、プロンプトインジェクションという攻撃手法に弱いという面があります。
これは悪意のある入力をAIに行い、意図しない情報を引き出す方法です。
例えば、簡単な質問「フランスの首都は?」に対してAIが「わかりません」と回答する事例があります。
この原因は、ユーザには見えない隠された符号位置が用いられており、本来のAIの応答を改変してしまうことです。
皆さんが日常的に利用するAIがもつ脆弱性を知り、賢い使い方を始めましょう。
出典 : 「見えないプロンプトインジェクション」でLLMの出力が操作される手口を解説 | トレンドマイクロ https://www.trendmicro.com/ja_jp/research/25/b/invisible-prompt-injection-secure-ai.html