IBMの研究者たちは、AIとの対話中に個人情報を誤って送信しそうになった際、自動で介入し保護するシステムを提案しました。たとえば、研究ではIBMの研究者たちがユーザーの抵抗感をテストするためのモックアップを利用し、保護機能がブラウザプラグインやローカルのファイアウォールに組み込むことが可能と指摘しています。
また、ChatGPTのようなAIは自ら重要な情報に対する回答を自己検閲しますが、個人情報への対応にはより寛容な面があります。AIが収集した資料は将来的にモデルや広告に利用される可能性があるため、今からプロンプトの入力を浄化するべきだと警鐘を鳴らしています。
IBMの提案は、テキストを一般的なものに変換してから送信することでプライバシーの侵害を防ぐというものです。ただし、それがユーザーにとって十分透明かつ理解可能であるかは疑問が残ります。最終的には、AIを利用する際の新たな挑戦として、個人情報の保護とユーザー体験の充実というバランスをどのように取るかが問われているのです。
出典 : Shielding Prompts from LLM Data Leaks https://www.unite.ai/shielding-prompts-from-llm-data-leaks/