プライバシー保護とセキュリティの強化:新たな方法「IsolateGPT」

2025.02.27

WorkWonders

私たちの生活に便利さをもたらす大規模言語モデル(LLM)ですが、セキュリティリスクを抱えていることも事実です。例えば、予定の調整や航空券の予約などで利用される際、プライバシーの問題が生じることがあります。
これに対し、ワシントン大学セントルイス校のマッケルビー工学部に所属するコンピュータ科学と工学の助教授であるウマル・イクバル氏と、博士課程の学生ユーハオ・ウ氏が、ユーザーデータのリスクを抑えながら、アプリケーションの恩恵を享受するための「IsolateGPT」という方法を開発しました。
この研究は、他にもワシントン大学のコンピュータ科学者であるフランツィスカ・ローズナー氏やタダヨシ・コウノ氏といった共同研究者によって支えられています。
彼らはこの成果を、2月24日から28日にかけて開催されたNetwork and Distributed System Security Symposiumで発表しました。
イクバル氏は、「これらのシステムは非常に強力でユーザーの代わりに多くのことを行うことができますが、信頼性がないため現在ユーザーは信用することができません」と述べています。
さらなる情報はマッケルビー工学部のウェブサイトで読むことができます。

出典 : ‘IsolateGPT’ to make LLM-based agents more secure https://source.washu.edu/2025/02/isolategpt-to-make-llm-based-agents-more-secure/

【このニュース記事は生成AIを利用し、世界のAI関連ニュースをキュレーションしています】

ワークワンダースからのお知らせ

生成AIの最新動向をメルマガ【AI Insights】から配信しております。ぜひご登録ください

↓10秒で登録できます。↓