衝撃の事実:AIが秘匿情報を漏らす可能性

2024.01.17

WorkWonders

先月、インディアナ大学ブルーミントン校の博士課程学生、Rui Zhuから驚くべきメールを受け取りました。彼は、先進的な言語モデルであるOpenAIのGPT-3.5 Turboを使い、研究チームと一緒にプライバシーに関する問い合わせへの制限を回避し、ニューヨークタイムズの従業員30人以上のビジネスおよび個人のメールアドレスを抽出することに成功しました。
私のメールアドレスは秘密ではありませんが、研究者たちの実験が成功したという事実は、ChatGPTのような生成AIツールが個人情報を露出させる可能性があることを示し、警鐘を鳴らすものです。

ChatGPTは質問に対してウェブを単に検索するわけではなく、トレーニングデータから「学んだ」情報を基に回答を生成します。理論上、より多くのデータが追加されるほど、古い情報はモデルの奥深くに埋もれることになるはずですが、最近の研究により、大規模な言語モデルも人間と同じように記憶を呼び覚ますことがあることが示されました。

特に、APIを通じた実験では、一般のChatGPTインターフェースで拒否されるようなリクエストも受け入れられたとのこと。OpenAIはそのモデルのファインチューニングに関し安全性を重視していると述べていますが、トレーニングデータの詳細については秘匿しています。これらの事実から、商用の大規模言語モデルが秘匿情報を守る強力な防御手段を備えていない可能性があることが指摘され、安全性への懸念が高まっています。

出典 : https://www.nytimes.com/interactive/2023/12/22/technology/openai-chatgpt-privacy-exploit.html

【このニュース記事は生成AIを利用し、世界のAI関連ニュースをキュレーションしています】

ワークワンダース社は、生成AIの活用・導入について客観的な立場からご相談に応じています。

生成AIに関するご相談はこちらからご連絡ください。 当社のご支援実績はこちらからご確認ください。