ニューヨーク・タイムズのジェレミー・ホワイト氏によると、ChatGPTを含む大規模言語モデルが個人のメールアドレスを含む情報を漏洩させた可能性があります。
インディアナ大学の研究チームは、GPT-3.5 Turboを用いてニューヨーク・タイムズ社員の名前とメールアドレスを入力し、関連情報を引き出すことに成功。80%の精度で正確な情報を得ることができたとされています。
これにより、大規模言語モデルが保持する個人情報へのアクセスにはリスクが伴うことが明らかになりました。
OpenAIは個人情報の保護に努めていますが、AIがトレーニングデータに基づく情報をどこまで記憶しているかについては未知数です。
この研究を通じて、AIが人々のプライバシーに及ぼす影響を再考する必要性が浮き彫りになりました。
出典 : https://gigazine.net/news/20231225-chatgpt-model-delivered-email-personal-information/