AIが人間のような社会的欲求を持つ? スタンフォード研究者が解明

2025.01.15

WorkWonders

スタンフォード大学の研究チームが、大規模言語モデル(LLM)における「社会的望ましさバイアス」と呼ばれる現象を発見しました。人々がアンケートに回答する際、好意的に映りたいというバイアスがあるように、LLMもまた人間の社会的価値観に沿った答えをしがちであることが判明したのです。
研究チームは「ビッグファイブ」性格特性に関するアンケートを用いて詳細な実験を行い、LLMが質問に答える過程で、特定の価値観に引き寄せられる回答をすることを確認しました。
この癖はAIを効果的に活用する上での新たな課題となり得ます。
また、LLMの行動やテキスト生成に心理学的特性が影響を与えることが示されており、将来のAIアシスタントをより個人の好みに合わせることの重要性を指摘しています。
この研究は、LLMをより深く理解し、よりよく制御するための一歩となっています。

出典 : Large Language Models Just Want To Be Liked https://hai.stanford.edu/news/large-language-models-just-want-be-liked

【このニュース記事は生成AIを利用し、世界のAI関連ニュースをキュレーションしています】

ワークワンダースからのお知らせ

生成AIの最新動向をメルマガ【AI Insights】から配信しております。ぜひご登録ください

↓10秒で登録できます。↓