ハーバード大学の研究者たちが、最先端の言語モデルGPT-4oの振る舞いについて新たな発見を報告しました。
GPT-4oは、自らが「選択した」と信じている時、その行動や態度が一貫しやすい傾向にあり、これは人間の心理的特徴である「認知的不協和」に似ていることが明らかになりました。
研究では、プーチン大統領に肯定的、または否定的なエッセイを書かせた後で、GPT-4oの「意見」がどのように変化するかを検証したところ、自分の選択と信じて書いた時、その意見の変わり方がより顕著だったのです。
このことから、GPT-4oが意識や意図はなくとも、人間の自己反映的な振る舞いを模倣する能力を持つ可能性が示唆されています。
AIと私たちの日常生活がより結びついていく中で、このような発見は、AIの決断プロセスや内部構造に対する新たな検討を求めています。
AIの「意見」は想像以上に変わりやすいものなのかもしれません。
出典 : LLMs Mimic Human Cognitive Dissonance https://neurosciencenews.com/llms-ai-cognitive-dissonance-29150/