ジョージア州立大学の新しい研究によれば、人々は倫理的な問いに対するAIの答えを人間のものよりも高く評価する傾向があります。
心理学部のイヤル・アハロニ准教授によるこの研究では、倫理的な質問に対して大学生とAIが答えたものを参加者に提示し、その品質を評価させました。
参加者は、答えが人間かAIかを知らされずに評価し、AIの答えを徳性、知性、信頼性の面で人間のものよりも高く評価したのです。
この「変形モラル・チューリングテスト」では、AIが複雑な道徳的推論を見せることで、AIが道徳的な問題に関しても人間と見分けがつかないほどに説得力を持つと示唆されています。
結果として、AIによる意思決定への影響が高まっており、技術への社会的信頼に対する潜在的な意義が示唆されています。
研究は、人々が意識せずAIとのやり取りをする場面や、人よりもAIを信頼し情報を求める場面が増える中、この技術の役割を理解することの重要性を強調しています。
出典 : https://neurosciencenews.com/ai-llm-morality-26041/