現代社会において、AIは意思決定支援ツールとして広く利用されていますが、ロンドン大学カレッジ(UCL)の最新研究によると、ChatGPTのようなAIプラットフォームは、論理テストにおいて一貫性のない回答を示し、追加の文脈を与えられても改善されないことが明らかになりました。
この研究は、AIがいかに「考える」かを理解することの重要性を強調しており、特に意思決定に関わるタスクを任せる前には慎重であるべきとしています。
AIはリアルなテキストや画像の生成には長けていますが、基本的な数学の計算間達を犯したり、情報を捏造することもしばしばあります。
UCLの調査では、論理的・確率的なルールに基づく合理的な推論ができるかどうかをLLM(大規模言語モデル)を用いて検証しました。
結果としてAIは多くの不合理な回答をし、同じ問題に対しても異なる回答をしてしまうことが判明しました。
科学技術が進歩する一方で、AIの「理性」に関する理解は未だ途上にあり、私たちは完璧な判断を下すAIを望むのか、人間と同じように間違いを犯すAIを望むのか、その選択を迫られています。
出典 : https://neurosciencenews.com/ai-llm-reasoning-26248/