この記事では、チャットボット(LLM)の「理解」という能力について説明しています。LLMは印象的なことをすることができますが、人間の子供のようにリアルな世界で行動したり、記憶したり、欲求を持ったりすることはできません。
LLMの理解は統計モデルから予測されるものであり、人間のように経験から学ぶわけではありません。しかしながら、LLMが示す能力を人間中心的な偏見で見過ごしている可能性もあります。
記事では、犬の理解力を測る実験例を引き合いに出しながら、LLMがどれだけ「理解」しているか、また、どのようにしてその理解度を測定するかについて考察しています。
作者は、LLMが実際の意味で「理解」しているかどうかについては疑問を呈していますが、その「理解」が人間のそれとは異なる形で存在する可能性を示唆しています。
これからの研究では、LLMがどのように言葉の概念をモデリングしているかを明らかにすることで、「理解」の本質をもっと理解できるかもしれません。
出典 : What Do Large Language Models “Understand”? https://towardsdatascience.com/what-do-large-language-models-understand-befdb4411b77