MITの研究者たちは、最新の大規模言語モデル(LLMs)がテキストだけでなく、画像や音声といった多様なデータを処理するための内部メカニズムを探求しました。
人間の脳にも存在する「意味の中枢(semantic hub)」の仕組みに似た、一種の汎用性の高いデータ処理機能を発見。たとえば、英語を主言語とするAIモデルは、演算問題やコードの生成、そして日本語の文章など、異なる種類のデータも英語を介して処理します。
さらに研究者たちは、モデルのこの「意味の中枢」に対して、主言語である英語のテキストを用いて介入し、他の言語での処理におけるモデルの出力を予測可能に変化させることも発見しました。
この研究は、将来の多様なデータに対応可能なより優れたLLMsの訓練に役立つ可能性があり、AIの理解と改善に一歩を進めるものです。
この興味深い研究は、国際学会で発表され、MIT-IBMワトソンAIラボの一部の助成により支えられています。
出典 : Like human brains, large language models reason about diverse data in a general way https://news.mit.edu/2025/large-language-models-reason-about-diverse-data-general-way-0219