マイクロソフトの研究者による”GPT-4というAI言語モデルに関する新論文が公開されました。しかし、そこに書かれている主張はすぐには受け入れられません。
AIが言語を理解するためには、どれだけのデータを与えても十分ではないということが明らかになりました。論文では、GPT-4が高度な推論能力を持つ事例として提示されたのですが、それが教師の評価をコピーしているだけだと気づかされました。
また、このAIは「次の言葉を予測する」というのが基本で、どこか短絡的で誤差が積み重ねられやすい傾向があるとも指摘されています。更なる問題として、訓練データだけで評価するのは現実的ではないとの提言がなされています。
「人間のようなAI(AGI)」についての議論も満載ですが、私が読み解くにはAGIは未来永劫来ないと思われます。人間が持つ様々な能力をAIに模倣させようとする努力は、結局は大金を無駄にするだけかもしれません。その資源は、人間の能力を強化するAIの開発に使われるべきです。君たちはAGIが可能だと思いますか?ぜひ教えてください。
出典 : https://medium.com/geekculture/observations-on-microsofts-experiments-with-gpt-4-3d189647556d