大手テック企業が人工知能に挑む中での主な問題は、AIが人類を支配することではありません。
問題は、GoogleのGeminiやMetaのLlamaといった大規模言語モデル(LLM)が事実を誤り、その誤りが解決不可能な点にあります。
例えば、ChatGPTは誤ってある法学教授を性的ハラスメントで非難しましたが、OpenAIは、ChatGPTにその教授についての応答を避けさせることで対応しました。
これは公平でも満足な解決策でもありません。
LLMは巨大なデータに基づいて学習し、それに基づいて論理にたどり着くように動作しますが、その結論は常に確率に基づくため、誤解釈を招きやすいのです。
対策として人間が最終的な決断を下す「ヒューマン・イン・ザ・ループ」がありますが、人間も誤情報に惑わされやすく、根本的な解決にはなっていません。
さらに、トレーニングデータが膨大になり過ぎることで、誤りを修正するコストも増大しています。
Neurosymbolic AIは、この問題を解決する可能性があります。
それはニューラルネットワークの予測学習と、AIに人間の論理ルールを教えることを組み合わせたアプローチです。
この新たな技術が、AI技術の未来を左右するかもしれません。
出典 : Neurosymbolic AI Could Be the Answer to Hallucination in Large Language Models https://singularityhub.com/2025/06/02/neurosymbolic-ai-is-the-answer-to-large-language-models-inability-to-stop-hallucinating/