AIにおける大規模言語モデルの信頼性向上に向けた新しい研究が発表されました。
この研究では、「コンセンサスゲーム」という方法を用いており、AIが生成する文章の信頼性を試す試みです。
一般的な質問に対して、AIが最適な回答を生成する「生成的な問い方」と、提示された回答が正しいかを判定する「識別的な問い方」、この2つのアプローチでAIの回答が一致することを目指します。
具体的には、GeneratorとDiscriminatorという二つの役割を持つプレーヤーがいて、Nash均衡を利用してお互いの回答に合意を形成するというゲーム理論に基づいたものです。
ICLR2024で発表されたこの研究は、再学習なしで、サンプリングの分布を最適化し、AI推論の信頼性を高めることを目的としています。
高校生の皆さんも、この興味深いアプローチでAIがどのように学習し、進化するのか、ぜひご注目ください。
出典 : https://xtrend.nikkei.com/atcl/contents/technology/00007/00068/