私たちの日常を取り巻くあらゆる物事は、何らかの形で互いにつながっています。このつながりを表すために、コンピュータ科学では「グラフ」という概念が使用されます。グラフとは、ノード(物体や概念)とエッジ(ノード同士を結ぶ関係性)で構成されます。例えば、インターネットはウェブサイトがリンクで結ばれた巨大なグラフと見なすことができます。
一方、人工知能技術も日々進化しており、数秒で物語を書くチャットボットや医療報告の解釈を行うソフトウェアなどが開発されています。これらはすべて、言語モデル(LLMs)と呼ばれる技術に基づいていますが、LLMsは通常のテキストデータを学習することが多く、グラフ情報をうまく扱うことができないという問題がありました。
私たちはその課題に挑み、LLMsがグラフ情報をうまく扱い、問題解決する能力を向上させる方法を研究し、それを「Talk like a Graph: Encoding Graphs for Large Language Models」という研究で2024年のICLRで発表しました。私たちは、異なるタイプのグラフを認識し、グラフに基づいた問題を解決できる能力を持つベンチマーク「GraphQA」を新たに設計しました。
この研究では、LLMsがグラフのタスクにどの程度適応できるか、さまざまな方法で実験を行いました。そして、グラフの問題を解決する際のパフォーマンスはグラフの構造やタスクの性質によって大きく変わることがわかりました。これにより、LLMsがグラフ情報をより効果的に理解し扱うための手法を見つけ出す手掛かりを得ることができました。
出典 : https://blog.research.google/2024/03/talk-like-graph-encoding-graphs-for.html