今日のAI業界では、知識グラフの重要性が高まっています。これはLLM(Large Language Models)の背後にある知識検索システムを可能にするからです。多くの企業のデータサイエンスチームが、「検索を拡張した生成」(RAG)に積極的に投資しており、これはLLMの出力精度を向上させたり、誤りを減らしたりする効果的な方法です。
しかし、個々の用途に合わせたAIモデルをカスタマイズするためには、これまで大規模な前訓練、特定データセットでのファインチューニング、あるいはコンテキストプロンプトという三つの選択肢がありました。
しかし、前訓練はコストが非常に高く技術的にも難易度が高いため、多くの開発者には現実的ではありませんでした。その点、ファインチューニングは前訓練よりも手軽で、モデルやトレーニング用コーパスにもよりますが、一般的に費用が抑えられる傾向にあります。
graph-RAGにより、個々の利用事例に合わせたAIのカスタマイズが民主化されつつあります。これにより、楽しみのためでもビジネスのためでも、より手軽にモデルをカスタマイズする道が開かれているのです。
出典 : Building a Knowledge Graph From Scratch Using LLMs https://towardsdatascience.com/building-a-knowledge-graph-from-scratch-using-llms-f6f677a17f07