大規模言語モデル(LLM)は、世界の知識を膨大なパラメータに圧縮することができますが、最後のトレーニング時点までの情報しか持たず、特定の質問に対して作り話(幻覚)をしたりするという問題があります。
RAG(Retrieval-Augmented Generation)技術を使うことで、これらの限界を克服し、トレーニング済みのLLMに具体的な情報を問い合わせの際に追加のコンテキストとして提供することが可能になります。
本記事では、GoogleのLLMであるGemmaにRAG機能を実装する方法を、Hugging Faceのトランスフォーマーライブラリ、LangChain、Faissベクトルデータベースを使って理論と実践の両面から解説します。
この技術により、AIは最新かつ具体的な情報源を活用することができるようになります。
出典 : https://medium.com/towards-data-science/how-to-build-a-local-open-source-llm-chatbot-with-rag-f01f73e2a131