最近の大言語モデル(LLM)は、自然言語処理や自律型AIエージェントの発展に広く応用されています。その代表例が、多くの人に使われているChatGPTです。
しかし、LLMは時に正しくない情報を提供することもあります。これは主に、情報の不正確さや記憶の限界に起因しています。
RAG(Retrieval Augmented Generation)という技術がこれらの問題に取り組んでおり、LLMがモデル外の情報にアクセスすることで、より信頼性の高い応答を可能にします。
簡単に言えば、RAGはLLMに”補足説明”を与えるようなもので、これにより、ChatGPTなどのAIがより正確に回答する手助けをしているのです。
高校生のみなさんも、この技術がどのように私たちの「AIとの会話」を改善しているか、ぜひ知っておいてください。
出典 : Breaking It Down : Chunking Techniques for Better RAG https://towardsdatascience.com/breaking-it-down-chunking-techniques-for-better-rag-3fd288bf25a0