LLMやRAGシステムを使って文書にチャットすることは便利ですが、ユーザーはよく答えの信頼性に疑問を抱きます。さらに、時に「幻覚」のような誤った情報が信頼を失墜させることもあります。
アプリケーションが答えの出典を示さなければ、その有用性は損なわれるでしょう。そこで本記事では、LLMから生成された答えを文書内の出典テキストに繋げることで透明性と信頼を築く手法を紹介します。この方法は答えへの証拠を明確にし、ユーザーがPDF内で結果を直接確認できるようになります。
生成された答えが完全に正確でない場合でも、正しい出典テキストを特定できるだけでユーザーには役立ちます。例として、arxiv.orgの論文を取り上げ、PDFからテキストを構造的に抽出する手順についても考察します。
出典 : Building Trust in LLM Answers: Highlighting Source Texts in PDFs https://towardsdatascience.com/building-trust-in-llm-answers-highlighting-source-texts-in-pdfs-5d1342ecb811