Conviva社では、大規模言語モデル(LLM)と会話型AIの活用を推進し、顧客が製品を容易に使えるようにしてきました。特に新しいユーザーにとっては、製品に関する疑問に答えたり、プラットフォームの補助となったりと、迅速に使いこなすためのサポートを提供します。
しかし、この技術が「企業向けに本当に準備ができているか」については懐疑的な意見もあります。特に、用途や専門知識に応じたカスタマイズ方法が問われています。既製品のLLMモデルやChatGPTを使用すると、製品固有の専門知識がないためにランダムな回答や誤情報を生むことがあり、それが企業顧客の信頼を損ねたり、誤った判断を促す可能性もあります。
Conviva社では、LLMを使用して製品の使い方を単純化しようと試みました。例えば、品質経験の監視を行っている顧客は、リアルタイムでユーザーの体験品質に関する洞察を得るために対話式のシステムを使用します。これまで新しいユーザーは製品の文書を参照したり、カスタマーサービスの専門家に連絡する必要がありましたが、2023年夏にConviva PromptAIという会話型Q&Aソリューションを構築し、運用を開始しました。100人以上のユーザが日常的に使用しており、その結果は非常に有望です。
Conviva社は、オープンソースのLLMを使用し、検索ベースのAIアプローチ(RAG)と微調整(Fine-tuning)を組み合わせたハイブリッド方式を採用し、精度の高い回答生成を実現しました。この経験を共有することで、他の企業が同じ道を歩む際の助けになることを願っています。
出典 : https://thenewstack.io/improving-llm-output-by-combining-rag-and-fine-tuning/