これまでの概要に基づき、ローカルで実行できるPythonのStreamlitとLLM(Ollama)を使ってPDFを読み込む手法を紹介します。GitHubのGistのような形での投稿で、コメントは最小限に留めています。
Googleで「ローカル LLM PDF」を検索した結果とコードを共有し、Apple iCloud iBooksの全てを私的な議論のための「神託」GPTに読み込ませるという私の使い方を試みます。さらに、著者のスタイルで応答する2つのGPTを運用することも試みです。ここでは、PDFをローカルLLMに読み込み、一般的なモデルより精度が高いことを確認する第一段階を解説します。
結果やパーソナルテストの注意点を比較し、通常のLLMとPDFトレーニング済みのLLMの結果を、例えば、著者を正確に識別する能力について検証しました。
コードは美しさはありませんが、「私のマシンでは動く」という条件のもとで提供します。例えば`test.py`というファイル名で実行する場合、PDFのファイル名をテスト用のPDFに更新してから、Streamlitを`streamlit run test.py`で起動します。
出典 : https://medium.com/@stefnestor/streamlit-local-llm-pdfs-0a7243883a12