Ollamaがバージョン0.5でLLM APIの大幅な拡張をリリースしました。
新たに導入された構造化出力により、モデルの出力をJSONスキーマで定義された特定の形式に制約することが可能になりました。
これによって、開発者が頭を悩ませていた問題が解決します。すなわち、確実で繰り返し可能な結果を得るためには、システムが処理する入力内容を「知る」必要があるのです。
さらに、ユーザーに対して毎回同じ形式でモデル出力を表示することで、混乱やエラーを避けることができるようになります。
以前は、多くのモデルから一貫した出力形式を確保することが大変でしたが、Ollamaの新機能により容易になりました。
使い方については、こちらの記事をご覧になってください。最新版のOllamaのインストール方法から、その魅力に触れるコードスニペットまで詳しく解説しています。
出典 : Structured LLM Output Using Ollama https://towardsdatascience.com/structured-llm-output-using-ollama-73422889c7ad