Anthropicは、AI(人工知能)のアプリと外部リソースとの統合を容易にする、Model Context Protocol(MCP)を発表しました。MCPは、異なるLLM(Large Language Models)と複数のツールを繋ぐ際の組み合わせ問題を解決することを目指しています。これにより、LLMのベンダーやツールの開発者たちは共通のプロトコルを参照し連携することが可能になります。
MCPでは、クライアントとサーバーのアーキテクチャを用い、LLMを持つアプリやIDE(Integrated Development Environment)はMCPクライアントを介して、データソースやツールを前面に置くMCPサーバーへ接続します。開発者はPythonやTypeScript用のSDKを利用して、すぐにMCPの導入を始めることができます。また、MCPの仕様は、クライアントとサーバー間のJSON-RPCメッセージを定義し、プリミティブと呼ばれる構築ブロックを実装しています。
サーバー側のプリミティブでは、プロンプト、リソース、ツールを提供して言語モデルにコンテキストを追加します。対して、クライアント側では、ファイルシステムへのエントリポイントを示すRootsや、LLMからの完成作品を求めるSamplingをサポートします。Anthropicは、SamplingはLLMの呼び出しをサーバーのアクションにネストさせることで自律的な振る舞いを実装するのに使用できるとしていますが、サンプリングリクエストの拒否権を持つ人間が必ず介入するべきだと警告しています。
さらに、MCPを使用して開発者が何を構築できるかを示すために、様々な例とチュートリアルも提供されています。GitHub上で、MCPの仕様やドキュメント、SDKも公開されており、AIアプリ開発の新たな境地を示すものとなっています。
出典 : Anthropic Publishes Model Context Protocol Specification for LLM App Integration https://www.infoq.com/news/2024/12/anthropic-model-context-protocol/