MCPホストを若干考察する
MCPとは何ですか
MCPは、AnthropicがClaudeのために開発したプロトコルです。MCPはModel Context Protocolの略であり、LLMが能動的に外部の動作やリソースを要求できるようにするプロトコルです。MCPは文字通り要求と応答を提供するプロトコルに過ぎないため、その過程と実行は開発者が行う必要があります。
内部動作について
内部動作について説明する前に、Gemini Function Callingについて触れておきます。Gemini Function CallingもMCPと同様に、LLMが主導的に外部動作を呼び出すことを可能にします。では、なぜFunction Callingをわざわざ持ち出したのか疑問に思うかもしれません。わざわざ持ち出した理由は、Function CallingがMCPよりも先に登場したこと、そして同様にOpenAPIスキーマを利用するという点で互換性があり、相互の動作が類似していると推測したためです。そのため、比較的Gemini Function Callingの説明がより詳細であるため、参考になると思われ持ち出しました。
全体的な流れは以下の通りです。
- 関数を定義します。
- プロンプトとともに、関数定義をGeminiに送信します。
- "Send user prompt along with the function declaration(s) to the model. It analyzes the request and determines if a function call would be helpful. If so, it responds with a structured JSON object."
- Geminiが必要と判断した場合、関数呼び出しを要求します。
- Geminiが必要と判断した場合、関数呼び出しのための名前とパラメータが呼び出し元に伝えられます。
- 呼び出し元は実行するかどうかを決定できます。
- 呼び出して正当な値を返すか
- 呼び出さずに、呼び出したかのようにデータを返すか
- 単に無視するか
- Geminiは、上記のプロセスにおいて、一度に複数の関数を呼び出したり、関数呼び出し後に結果を見て再度呼び出すなどの動作を実行および要求します。
- 結果として、整理された回答が得られれば終了です。
この流れは一般的にMCPと共通しています。これはMCPのチュートリアルでも同様に説明されています。これはollama toolsも同様です。
そして幸いなことに、これら3つのツール、ollama tools、MCP、Gemini Function Callingは、スキーマ構造がほぼ共有されているため、MCPを1つ実装するだけで3か所すべてに利用できるということです。
ああ、そして誰もが共有する欠点があります。結局のところ、モデルが実行するものであるため、使用しているモデルの調子が悪い場合、関数を呼び出さなかったり、奇妙に呼び出したり、MCPサーバーにDOS攻撃を行ったりするなどの誤動作が発生する可能性があります。
Goで記述されたMCPホスト
mark3labのmcphost
Goには、mark3labという組織で開発中のmcphostがあります。
使い方は非常に簡単です。
1go install github.com/mark3labs/mcphost@latest
インストール後、$HOME/.mcp.jsonファイルを作成し、以下のように記述します。
1{
2 "mcpServers": {
3 "sqlite": {
4 "command": "uvx",
5 "args": [
6 "mcp-server-sqlite",
7 "--db-path",
8 "/tmp/foo.db"
9 ]
10 },
11 "filesystem": {
12 "command": "npx",
13 "args": [
14 "-y",
15 "@modelcontextprotocol/server-filesystem",
16 "/tmp"
17 ]
18 }
19 }
20}
そして、以下のようにollamaモデルで実行します。もちろん、その前に必要であればollama pull mistral-small
でモデルをダウンロードします。
基本的にはclaudeやqwen2.5を推奨しますが、私は現時点ではmistral-smallを推奨します。
1mcphost -m ollama:mistral-small
ただし、このように実行すると、CLI環境での質疑応答形式でしか使用できません。そこで、このmcphost
のコードを修正し、よりプログラマブルに動作するように変更してみましょう。
mcphostのフォーク
すでに確認したように、mcphost
にはMCPを活用してメタデータを抽出し、関数を呼び出す機能が含まれています。したがって、LLMを呼び出す部分、MCPサーバーを扱う部分、メッセージ履歴を管理する部分が必要です。
該当する部分を取り出したのが、次のパッケージのRunner
です。
1package runner
2
3import (
4 "context"
5 "encoding/json"
6 "fmt"
7 "log"
8 "strings"
9 "time"
10
11 mcpclient "github.com/mark3labs/mcp-go/client"
12 "github.com/mark3labs/mcp-go/mcp"
13
14 "github.com/mark3labs/mcphost/pkg/history"
15 "github.com/mark3labs/mcphost/pkg/llm"
16)
17
18type Runner struct {
19 provider llm.Provider
20 mcpClients map[string]*mcpclient.StdioMCPClient
21 tools []llm.Tool
22
23 messages []history.HistoryMessage
24}
該当部分の内部宣言については特に触れません。しかし、ほぼ名前の通りです。
1func NewRunner(systemPrompt string, provider llm.Provider, mcpClients map[string]*mcpclient.StdioMCPClient, tools []llm.Tool) *Runner {
2 return &Runner{
3 provider: provider,
4 mcpClients: mcpClients,
5 tools: tools,
6 messages: []history.HistoryMessage{
7 {
8 Role: "system",
9 Content: []history.ContentBlock{{
10 Type: "text",
11 Text: systemPrompt,
12 }},
13 },
14 },
15 }
16}
ここで使用されるmcpClients
とtools
については、該当ファイルをご確認ください。provider
はollamaのものを使用するため、該当ファイルをご確認ください。
メインとなるのはRun
メソッドです。
1func (r *Runner) Run(ctx context.Context, prompt string) (string, error) {
2 if len(prompt) != 0 {
3 r.messages = append(r.messages, history.HistoryMessage{
4 Role: "user",
5 Content: []history.ContentBlock{{
6 Type: "text",
7 Text: prompt,
8 }},
9 })
10 }
11
12 llmMessages := make([]llm.Message, len(r.messages))
13 for i := range r.messages {
14 llmMessages[i] = &r.messages[i]
15 }
16
17 const initialBackoff = 1 * time.Second
18 const maxRetries int = 5
19 const maxBackoff = 30 * time.Second
20
21 var message llm.Message
22 var err error
23 backoff := initialBackoff
24 retries := 0
25 for {
26 message, err = r.provider.CreateMessage(
27 context.Background(),
28 prompt,
29 llmMessages,
30 r.tools,
31 )
32 if err != nil {
33 if strings.Contains(err.Error(), "overloaded_error") {
34 if retries >= maxRetries {
35 return "", fmt.Errorf(
36 "claude is currently overloaded. please wait a few minutes and try again",
37 )
38 }
39
40 time.Sleep(backoff)
41 backoff *= 2
42 if backoff > maxBackoff {
43 backoff = maxBackoff
44 }
45 retries++
46 continue
47 }
48
49 return "", err
50 }
51
52 break
53 }
54
55 var messageContent []history.ContentBlock
56
57 var toolResults []history.ContentBlock
58 messageContent = []history.ContentBlock{}
59
60 if message.GetContent() != "" {
61 messageContent = append(messageContent, history.ContentBlock{
62 Type: "text",
63 Text: message.GetContent(),
64 })
65 }
66
67 for _, toolCall := range message.GetToolCalls() {
68 input, _ := json.Marshal(toolCall.GetArguments())
69 messageContent = append(messageContent, history.ContentBlock{
70 Type: "tool_use",
71 ID: toolCall.GetID(),
72 Name: toolCall.GetName(),
73 Input: input,
74 })
75
76 parts := strings.Split(toolCall.GetName(), "__")
77
78 serverName, toolName := parts[0], parts[1]
79 mcpClient, ok := r.mcpClients[serverName]
80 if !ok {
81 continue
82 }
83
84 var toolArgs map[string]interface{}
85 if err := json.Unmarshal(input, &toolArgs); err != nil {
86 continue
87 }
88
89 var toolResultPtr *mcp.CallToolResult
90 req := mcp.CallToolRequest{}
91 req.Params.Name = toolName
92 req.Params.Arguments = toolArgs
93 toolResultPtr, err = mcpClient.CallTool(
94 context.Background(),
95 req,
96 )
97
98 if err != nil {
99 errMsg := fmt.Sprintf(
100 "Error calling tool %s: %v",
101 toolName,
102 err,
103 )
104 log.Printf("Error calling tool %s: %v", toolName, err)
105
106 toolResults = append(toolResults, history.ContentBlock{
107 Type: "tool_result",
108 ToolUseID: toolCall.GetID(),
109 Content: []history.ContentBlock{{
110 Type: "text",
111 Text: errMsg,
112 }},
113 })
114
115 continue
116 }
117
118 toolResult := *toolResultPtr
119
120 if toolResult.Content != nil {
121 resultBlock := history.ContentBlock{
122 Type: "tool_result",
123 ToolUseID: toolCall.GetID(),
124 Content: toolResult.Content,
125 }
126
127 var resultText string
128 for _, item := range toolResult.Content {
129 if contentMap, ok := item.(map[string]interface{}); ok {
130 if text, ok := contentMap["text"]; ok {
131 resultText += fmt.Sprintf("%v ", text)
132 }
133 }
134 }
135
136 resultBlock.Text = strings.TrimSpace(resultText)
137
138 toolResults = append(toolResults, resultBlock)
139 }
140 }
141
142 r.messages = append(r.messages, history.HistoryMessage{
143 Role: message.GetRole(),
144 Content: messageContent,
145 })
146
147 if len(toolResults) > 0 {
148 r.messages = append(r.messages, history.HistoryMessage{
149 Role: "user",
150 Content: toolResults,
151 })
152
153 return r.Run(ctx, "")
154 }
155
156 return message.GetContent(), nil
157}
コード自体は該当ファイルの一部を編集したものです。
内容は概ね以下の通りです。
- プロンプトとツールリストを送信し、実行の可否、あるいは応答の生成を要求します。
- 応答が生成された場合、再帰を停止して返却します。
- LLMがツール実行要求を残した場合、ホストはMCP Serverを呼び出します。
- 応答を履歴に追加し、再び1番に戻ります。
最後に
もう終わり?
実は、それほど多くのことを語る必要はありません。概ねMCP Serverがどのように動作するのかを理解していただくために書かれた記事です。この記事が、皆様にとってMCPホストの動作を理解する上で、わずかながらでも助けになったことを願っています。