エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
ここにツイート内容が記載されます https://b.hatena.ne.jp/URLはspanで囲んでください
Twitterで共有ONにすると、次回以降このダイアログを飛ばしてTwitterに遷移します
最近Mac mini m4を購入してLLM専用機にして遊び始めたAI初心者です。主にOllamaでLLMを動かし、Open Web... 最近Mac mini m4を購入してLLM専用機にして遊び始めたAI初心者です。主にOllamaでLLMを動かし、Open WebUIをインタフェースとして利用しています。 今回のポストではMCPO、MCP-to-OpenAPIプロキシサーバを用いてローカルLLMにMCPサーバ上のツールを使ってもらうというセットアップを紹介します。 用意するもの LLMを動かすOllamaサーバ // 仮に192.0.2.2:11434とする Open WebUIサーバ // 仮に192.0.2.3:3000とする MCPOサーバ // 仮に192.0.2.4:8000とする このサーバ上よりMCPサーバ/ツールを提供 手順 Ollamaサーバの用意 open-webuiサーバの用意 MCPサーバ(ツール)の確認 MCPOサーバの用意 Open WebUIでのツール使用設定 Open WebUIでの、LL