#hackmd

2025-06-04
mrorz 01:25:20
我沒接 MCP 耶,主要是我想用的現有 MCP 都是 local 的,然後 docker 很難跨 container 做 stdio 溝通
但如果是 remote MCP 應該沒問題
mrorz 01:29:07
立法院 API 包成 remote MCP 感覺很厲害,之前 https://g0v.hackmd.io/@cofacts/rd/%2FmU8qi721RZeAQ9PDfj7XRA 有想到可以這麼做 XD
包 MCP 應該是不用管客戶端用的是什麼 model?
要有個模型來測試 MCP 裡的 tool prompt 是否能運作的話,那用個舊模型應該可以(如果連舊的小模型也能理解你的 prompt 正確呼叫,那聰明的應該也沒問題)
ronnywang 09:26:49
我一直有個疑惑,就是 swagger 能不能取代 remote MCP ,因為感覺 MCP 也是在教 LLM 怎麼使用 API ,而 swagger 是教人類怎麼使用 API ,那既然如此為什麼不沿用 swagger 就好
mrorz 14:52:31
MCP 可以把它想像成附上 prompt 的 Swagger
規範 tool 與 argument 的 prompt,或甚至可以在 MCP server 那層組合複數個 API call 做成對 LLM application 來說更有用的 tool。所以可以想像成在 Swagger 上多一個抽象層,以及文件會更 LLM 導向(雖然其實 LLM 看得懂人話的話,直接讀有良好文件的 swagger 也未嘗不可)。
mrorz 14:56:38
做成 MCP server 的價值我想還是對 MCP client 來說可隨插即用吧,使用者不用再教 LLM 如何打一個 API,而是直接交由 MCP client application 與 MCP server 溝通
mrorz 14:59:18
但如果像我自己這個 LLM application,其實一整個 MCP server 我確定只會用到其中幾個功能、且這些功能對其他 LLM application 價值不高(因此不用考慮跨 LLM application 的隨插即用)的話,我反而會直接實作成單純的 tool 然後只給自己的 LLM applicaton 用
這裡的 tool call implementation 我其實是餵 swagger 與 sample code 給 LLM 讓 LLM 生成 tool implementation 的。
https://github.com/MrOrz/adk-agents/pull/2/files
2025-06-19
lily.liao.jr 22:34:12
@lily.liao.jr has joined the channel
2025-06-21
Teodor 08:01:02
@bythethousands has joined the channel