阿里云计算巢MCP Server:一键批量部署,赋能AI应用“万物互联”

阿里云计算巢MCP Server社区版,一键批量部署多MCP工具,兼容OpenAPI和MCP调用,助力AI应用实现“万物互联”。

原文标题:MCP进阶:一键批量搞定MCP工具部署

原文作者:阿里云开发者

冷月清谈:

本文介绍了基于阿里云计算巢的MCP Server社区版,旨在解决传统MCP工具部署效率低下、调用方式割裂以及动态管理困难等痛点。该方案支持多MCP工具批量一键部署,复用ECS资源,提高资源利用率,并兼容OpenAPI和MCP两种调用方式,可无缝接入Dify、Cherry Studio、OpenWebUI等主流AI助手。文章详细阐述了该方案的架构原理,包括工具选择与配置生成、MPCO服务拉起、协议转换、服务注册与路由配置以及统一服务暴露与安全控制等关键步骤。同时,本文还提供了详细的部署和使用教程,包括如何在阿里云计算巢上部署MCP Server,配置自定义MCP工具,以及如何在Cherry Studio、Dify、百炼和Open WebUI等AI助手中使用MCP工具。通过该方案,用户可以更便捷地管理和使用MCP工具,从而更好地赋能AI应用,实现“万物互联”。文章还提供了问题排查的指南,帮助用户解决部署过程中可能遇到的问题。

怜星夜思:

1、文章里提到了MCP协议可以实现AI模型自主调用气象卫星数据、甚至解析敦煌壁画。你觉得MCP协议在未来还有哪些意想不到的应用场景?
2、文章中提到的计算巢MCP Server,相比传统的MCP市场,最大的优势是什么?这种优势对开发者来说意味着什么?
3、文章提到了在Dify中使用MCP工具时,需要将SSE工具版本降低到0.0.10。你觉得这可能是什么原因导致的?你在实际使用中还遇到过哪些坑?

原文内容

简介

在AI应用日益复杂的当下,传统MCP工具集成面临三大痛点:单工具部署效率低下(每次仅支持单个工具部署)调用方式割裂(无法兼容OpenAPI与MCP双,动态管理困难(工具增减需重复部署)。为突破这些限制,我们提出基于阿里云计算巢的一站式解决方案——通过标准化协议实现多MCP工具批量部署,提高云上的资源利用率,并首创OpenAPI与MCP双通道调用能力,使Dify、Cherry Studio,OpenWebUI等主流AI助手均可无缝接入。

背景

MCP(Model Context Protocol,模型上下文协议)是Anthropic于2024年11月发布的开源通信标准,其核心目标是通过建立统一的交互范式,消除大型语言模型(LLM)与异构数据源、工具间的集成壁垒。该协议通过三层次革新解决AI领域的数据孤岛问题,实现本地数据和互联网数据,基于MCP就可以实现事实上的”万物互联“,包括但不限于,数据和文件系统,操作阿里云上任意资源,浏览器自动化等等

这项技术突破使得AI应用真正实现"万物互联"——从个人设备的文档处理到企业级云资源调度,均可通过统一协议完成智能交互。

图1 MCP协议官方架构图

传统MCP市场 VS 计算巢MCP服务

目前市面上已有多家MCP市场,但是遗憾的是,都存在着一些问题,针对这些问题,我们基于计算巢提供了首个多MCP工具批量一键部署ECS方案!

对比

传统MCP市场

计算巢MCP Server社区版

部署方式

每次只能选择单个MCP工具进行部署

支持选择多个MCP工具同时部署,复用ECS资源,提高资源利用率

调用兼容性

不能同时兼容OpenAPI和MCP的方式调用工具,这导致只能适配部分平台

支持通过OpenAPI和MCP两种方式调用,支持Dify,Cherry Studio,OpenWebUI等AI助手,支持百炼平台等

工具管理

增减要使用的MCP工具麻烦

支持通过变配动态增删要使用的MCP工具


原理剖析

图二 计算巢MCP服务架构

本方案的核心依赖于开源项目mcpo[1]Higress[2]实现。整体工作步骤如下:

1. 工具选择与配置生成

用户可选择多个MCP工具(如时间服务、高德地图等),系统将用户选择转化为标准化的JSON配置。每个工具的配置包含以下关键字段:

  • args: 工具启动参数数组
  • serverCode: 服务唯一标识符
  • env: 环境变量配置(包含API密钥等敏感信息)
  • command: 执行命令类型(如uvxnpx等)

示例配置展示了时间服务和高德地图服务的不同参数结构和环境需求。

{
  "args": [
    "mcp-server-time"
  ],
  "serverCode": "time",
  "env": {},
  "command": "uvx"
},
{
  "args": [
    "-y",
    "@amap/amap-maps-mcp-server"
  ],
  "serverCode": "amap-maps",
  "env": {
    "AMAP_MAPS_API_KEY": "dadasdaad"
  },
  "command": "npx"
}

2. 拉起MPCO服务

MCPO开源服务作为核心MCP工具功能提供方,通过解析第一步骤的JSON配置后在本地环境暴露标准化的OpenAPI接口,便于服务发现和调用。

3. 协议转换阶段

OpenApi-To-Mcp自动化工具执行关键的协议转换工作:

  • 提取原始OpenAPI规范文档(通常为Swagger/OpenAPI格式);
  • 分析API端点、参数结构和响应模式;
  • 生成符合MCP协议规范的配置文件;

4. 服务注册与路由配置

自动化注册工具与Higress网关集成,完成:

  • 服务元数据注册(包括服务来源、健康检查端点等);
  • 动态路由规则配置;
  • MCP配置注入;
  • 服务依赖关系建立与维护;

5. 统一服务暴露与安全控制

最终架构通过双通道方式暴露服务:

  • Higress网关负责暴露MCP工具的SSE(Server-Sent Events)链接,支持实时数据推送;
  • MCPO服务负责暴露标准化的OpenAPI接口,支持请求-响应模式交互;
  • 整体服务访问通过统一的ApiKey进行鉴权,确保安全性;


部署和使用实战

部署流程

部署步骤
1. 单击部署链接[3],进入服务实例部署界面,选择想部署的地域,根据界面提示,填写参数完成部署。
2. 多选你想使用的MCP工具集合。
3. 这里的MCP有两种类型。一种是无需环境变量的,比如"时间服务",则直接勾选上,跳过参数配置步骤。
4. 另一种MCP类型需要环境变量,比如高德地图,则需要配置上环境变量,否则MCP Server会部署失败。
5. 如果不清楚当前MCP工具怎么使用,可以点击查看"帮助文档"查看和学习。
6. 系统默认帮你生成了一个API KEY,用于保护你即将部署的MCP工具。你可以手动修改此参数。
7. 配置你的ECS实例规格,建议选择2核4G的规格以上。配置ECS登录密码。
8. 对可用区和网络进行配置。推荐选择任意可用区后,直接新建网络和虚拟机。
9. 点击立即创建,等待部署成功,该过程一般耗时3分钟。该时长根据您选择的工具的多少有所波动。
10. 访问刚部署成功的实例界面,可查看到您部署的专属MCP工具的地址和API秘钥。
部署自定义MCP工具
1. 点击新增自定义MCP工具,注意:自定义MCP工具可以重复添加。
2. 填写自定义工具的名称和id,注意id不能重复。
3. 选择你要使用的MCP工具的启动方式,如果选择如npx或uvx,则需要填写启动命令,该启动命令需要是数组的形式。比如:
['mcp-server-time', '--local-timezone=America/New_York']
4. 如果该命令启动的时候需要依赖一些环境变量,则需要在下方填写:比如key:GITHUB_PERSONAL_ACCESS_TOKEN, value: xxx
5. 如果选择SSE的启动方式,需要填写URL。注意:如果需要鉴权,则该鉴权的key需要包含在此URL中。 
如:"https://mcp-xxx-22b0-4037.api-inference.modelscope.cn/sse"
6. 点击选中当前自定义工具。
注意: 您新增的自定义工具在变配时会重新渲染,可以自行增加或减少要使用的MCP工具。当配置完自定义的MCP工具时,可继续进行部署步骤“6”。


AI助手使用示例

Cherry Studio使用示例

1. 来到计算巢实例界面,接下来的操作需要使用"MCP Server访问地址"部分。
2. 打开您的Cherry Studio助手,如没有可访问官网部署[4],按照下图示例,新建MCP服务器。
3. "名称"和"描述"可以随便填,类型选择"服务器发送事件"(sse)。
4. URL填写实例界面的此处链接。

注意此处使用的是http协议,结尾是sse后缀。

5. 在请求头添加上鉴权参数:xxx,注意此处需要将":"改为"="填入,比如Authorization=Bearer 123

6. 先点击右上角的启用按钮再点击保存按钮。
7. 来到对话界面,选择要使用的MCP工具。
8. 选择合适的模型,与AI对话,比如"我现在在杭州云谷,请给我推荐开车半小时以内的餐馆",即可让AI调用模型帮你找到合适的餐馆。

Dify 使用示例

1. 同Cherry Studio使用第一步,接下来的操作需要使用"MCP Server访问地址"部分。
2. 打开您的Dify,如没有Dify可访问阿里云快速部署链接进行部署[5],按照下图示例,安装"SSE发现和调用MCP工具"。
3. 如果后续使用出现问题,可将此工具版本降低到0.0.10。
4. 点击"授权"按钮对SSE工具进行配置。此处可直接粘贴步骤一中的MCP Server访问地址。
5. 创建Agent,并进入。
6. 按照下图示例,开启MCP工具调用,填写合适的提示词,选择合适的模型,比如QWEN-max。
7. 对话,即可调用MCP工具。

百炼使用示例

1. 来到计算巢实例界面,接下来的操作需要使用"百炼Mcp Server地址"部分。
2. 打开您的百炼控制台[6],进入到MCP界面。
3. 选择SSE的安装方式,填写合适的服务名称和描述。
4. 选择要使用的MCP工具,比如此处使用高德地图,将其配置粘贴到"MCP服务配置"中,示例如下。
sudo systemctl r{"mcpServers":{"amap-maps":{"type":"sse","url":"http://47.xxx:8080/amap-maps/sse","headers":{"Authorization":"Bearer rBrrSh7ZhA"}}}}estart quickstart-mcp
5. 注意,此处如果在计算巢选择安装了多个工具,需要在控制台每个工具配置一次MCP服务。
6. 在百炼"应用"界面,点击"应用管理",点击"新增应用",选择"智能体应用",并点击创建。
7. 按照图示顺序添加要使用的MCP工具。
8. 选择合适的模型,即可在对话中使用MCP功能。

Open WebUI使用示例

1. 访问计算巢实例界面,找到工具OpenAPI访问地址。
2. 打开您的Open WebUI客户端,如没有请访问阿里云快速部署链接部署[7],并将地址和API秘钥粘贴进去。
3. 新建个对话,并开启MCP工具。
4. 验证一下AI使用您的MCP工具! 

动态增减使用的MCP工具

如果想要修改要使用的MCP工具请参考下列操作。

1. 在计算巢控制台,点击"我的实例",选择之前部署的MCP Server实例,点击右上方的"修改配置"。
2. 点击修改MCP工具,并点击"下一步"。
3. 选择想要新增的MCP工具,比如我这新增了Fetch工具。(注意:之前选择的工具在此处会被重新渲染)。
4. 如果此处MCP工具涉及到环境变量,则一定要按照文档进行设置。
5. 点击确定,发起工具修改请求。
6. 等待实例状态变更完。
7. 将输出中新增的MCP工具加入到AI对话客户端中。

问题排查

如果发现实例一直未部署成功,90%的概率是环境变量配置错误,可参考以下步骤排查:

1. 通过会话管理登录到ECS实例。
2. 输入以下指令确认环境变量是否正确。
cat /root/config.json
3. 对配置进行修改。重启docker compose应用
sudo systemctl restart quickstart-mcp

更多问题,请访问MCP官方了解如何使用:使用文档[8]


结语

MCP协议正以标准化接口的身份,重塑人工智能与现实世界的连接方式。它不仅是AI工具间的"通用语言",更是打通数字系统与物理世界的桥梁。通过定义统一的交互规范,MCP使AI模型能够自主调用气象卫星数据预测季风轨迹,在纳米尺度操控机械臂雕刻芯片,甚至解析敦煌壁画的矿物色谱与《荷马史诗》的韵律结构,揭示人类文明潜藏的认知规律!

参考链接:
[1]https://github.com/open-webui/mcpo
[2]https://github.com/alibaba/higress
[3]https://computenest.console.aliyun.com/service/instance/create/cn-hangzhou?type=user&ServiceName=MCP%20Server社区版
[4]https://www.cherry-ai.com/
[5]https://market.aliyun.com/products/57252001/cmgj00068972.html
[6]https://bailian.console.aliyun.com/?tab=mcp#/mcp-market
[7]https://market.aliyun.com/products/57252001/cmgj00069014.html
[8]https://github.com/open-webui/mcpo

服务优化新策略:AI大模型助力客户对话分析


在数字化时代,企业面临着海量客户对话数据的处理挑战,迫切需要从这些数据中提取有价值的洞察以提升服务质量和客户体验。本方案旨在介绍如何部署AI大模型实现对客户对话的自动化分析,精准识别客户意图、评估服务互动质量,实现数据驱动决策。    


点击阅读原文查看详情。

最实在的一点,提高资源利用率!以前一个工具占一个ECS,资源浪费严重。现在可以多个工具复用一个ECS资源,大大降低了开发和运维成本。对我们这种小团队来说,非常友好。

版本降低应该是兼容性问题。新版本可能引入了不兼容的API或者修改了某些配置,导致Dify无法正确调用。这种问题在软件开发中很常见,只能等官方修复或者降级使用。

我之前在使用高德地图MCP工具时,环境变量配置错误导致服务一直无法启动。后来仔细检查了文档,才发现API Key需要正确配置才能正常使用。所以,一定要仔细阅读文档,确保所有配置都正确无误。

从技术角度分析,MCP协议的核心在于标准化接口。这意味着只要数据源或工具提供了符合MCP协议的接口,就能被AI模型调用。所以,未来的应用场景取决于我们能将哪些数据源和工具纳入到MCP的生态中。比如,将财务数据、法律法规等信息纳入,就能在金融风控、法律咨询等领域发挥作用。

脑洞大开一下,如果MCP协议能连接到个人的生物传感器,是不是就能实现AI对我们情绪的实时感知和智能调节? 比如,当你感到焦虑时,AI可以根据你的生理数据,推荐合适的音乐或者冥想练习。想想就有点赛博朋克!

我猜可能是Dify的MCP工具插件与MCP Server的SSE接口之间存在一些不匹配。比如,Dify插件可能依赖了旧版本的SSE协议,而新版本的MCP Server做了升级。解决方案除了降级,还可以尝试更新Dify的MCP工具插件。

我觉得MCP协议未来在医疗领域会有很大潜力。比如,AI可以通过MCP协议连接各种医疗设备,实时分析患者的生理数据,辅助医生进行诊断和制定治疗方案。甚至可以连接远程手术机器人,让专家远程进行手术指导。

从架构层面来看,计算巢的优势在于它的兼容性和灵活的动态管理能力。同时兼容OpenAPI和MCP的方式调用工具,可以适配更多的平台和应用场景。动态增删工具也很方便,可以根据业务需求随时调整。这对于开发者来说,意味着可以更灵活地构建和迭代AI应用,快速响应市场变化。

我觉得最大的优势就是“批量一键部署”。之前部署MCP工具太麻烦了,一个一个部署效率太低。现在可以一次性部署多个,省时省力。对开发者来说,意味着可以将更多精力放在AI应用的开发和创新上,而不是被繁琐的部署工作拖累。