Title
您当前的位置: 首页 > > 文章详细
OpenAI GPT-OSS 本地部署与 MCP 服务集成实测
发布时间:2025-08-08

  OpenAI 发布了 gpt-oss-120b 和 gpt-oss-20b 两款性能卓越的开放轻量级语言模型,可在低成本下实现强大的实际应用性能。它们不仅性能比肩o3-mini和o4-mini,而且还能在消费级显卡甚至手机上轻松运行。 gpt-oss-120b 能在 80GB 内存内运行,gpt-oss-20b 仅需 16GB 内存。

  LM Studio 本地一键部署

  LM Studio 是一款桌面应用程序,让用户可以在本地轻松下载、运行和与各种大型语言模型(LLM)进行交互 https://lmstudio.ai/

  

  官网下载 LM Studio

  安装好之后,我们就可以下载模型了。

  

  下载 OSS-20B 模型

  也可以在模型列表查看其他模型

  

  探索其他模型并探索

  下载完成之后我们就可以本地使用模型了

  

  模型输出速度 41.21 token/s,已经是非常快的速度了(机器配置 MacPro M4、48G内存、1T 存储)。

  MCP Server 配置

  我们使用一款能让数据可视化变得超级简单的 MCP Server,由蚂蚁集团 AntV 团队开源的 mcp-server-chart。

  我们通过修改 LMStudio MCP 配置文件配置 mcp-server-chart。

  

  在插件配置去配置 MCP

  {

  "mcp-server-chart":{

  "command":"npx",

  "args":[

  "-y",

  "@antv/mcp-server-chart"

  ]

  }

  }

  配置完成后我们可以在右侧看到已经安装的 MCP Server ,可以设置开启或关闭,也可以对每个工具进行设置。

  

  实测 MCP

  加上 AntV MCP Server 发现上下文超出错误,AntV MCP 提供了 25 个工具,工具太多导致上下文超出 4096。

  

  只能选择性开启几个工具验证一下效果:

  「Query 1:饼图生成」

  

  返回图片预览效果:

  

  「Query 2:地图生成」

  

  返回图片预览效果:

  

  地图输出效果

  总结

  GPT-OSS-20B 在消费级设备上运行时表现出色,推理速度快,已能满足多数日常应用场景的需求。然而,其最大上下文长度为 4096 tokens,略显不足——尤其是在处理包含大量工具的 MCP(Model Control Protocol)任务时,容易因上下文容量限制而丢失关键信息。尽管如此,该模型在 MCP 工具调用方面的准确性依然表现良好,具备较强的指令理解与结构化输出能力。

  原标题:《OpenAI GPT-OSS 本地部署与 MCP 服务集成实测》

  阅读原文

上一篇:
这名板凳上的“玻璃人”,成为乡亲最信赖的圆通小哥
下一篇:
山东日照:活力奔涌,服务业增势向好
Title