• 自己部署 GLM4.7 或者 MiniMax2.1,能接入 Claude code 或者 opencode 么?
  • 发布于 3小时前
  • 15 热度
    9 评论
公司有设备可以本地部署,想求问:
1.本地部署后的 API 接口,是否能接入 Claude code 或者 opencode ?
2.自己部署的开源模型,和 coding plan 里的 api ,功能和效果是一样的么?
用户评论
  • 原木风
  • 好几个开源 llm 网关,统一所有接口而且可以遥测和统计 token ,另外多卡用 vllm 或 sglang 部署都有很好的并发优化。必须先部署上之后效果需要不断优化,就对着这俩文档研究参数和基本原理就行。但是我不建议使用 claude code router ,至少公司使用这个不可行,推荐 Bifrost go 写的比 litellm python 的快。难点就是瞬时 token 数量会不会爆显存,如果观测一段时间爆了要么加算计要么上手段比如 fp8 (前提调点精度能不能接受)
  • 2026/1/21 11:57:00 [ 0 ] [ 0 ] 回复
  • 李明发
  • code plan 9.9 5 小时 40 条 prompt.
    手上有 cursor + claude sonnet 4.5 + codex
    整体玩下来感觉还可以,就是做一些指令的时候没有那么好,同样的谷歌插件代码,miniax2.1 搞了几次搞不定,其实换了 codex 它也是有错误。

    目前还没有强烈感觉到它很差劲的地方。平替是可以的
  • 2026/1/21 11:55:00 [ 0 ] [ 0 ] 回复
  • 张蜚
  • Ollama 已经提供 Anthropic Compatible API 了: https://x.com/ollama/status/2012434308091224534
    但模型只是 Claude Code 调用的一部分,工具是另一个大头,比如 Web Search 能力是服务提供商提供的,内网自己做 Web Search 的效果不管好坏,肯定是跟服务提供商的有区别。

    另外就是模型的多模态能力,GLM 4.7 我不清楚是否有变动,4.6 本身没有视觉理解能力,得通过 MCP Tool 调用智谱的服务来实现,所以你还得额外部署视觉模型以及研究要如何通过 MCP 调用视觉模型服务。
  • 2026/1/21 11:53:00 [ 0 ] [ 0 ] 回复
  • 似水流年
  • 先说结论 不好用。能用。一直听人吹,他们真用过嘛。等一个工程化,当前使用应该是原始人。等轮子吧。现在修 al 写的 bug
  • 2026/1/21 11:50:00 [ 0 ] [ 0 ] 回复
  • 一世煙花
  • 不好说,我从 glm4.6 用下来,最开始和 cc 一起用,有很多 bug,乱码,报错等等,这些不知道是在模型层面修复,还是哪里的,可能存在一些使用上的问题
  • 2026/1/21 11:43:00 [ 0 ] [ 0 ] 回复