玄武CLI:让国产算力告别部署难题,拥抱AI开发“零门槛”时代

玄武CLI,国产版Ollama,让国产算力的大模型部署进入“零门槛时代”,激活你的“国货之光”。

原文标题:国产版Ollama来了,Clawdbot终于不只属于Mac和英伟达

原文作者:机器之心

冷月清谈:

本文介绍了清昴智能发布的玄武 CLI 开源版本,一个旨在降低国产芯片大模型部署门槛的工具。玄武 CLI 可以被看作是国产版的 Ollama,它通过抹平硬件架构差异,让开发者能够更轻松地在华为昇腾、沐曦、燧原等国产算力平台上部署和运行大模型。文章强调了国产芯片在软件生态方面的短板,以及玄武 CLI 如何通过简化配置、提供统一的部署体验、兼容主流模型和API接口来解决这些问题。此外,文章还介绍了玄武 CLI 的高性能和全保障设计,以及其与 Clawdbot 等热门AI工具的联动,旨在拓展本地AI应用场景。最后,文章点明玄武 CLI 的出现,为国产显卡用户提供了一个更易用的AI开发环境。

怜星夜思:

1、玄武CLI的出现,对国产AI芯片厂商来说意味着什么?是机遇还是挑战?
2、文章提到Clawdbot这样的Agent会带来隐私和成本问题,你认为在本地部署Agent是解决这些问题的最佳方案吗?还有没有其他的可能?
3、玄武CLI目前主要支持DeepSeek、Qwen3等模型,未来你希望它支持哪些类型的模型或应用?

原文内容

图片
编辑|+0

这几天,AI 圈的头号 C 位莫过于这只「龙虾」:Clawdbot(现在得叫它 OpenClaw 了),它几乎把一群开发者折腾得彻夜难眠。



为什么它这么火?因为和以前那些只会陪聊的 Chatbot 不同,Clawdbot 是个真正的「实干派」:它能接管你的电脑,在你睡觉时通宵写代码、修 Bug,甚至背着主人手搓出一套语音功能。


更魔幻的是,随之诞生的 AI 社交平台 Moltbook 彻底刷屏了。在这个「AI 版 Reddit」上,150 万个 Agent 正通过自创语言和共谋进化,建立起背离人类掌控的独立机器社会与文化。


这听起来很酷,但随之而来的是「隐私的裸奔」与「钱包的哀嚎」


当 Clawdbot 这样的 Agent 全面读取你的屏幕、扫描你的文件,并在后台疯狂消耗昂贵的 API 额度时,很多开发者早就开始思考一个问题:Agent 虽好,难道我们以后的一举一动都要通过云端计费吗?


这催生了另一个巨大的需求:Local Agent(本地智能体)


但在这一波浪潮中,算力并不是唯一的门槛。以 Clawdbot 为例,当前社区主流方案主要围绕 macOS 与 NVIDIA GPU 生态展开,这与 Ollama、llama.cpp 以及相关 Agent 工具链的成熟度密切相关。


相比之下,尽管华为昇腾、燧原等国产算力已经具备运行大模型的能力,但在通用 Agent 工具链与社区生态适配方面仍存在明显差距,这使得部分开发者难以直接参与到当前主流的 Agent 实验与应用中。


难道手握国产算力的开发者,只能眼巴巴看着这场狂欢吗?当然不是。


国产显卡其实从来不缺「肌肉」,缺的只是一把趁手的「兵器」。如果说 Clawdbot 解决了「AI 怎么干活」的问题,那么我们今天要聊的这个工具,就是来解决「AI 在哪干活」的问题。


2 月 2 日,清昴智能发布玄武 CLI 开源版本。



你可以把它简单理解为「国产版 Ollama」,它旨在抹平硬件架构的差异,让基于国产卡的大模型部署进入「零门槛时代」。不需要复杂的环境配置,5 分钟启动模型服务,这不仅是企业降低部署成本的利器,更是每一位开发者激活手边国产算力的钥匙。


玄武 CLI 开源传送门:


  • 玄武 CLI GitHub 仓库: https://github.com/TsingmaoAI/xw-cli

  • 玄武 CLI Gitcode 仓库: https://gitcode.com/tsingmao/xw-cli


别急着下单 Mac mini,你机箱里的「国货之光」其实早就准备好了。



开发者到底在和什么战斗?

进入 2026 年,随着 DeepSeek、Kimi 等高性能开源模型的成熟,AI 推理形态正在从以云端为中心,逐步向本地与边缘侧扩展。出于对数据隐私(金融代码、医疗数据)和低延迟 Agent 交互的需求,本地化推理正在成为清晰可见的趋势。


在 NVIDIA 和 Apple Metal 生态中,Ollama 凭借「一个二进制文件、一行命令」的极致体验,成为最具代表性的本地推理工具之一。然而,这种统一而简洁的使用方式,并未真正惠及中国主流国产算力用户。


尽管国产芯片在硬件指标上已具备相当竞争力,但在软件生态层面仍存在明显断层:工具链割裂、算子覆盖不足、社区适配滞后,正让开发者陷入一种新的焦虑:算力在手,却用不起来


  • 一张卡,一套世界观

与 CUDA 近乎统一的格局不同,国产芯片架构呈现出「百花齐放却互不相通」的态势。华为的 CANN、摩尔线程的 MUSA,以及各家自成体系的工具链彼此独立。


对开发者而言,每更换一张卡,几乎意味着重新学习一套构建系统。由于上游社区难以维护如此多且杂的后端分支,国产卡用户往往只能依赖功能滞后、稳定性不足的非官方适配版本。


  • 从入门到放弃的「配置长征」

想在国产卡上跑通一个高性能模型?往往是一场耐心与运气的双重考验:


驱动、固件、Toolkit、算子包必须严格对齐,错一个版本号就报错;少配一个环境变量,程序就可能当场崩溃;即使使用 Docker,也无法像 NVIDIA 那样 --gpus all 一键搞定,而是要手动透传多个复杂设备节点。


  • 新模型「水土不服」

更具挑战的是,新一代模型架构(如 MoE、FP8 量化)在国产环境中往往缺乏成熟的高性能算子支持,,容易触发非最优执行路径,导致推理性能大幅下降。当遭遇模糊错误码时,开发者往往无从查证。


这就是行业的真实切面:开发者想要的是「5 分钟启动服务」,现实给的却是「5 天还在配环境」。行业迫切需要一个能够抹平底层硬件差异、统一上层使用体验的中间层工具。


玄武 CLI:
国产算力的 Ollama 来了

如果说 Ollama 的成功来自「让 GPU 消失在用户视野中」,那么玄武 CLI 的目标则是「让国产 GPU 的差异性也消失」。


它关注的重点并不是单纯「能否运行模型」,而是如何在复杂的国产芯片生态中,提供一种更统一、更稳定的部署与调用体验。


玄武CLI的架构图。


国产原生适配:一键搞定,告别配置噩梦

在国产算力生态中,最大的痛点来自芯片架构的高度碎片化。不同厂商、不同型号,对应不同驱动、不同推理引擎与参数组合,部署往往意味着反复查文档、改配置、踩坑调试。


玄武 CLI 的核心价值之一,就是把复杂性收敛到系统内部:它能够自动识别华为昇腾全系列、沐曦、燧原等多款国产芯片


对用户而言,不再需要理解底层架构差异,也无需手动调参调环境,真正实现「零调试部署」,从根本上降低国产芯片的使用门槛。


零门槛上手:1 分钟部署,无缝兼容无压力

在使用体验上,玄武 CLI 走的是与 Ollama 同一条路线:极简、快速、低学习成本。用户无需安装 Python 或复杂依赖,只要基础驱动就绪,解压即可运行,最快 1 分钟启动服务。


  • 服务启动

一切始于一行简洁的命令 xw serve。无需复杂的环境变量配置,系统直接完成运行时配置初始化与全局端口分配,唤醒后台守护进程。



  • 模型交互

模型运行同样丝滑。通过 xw run 命令,系统能直接检测实例状态。若模型已就绪,即可秒级进入 Chat 会话模式,直接开始问答交互。



  • 模型下载

对于本地未获取的模型,告别繁琐的权重文件手动搬运与路径映射。通过 xw pull,自动完成模型权重与配置文件的拉取,提供清晰的进度验证。



玄武 CLI 目前已原生支持包括 DeepSeek、Qwen3、GLM-4.7、MiniMax 2.1 等在内的数十款主流模型,在今天已完成 GLM-OCR 的 Day0 适配覆盖从端侧轻量级到千亿参数旗舰级模型。


  • 实例启动

得益于底层的极致优化,在执行 xw start 启动实例时,系统能够自动调配 vLLM 等高性能后端。实测数据表明:即便是 32b 规模的模型,玄武 CLI 也能在 30 秒内完成启动。这个时间内,系统会自动完成模型切分、显存加载,并成功启动推理引擎。



同时,玄武 CLI 在命令层面与 Ollama 高度一致(如 xw pull / run / ls / stop),意味着会用 Ollama 就能直接上手玄武,几乎没有迁移成本。在应用层,它兼容 OpenAI API 接口,LangChain、LlamaIndex 以及各类 IDE 插件只需改一行 API 地址即可接入,无需重构原有应用栈。


在稳定性设计上,玄武 CLI 采用独立子进程架构,即使单个模型或任务出现异常,也不会影响整体服务,既适合个人开发者的轻量使用,也满足企业级稳定运行需求。


高性能与全保障并行:多引擎覆盖,风险提前规避

玄武 CLI 内置自研的清昴核心推理引擎 MLGuider,在性能层面提供稳定保障,同时支持多种推理引擎并行兼容。这种设计一方面可以覆盖更广、更新的模型版本,另一方面也避免对单一引擎的过度依赖,从工程角度提前规避风险。


图片

推理服务流程图。


多引擎并存,本质上是对兼容性与性能的双重极致优化。玄武 CLI 通过智能调度内置的 MLGuider 等引擎,能够深入芯片底层进行算子级调优,最大限度释放国产硬件算力。这种既保高性能推理、又顾模型多样性的策略,真正解决「国产卡能用但不好用」的核心问题。


同时,玄武 CLI 支持完全离线运行,不依赖云端服务,在国产芯片上即可完成模型管理与推理任务,适合对数据安全和稳定性要求较高的场景。


热门产品联动:拓展本地 AI 应用场景

在应用生态层面,玄武 CLI 并不只是一个「模型启动器」,而是一个本地 AI 能力的底座。它可以与 Clawdbot 等热门本地 AI 工具联动,为这些产品提供低门槛的模型部署与调用能力,使自动化任务与智能应用更容易落地。



这种联动模式意味着,开发者不必重复解决模型部署问题,而可以把更多精力放在上层应用与业务逻辑上,从而放大本地 AI 工具的整体价值。


为什么是他们?

玄武 CLI 的强大,源自其背后深厚的技术积淀。


清昴智能是一家专注于芯片适配和模型-框架-算子联合调优的全面领先 AI Infra 企业。创始团队来自清华大学计算机系,汇聚了来自斯坦福、新国立、爱丁堡大学以及华为、阿里、AMD 等全球顶尖机构的 AI 精英。


创始人关超宇小学到大学 2 次跳级,15 岁进入本科,21 岁获得清华大学特奖、西贝尔学者等一系列殊荣,22 岁放弃华为天才少年、阿里星等大厂 offer,选择和前华为英雄个人和极客开发荣誉获得者姚航联合创业。他们不仅懂软件,更懂底层的芯片微架构以及如何攻克国产软件生态难题。


成立 3 年,即获得华为哈勃的战略注资,以及多家国内一线基金的上亿元财务投资。这不仅证明了其技术价值,更意味着其与国产芯片厂商有着深度的原厂级合作关系,能够第一时间获取底层驱动支持。


清昴智能并未止步于 CLI 工具。以自研的异构推理引擎 MLGuider 为核心,公司构建了从底层芯片到上层框架以及 Agentic AI 的全栈能力,致力于构建 AI 2.0 时代软件基础设施,为企业智能化转型和 AGI 实现打造坚实底座。


玄武 CLI 正是这一庞大技术愿景在开发者侧的「尖刀」产品,旨在通过极致的易用性打开市场缺口,构建生态护城河。


结语

技术,终究是要为人服务的。


过去几年,国产显卡用户面对的并非性能问题,而是生态问题:驱动、框架、工具链之间的割裂,使大量潜在算力长期处于「不可用状态」。


玄武 CLI 的出现,或许不能立刻让国产生态「拳打英伟达,脚踢苹果」,但它至少做到了一件事:把梯子递到了墙边。


它让开发者不必再充当「环境配置员」,而能重新回到创造本身;也让那些躺在机箱里吃灰的国产显卡,重新开始发热、计算,参与到真实的 AI 实践之中。


想要一起推动生态进步?赶快到 GitHub 给它一个 Star 吧!


    • 玄武 CLI GitHub 仓库: https://github.com/TsingmaoAI/xw-cli

    • 玄武 CLI Gitcode 仓库: https://gitcode.com/tsingmao/xw-cli


    © THE END 

    转载请联系本公众号获得授权

    投稿或寻求报道:liyazhou@jiqizhixin.com

    楼上说的有道理,玄武CLI确实降低了使用门槛。但我觉得还有一个很重要的点是稳定性。以前国产卡的适配版本经常出问题,官方支持又跟不上,玄武CLI通过多引擎支持和独立子进程架构,提高了整体的稳定性,这对企业用户来说很重要,毕竟谁也不想模型动不动就崩。

    从更深层次来看,玄武CLI兼容OpenAI API接口,实际上是一种“借船出海”的策略。OpenAI API已经成为AI领域的事实标准,兼容它可以让国产算力平台更容易被开发者接受和使用,从而快速融入到现有的AI生态系统中。

    开发者可以利用这个特性,将现有的应用无缝迁移到国产算力平台上,并结合国产芯片的特点进行一些创新性的开发。比如,可以利用国产芯片的低功耗特性,开发一些边缘计算应用;或者利用国产芯片的安全可控特性,开发一些对数据安全要求较高的应用。

    Local Agent肯定不是唯一解,但至少是个重要的方向。隐私是刚需,谁也不想自己的数据被厂商随便看。边缘计算场景下,可以考虑差分隐私、联邦学习这些技术,既能保护数据,又能提升模型效果。成本方面,模型压缩、量化这些也是必选项。

    即使国产GPU性能赶超国际水平,但生态建设的滞后仍然会限制其应用。玄武CLI的价值在于提供统一的软件接口和工具链,简化开发流程,降低学习成本,使开发者能够更方便地利用国产GPU的强大性能。此外,玄武CLI还可以通过优化算法和算子,充分挖掘国产GPU的潜力,弥补生态上的不足。因此,即使硬件性能提升,玄武CLI在推动国产GPU应用和生态建设方面仍然具有重要意义。

    兼容OpenAI API接口简直是太棒了!这意味着开发者可以直接把基于OpenAI API的应用迁移到国产AI平台上,不用改太多代码,省时省力。这样可以更容易地尝试国产AI芯片的性能,看看是不是比云端更划算。

    感觉有点像手机刚开始发展的时候,光有硬件不行,还得软件跟得上。玄武CLI 这种工具就像是给国产AI芯片装了个好用的操作系统,让大家更容易上手。不过,生态建设是个长期的过程,需要芯片厂商、软件开发者、研究机构一起努力,才能真正做起来。

    兼容OpenAI API,就像是给了国产AI一个快速融入现有AI生态的机会。开发者可以利用现有的OpenAI生态资源,比如各种SDK、工具和社区支持,快速开发出基于国产AI平台的应用。这对于吸引开发者加入国产AI阵营很有帮助。

    GUI界面,拖拽式部署,小白也能轻松上手!

    集成更多国产AI算法,让用户一键调用!

    最大的意义就是降低了使用门槛,让更多开发者愿意尝试国产芯片。以前配置环境太痛苦了,很多人直接放弃了。现在方便多了,自然会有人来用。

    楼上说得对,生态建设不是一蹴而就的,需要整个产业链一起努力才行。

    意义在于统一了开发体验,让开发者不用为不同的芯片架构操心。这样可以节省大量时间和精力,专注于算法和应用开发。

    这就像是拿到了一张“通行证”,让开发者可以无缝地将现有的 AI 应用部署到国产芯片上。比如,可以把用 LangChain 开发的 AI 助手,或者用 LlamaIndex 构建的知识库,一键迁移到国产服务器上,既保证了数据安全,又省了云端 API 的费用,一举两得!

    除了硬件适配,软件生态也很重要。现在很多 AI 模型和工具都是基于 CUDA 开发的,玄武CLI需要提供更好的 CUDA 兼容性,或者推动国内开发者开发更多基于国产算力的模型和工具。只有软硬件生态都繁荣起来,才能真正发挥国产算力的优势。

    本地AI应用,想想都觉得潜力无限!比如,可以搞一个本地的智能家居控制中心,完全不需要联网,所有数据都在本地处理,隐私安全有保障。再比如,可以开发一些离线的AI辅助工具,像AI写作、AI绘画啥的,这样即使在没有网络的情况下也能正常使用。感觉未来本地AI会成为主流,毕竟谁也不想自己的数据被别人掌控。

    我觉得隐私和成本控制可以从这几个方面入手:一是要对Agent进行权限管理,明确哪些数据可以访问,哪些操作可以执行;二是监控Agent的API调用情况,及时发现和处理异常的资源消耗;三是可以考虑使用本地部署的方式,避免将数据上传到云端,从而保护隐私。当然,最关键的还是用户要有安全意识,谨慎授权,定期检查Agent的行为。

    隐私方面,要我说就得立法!强制要求所有AI Agent都必须透明地披露它们收集和使用数据的方式,并且用户有权随时撤销授权,甚至要求删除数据。成本嘛,除了监控API调用,还可以考虑使用一些开源的替代方案,或者自己训练模型,虽然麻烦点,但是能省不少钱。我现在就在研究能不能用树莓派跑一个本地的Agent,这样就不用担心被云端薅羊毛了。

    本地AI应用的应用场景非常广泛,可以覆盖我们生活的方方面面。比如,可以开发一些本地的AI助手,帮助我们管理日程、回复邮件、整理文件等,提高工作效率。还可以开发一些本地的AI娱乐应用,比如AI游戏、AI音乐创作等,丰富我们的娱乐生活。总之,本地AI应用的前景非常广阔,只要我们发挥想象力,就能创造出无限的可能性。

    我觉得可以从技术和商业模式两方面入手。技术上,可以研究差分隐私、联邦学习等技术,在不暴露原始数据的前提下,让Agent能够学习和工作。商业模式上,也许可以探索一种“信任订阅”模式,用户付费购买一个有信誉的Agent服务商的服务,由他们来负责隐私保护和成本优化,这样用户就可以省心省力了。