阿里云Serverless+AI平台一键部署体验QWQ-32B模型

阿里云Serverless+AI平台一键部署QWQ-32B模型,多种方式便捷体验,验证模型调用,快速接入AI应用。

原文标题:2种方式1键部署,快速体验QWQ-32B 模型

原文作者:阿里云开发者

冷月清谈:

阿里云函数计算FC结合Serverless+AI云原生应用开发平台CAP,提供模型服务和应用模板两种方式,助力用户快速部署和体验 QwQ-32B 推理模型。该模型在数学、编程和通用能力等方面表现出色,甚至在部分测试中超越了 DeepSeek-R1-671B。文章详细介绍了通过应用模板和模型服务两种方式部署 QwQ-32B 的步骤,包括前期准备、项目创建、模型选择、资源配置和验证应用等环节。同时提醒用户注意函数计算的计费方式,并建议领取试用额度以抵扣资源消耗。最后,说明了如何删除项目以降低费用。

怜星夜思:

1、文章提到了 QwQ-32B 在某些测试中超越了 DeepSeek-R1-671B,大家觉得在实际应用中,这种性能优势主要体现在哪些方面?对于开发者来说,选择 QwQ-32B 而不是其他模型的核心理由是什么?
2、文章中提到了两种部署方式:应用模板和模型服务。大家更倾向于哪种方式?这两种方式分别适用于什么样的应用场景?
3、Serverless 架构虽然方便,但也有一些潜在的风险和挑战。在使用阿里云函数计算 FC 部署 QwQ-32B 模型时,大家会重点关注哪些问题?又有哪些最佳实践可以分享?

原文内容

QwQ-32B 推理模型正式发布并开源,凭借其卓越的性能和广泛的应用场景,迅速在全球范围内获得了极高的关注度。

基于阿里云函数计算 FC提供算力,Serverless+ AI 云原生应用开发平台 CAP现已提供模型服务、应用模板两种部署方式辅助您部署QwQ 32B系列模型。您选择一键部署应用模板与模型进行对话或以API形式调用模型,接入AI应用中。欢迎您立即体验QwQ-32B。

QwQ-32B 更小尺寸

性能比肩全球最强开源推理模型

QwQ-32B 在一系列基准测试中进行了评估,包括数学推理、编程和通用能力。以下结果展示了 QwQ-32B 与其他领先模型的性能对比,包括 DeepSeek-R1-Distilled-Qwen-32B、DeepSeek-R1-Distilled-Llama-70B、OpenAI-o1-mini以及原始的DeepSeek-R1-671B。

在测试数学能力的AIME24评测集上,以及评估代码能力的LiveCodeBench中,千问QwQ-32B表现与DeepSeek-R1-671B相当,远胜于OpenAI-o1-mini及相同尺寸的R1蒸馏模型。在由Meta首席科学家杨立昆领衔的“最难LLMs评测榜” LiveBench、谷歌等提出的指令遵循能力IFEval评测集、由加州大学伯克利分校等提出的评估准确调用函数或工具方面的BFCL测试中,千问QwQ-32B的得分均超越了DeepSeek-R1-671B。

前置准备

1. 首次使用云原生应用开发平台 CAP[1]会自动跳转到访问控制快速授权页面,滚动到浏览器底部单击确认授权,等待授权结束后单击返回控制台。

2. 本教程在函数计算中创建的GPU函数,函数运行使用的资源按照函数规格乘以执行时长进行计量,如果无请求调用,则只收取闲置预留模式下预置的快照费用,CAP中的极速模式通过预置实例快照实现毫秒级响应,其技术原理对应函数计算的闲置预留模式,适用于需要快速冷启动的场景。建议您领取函数计算的试用额度[2]抵扣资源消耗,超出试用额度的部分将自动转为按量计费,更多计费详情,请参见计费概述[3]。

方式一:应用模板部署


1. 创建项目

进入CAP控制台[4]单击基于模板创建开始创建。


2. 部署模板

  1. 在搜索栏输入QWQ进行搜索,单击基于Qwen-QwQ 推理模型构建AI聊天助手,进入模板详情页,单击立即部署。

  2. 选择地域,目前支持 北京、上海、杭州,单击部署项目,在项目资源预览对话框中,您可以看到相关的计费项,详情请见计费涉及的产品[5]。单击确认部署,部署过程大约持续 10 分钟左右,状态显示已部署表示部署成功。

说明:
  • 选择地域时,一般是就近选择地域信息,如果已经开启了NAS文件系统,选择手动配置模型存储时,请选择和文件系统相同的地域。

  • 如果您在测试调用的过程中遇到部署异常或模型拉取失败,可能是当前地域的GPU显卡资源不足,建议您更换地域进行重试。


3. 验证应用

部署完毕后,点击Open-WebUI服务,在访问地址内找到公网访问单击访问。在OpenWebUI界面体验QwQ模型进行对话。

方式二:模型服务部署

使用API形式进行模型调用,接入线上业务应用。


1. 创建空白项目

进入CAP控制台[6]单击创建空白项目开始创建,并为项目命名。


2. 选择模型服务


3. 部署模型服务

  1. 选择模型QwQ-32B-GGUF,目前仅支持杭州地域。

  2. 单击资源配置,QwQ-32B-GGUF推荐使用 Ada 系列,可直接使用默认配置。您可以根据业务诉求填写需要的卡型及规格信息。

  3. 单击预览并部署,在服务资源预览对话框中,您可以看到相关的计费项,详情请计费涉及的产品[7]。单击确认部署,该阶段需下载模型,预计等待10~30分钟即可完成。


4. 验证模型服务

单击调试,即可测试和验证相关模型调用。

在本地命令行窗口中验证模型调用。


5. 第三方平台 API 调用

可以选择在Chatbox[8]等其他第三方平台中验证和应用模型调用,以下以Chatbox为例。

删除项目

您可以使用以下步骤删除应用,以降低产生的费用。

  1. 进入项目详情 > 点击删除,会进入到删除确认对话框。

  2. 您可以看到要删除的资源。默认情况下,云原生应用开发平台 CAP会删除项目下的所有服务。如果您希望保留资源,可以取消勾选指定的服务,删除项目时只会删除勾选的服务。

  3. 勾选我已知晓:删除该项目及选中的服务将立刻中断其所服务的线上业务,并且不可恢复,同时将彻底删除其所依赖的云产品资源,然后单击确定删除

参考链接:

[1]https://www.aliyun.com/product/cap

[2]https://common-buy.aliyun.com/package

[3]https://help.aliyun.com/zh/functioncompute/fc-3-0/product-overview/billing-overview-1

[4]https://cap.console.aliyun.com/projects

[5]https://help.aliyun.com/zh/cap/product-overview/billing-overview

[6]https://cap.console.aliyun.com/projects

[7]https://help.aliyun.com/zh/cap/product-overview/billing-overview

[8]https://web.chatboxai.app/

我最关心冷启动问题。Serverless 的冷启动时间会影响用户体验。要解决这个问题,可以考虑使用预热技术,例如定期调用函数,保持实例处于激活状态。函数计算的闲置预留模式看起来就是干这个的。

从成本角度考虑,如果你的应用访问量很低,应用模板可能更划算,因为它省去了自己搭建服务的时间和精力。但如果访问量很高,模型服务可能更具性价比,因为可以根据实际需求灵活调整资源。

我觉得性能提升主要体现在更快的响应速度和更低的资源消耗上。DeepSeek-R1-671B虽然强大,但资源需求也高。QwQ-32B如果能在保证相近性能的同时降低成本,那对预算有限的开发者来说很有吸引力。

我偏向模型服务,可以API调用,这意味着更高的灵活性。如果你的应用需要深度定制,或者需要和其他服务集成,模型服务是更好的选择。

从评测榜单来看,QwQ-32B 在特定任务上表现突出,例如更准确的函数调用。如果你的应用 heavily 依赖 API 集成,那 QwQ-32B 可能是更好的选择。当然,也需要考虑自己的数据特点和应用场景,最好做 benchmark 测试再决定。

还有监控和日志。要监控函数计算的性能指标,例如调用次数、执行时间、错误率等。可以使用阿里云的 CloudMonitor 服务,实时监控函数的运行状态。同时,要记录函数的日志,方便排查问题。一个好的实践是把日志存到阿里云的日志服务 SLS 里,方便分析。

除了性能指标,易用性也很重要。文章里说可以用阿里云的 Serverless 平台一键部署,这大大降低了使用门槛。对于不想在环境配置上花费太多时间的开发者来说,这绝对是个加分项。另外,serverless架构也意味着更低的运维成本,省心省力。

安全也很重要。要确保函数计算的配置是安全的,防止未经授权的访问。可以使用阿里云的访问控制服务 RAM,限制函数的权限,避免安全漏洞。另外,要定期审查函数的代码,确保没有恶意代码。

应用模板更适合快速上手,直接体验模型的效果。对于新手或者只想快速验证想法的人来说,这种方式更简单方便。而且,如果只是做个简单的聊天机器人,应用模板也完全够用。