零一万物All in DeepSeek,李开复称Q1收入已接近去年全年

零一万物All in DeepSeek,Q1收入已接近去年全年!聚焦ToB,提供DeepSeek部署方案,助力企业智能化转型,不再执着超大模型,拥抱“模型自由”。

原文标题:零一万物全面拥抱 DeepSeek,李开复:今年第一季度收入接近去年全年

原文作者:AI前线

冷月清谈:

零一万物创始人李开复表示,公司全面拥抱DeepSeek模型,并推出万智企业大模型一站式平台,旨在解决企业在部署、应用DeepSeek时遇到的难题。零一万物提供安全部署方案、软硬一体机方案,并支持企业进行模型微调,以满足垂直领域的业务需求。公司COO黄蕙雯明确表示,不会再做万亿以上超大参数模型,将聚焦ToB商业化,提供中等规模、高性价比的模型。李开复强调,零一万物在模型微调、数据配比等方面经验丰富,能够为企业提供深度私有化部署,且定价相比大厂更具优势。零一万物采取“开放模型”策略,除自研Yi模型外,还支持企业客户选用市场上具有性价比的模型。

怜星夜思:

1、零一万物全面拥抱 DeepSeek,并表示不再执着于超大模型,这是否意味着大模型发展路线的转变?中小企业应该如何结合自身情况选择适合自己的大模型发展路线?
2、文章中提到零一万物提供 DeepSeek 落地“三步走”方案,但在实际操作中,企业可能会遇到哪些意想不到的挑战?企业应该如何应对这些挑战,确保大模型能够真正落地并产生价值?
3、李开复提到零一万物在模型微调、数据配比等方面经验丰富,能为企业提供深度私有化部署。那么,对于不具备相关技术积累的企业,如何才能更好地利用大模型进行私有化部署,并保证数据安全?

原文内容

作者 | 褚杏娟

“零一万物聚焦 ToB 的商业模式从一开始就非常健康,去年有超一亿元收入,今年第一季度的收入就接近了去年全年的收入,所以零一万物 ToB 业务的运营模式是非常良性的。”李开复说道。

李开复表示,过去整个大模型行业 ToB 会遇到挑战,一方面是因为中国还没有经历所谓的“ChatGPT 时刻”,模型赋能后企业能获得的价值也不见得足够大。另一方面,过去是模型厂商大幅砍价去争招标,最后厂商都赚不到很多钱。

“今天的差别是,企业客户都觉醒了,有了 DeepSeek Moment 之后,很多企业对大模型赋能自身业务抱着很大的希望,也愿意在自己的公司去尝试接入,并且用在更核心的业务场景,所以我认为,未来会有更多的企业下决心拥抱大模型。”李开复表示。

2023 年 7 月,零一万物首度对外亮相后相继发布了 Yi 系列大模型。去年 5 月,零一内部对 Scaling Law 的边际收益递减进行推演,最终决定放弃训练原定万亿参数的超大模型 Yi-X-Large,而转为训练更轻量化、更具商业落地前景的 MoE(混合专家)模型 Yi-Lightning。到了 2024 年底,零一宣布进行针对 to B 智能化市场的战略转型。

今年 1 月,零一万物与阿里云成立产业大模型联合实验室,正式宣布聚焦参数适中、性能领先、推理速度快、推理成本低的轻量化模型,以产业大模型主助力商业落地。2 月,零一万物与苏州高新区联合成立的产业大模型基地正式授牌,聚焦制造、金融等领域的产业大模型。

3 月 17 日,零一万物在 To B 业务上更进一步,正式发布万智企业大模型一站式平台,并宣布可提供企业级 DeepSeek 部署定制解决方案。

李开复表示,很多模型似乎都由模型厂商自己提供类似的平台和解决方案。DeepSeek 是一个非常厉害的技术团队,他们还是希望继续沉浸在技术开发中,这也对今天很多企业在 DeepSeek 落地时会面临一些挑战。

针对企业使用 DeepSeek 遇到的部署难、应用难、高端模型用户定制难和数据问题,万智企业大模型一站式平台为企业规划了 DeepSeek 落地“三步走”步骤,并提供了针对性的解决方案。

在基座模型部署方面,零一万物整合了 DeepSeek、Qwen、Yi 等国内 Top3 模型,推出了“安全部署”方案。对于算力储备薄弱的企业,零一万物将联合头部硬件厂商推出软硬集成式一体机方案,预装高性能 GPU,内置 DeepSeek 全系列模型,部署周期缩短至小时级,帮助企业快速上手 671B 参数的满血增强版的 DeepSeek-R1 模型;对于已具备算力硬件基础设施的企业,零一万物同样可实现 DeepSeek 全系列模型的快速部署。

完成模型部署后,具备工具调用能力、自主执行任务的专家级 Agent,成为推动模型落地的关键。“DeepSeek + 联网搜索”支持实时数据,赋能决策和业务流;“DeepSeek + 知识库 RAG”来构建企业专属知识大脑;“DeepSeek + 智能体 Agent”驱动业务自动化。

另外,零一万物支持行业定制,企业可以基于自身数据库对 DeepSeek-R1 进行模型微调,使之符合垂直领域的业务需求。

零一万物企业解决方案技术负责人王猛表示,定制化开发在过去确实是一个长周期重交付的事情,但 AI 时代就不是这样了。AI coding 能力越来越强,AI 怎么做交付也有了比较大的改变。“AI 可以帮助我们完成很多交付,我们很多交付代码都是 AI 来写,效率非常高,这也是对行业的根本性颠覆。”另外,整个产品中台有很强的扩展性,比如客户喜欢用 Dify 就用 Dify,喜欢用 LangFlow 就可以用 LangFlow,团队在全平台做了很多功能解耦来保证扩展性。

“不会再做万亿以上超大参数模型”

在这次发布会上,零一万物 COO  Anita(黄蕙雯)明确表示“不会再做万亿以上超大参数模型,因为我们做不起。所以今年对我们来说非常重要的,就是仰望星空、脚踏实地。AGI 终有一天会来到,我们也会伴随着行业一起去迎接 AGI 的来到,但我们现阶段最关注的是能否真正把 AI 推到市场上,让市场不只歌颂 AI,而是真正能用上 AI,这是我们现阶段的战略选择。”

零一的团队组织也重新做了调整和聚焦。Anita 透露,当前零一万物的模型每天还在运维。现在因为面向企业服务,所以主要做中规模尺寸、性价比特别高的模型。其中,性价比一定要结合优异的 Infra 能力,还有模型本身训练的持续优化,零一目前维持在 MoE 的路线上还在做 V2。

零一万物如今聚焦在 ToB 商业化上。

李开复表示,零一做 ToB 产品的优势在于积淀。“我们是有完整的软硬结合的解决方案,我们自己做大模型,在如何微调、如何对应数据库、如何做机器训练和数据配比上经验丰富。我们真的能够帮上厂商,因为这些大模型的知识可能难以由系统集成商和一体机提供商来提供。”

“大厂也有大模型经验,我非常尊重,但大厂主要业务还是在做云,而且定价比较昂贵,所以零一万物提供跟大厂一样好的产品,这是我们唯一的产品,会帮你深度做私有化部署,而不是想卖一个云的解决方案给你,另外我们的定价比大厂来得较低,所以我们有自己独特的优势。”李开复补充道。

今年零一万物做的最大的调整是:不再执着于只推 Yi 模型,会聆听市场的变化和需求,市场上有很好的模型,也有很具性价比的模型可以选择,所以零一采取“开放模型”的策略。

“作为第一个全面拥抱 DeepSeek 模型的六小虎,零一万物以开放的态度选择‘模型自由’,除了自研 Yi 模型,更开放企业客户选用市场上性价比佳的优异模型。”李开复认为,“未来的大模型的行业竞争将不再单指模型性能的比拼,更关乎从中台到应用的能力,即模型能否快速响应场景需求、基于中台构建行业应用。”

 会议推荐

在 AI 大模型重塑软件开发的时代,我们如何把握变革?如何突破技术边界?4 月 10-12 日,QCon 全球软件开发大会· 北京站 邀你共赴 3 天沉浸式学习,跳出「技术茧房」,探索前沿科技的无限可能。

本次大会将汇聚顶尖技术专家、创新实践者,共同探讨多行业 AI 落地应用,分享一手实践经验,深度参与 DeepSeek 主题圆桌,洞见未来趋势。


今日荐文



图片
你也「在看」吗?👇

我觉数据安全和隐私是很多企业忽略的潜在问题。大模型需要大量数据进行训练,但这些数据可能包含敏感信息。如果不采取有效的保护措施,很容易发生数据泄露事件。因此,企业在使用大模型时,一定要严格遵守相关法律法规,建立完善的数据安全管理制度,采用加密、脱敏等技术,保护用户隐私。同时,要定期进行安全审计,及时发现和修复漏洞。

对于技术积累薄弱的企业,我的建议是“借力打力”。可以考虑与专业的AI公司合作,让他们提供定制化的私有化部署方案。这些公司通常有丰富的经验和技术积累,可以帮助企业解决各种难题。另外,可以选择那些支持私有化部署的云平台,利用它们提供的工具和服务,降低部署和维护的成本。当然,数据安全永远是第一位的,一定要选择那些有良好数据安全资质和信誉的合作伙伴。

我觉得这可能是一种更加务实的选择。之前大家一股脑扎堆超大模型,但实际落地应用成本太高,很多企业根本用不起。现在零一万物转向 DeepSeek 这种中等规模、性价比高的模型,可能更符合当下市场的需求。当然,超大模型在科研探索上还是有价值的。中小企业选择大模型,我觉得核心是看解决实际问题的能力,别盲目追求参数量,适合自己的才是最好的,可以先小规模试点,看看效果再说。

零一万物的策略调整,我觉得反映了市场导向的重要性。ToB 业务的核心是解决客户的痛点,而不是单纯地展示技术实力。中小企业在选择大模型时,更应该关注模型的易用性、可定制性和售后服务。有些云厂商提供的 PaaS 平台,集成了多种大模型服务,中小企业可以按需选择,降低试错成本。当然,也要考虑数据安全和合规性问题。

还有一个方法是采用“合成数据(Synthetic Data)”。通过算法生成与真实数据相似但没有隐私风险的数据,然后用这些数据来训练模型。这种方法可以有效解决数据稀缺和隐私保护的问题。当然,合成数据的质量和多样性对模型的效果有很大影响,需要仔细设计和评估。现在市面上也有一些公司提供合成数据服务,企业可以根据自己的需求选择。

从技术角度看,这代表了从“大力出奇迹”到“精耕细作”的策略转变。早期大家比拼谁的模型更大、参数更多,但现在发现,并非越大越好,而是要看模型在特定场景下的性能和效率。中小企业应该根据自己的数据量、算力资源和应用场景,选择那些经过充分优化、能够快速部署和训练的模型。比如,一些开源模型经过微调后,也能达到不错的效果。

可以考虑采用“联邦学习”的方案。这种方案可以在不共享原始数据的情况下,让多个参与者协同训练模型。每个参与者使用自己的数据在本机上训练模型,然后将模型参数上传到服务器进行聚合。这样既可以利用各方的数据,又可以保护数据的隐私。当然,联邦学习也有一些挑战,比如通信成本高、模型收敛慢等,需要根据实际情况进行优化。

从技术角度来说,最大的挑战可能是模型的泛化能力不足。即使在特定数据集上表现很好,但一旦遇到新的场景或数据,效果就可能大打折扣。为了解决这个问题,企业可以尝试使用数据增强技术,增加训练数据的多样性;或者采用迁移学习方法,利用预训练模型进行微调;还可以引入对抗训练,提高模型的鲁棒性。此外,持续监控模型的性能,及时进行调整和优化也很重要。

“三步走”听起来很美好,但实际落地肯定会遇到各种坑。比如,数据质量可能不过关,清洗和标注工作量巨大;企业内部IT基础设施可能跟不上,导致模型部署和推理速度慢;员工对大模型的理解和应用能力不足,需要进行培训;更重要的是,业务流程可能需要重塑,才能充分发挥大模型的价值。所以,企业在落地大模型之前,一定要做好充分的准备,包括数据治理、技术改造、人才培养和流程优化。