DeepSeek开源Janus-Pro视觉模型,性能超越DALL-E 3,引发市场震荡

中国AI实验室DeepSeek开源Janus-Pro视觉模型,性能超越DALL-E 3,引发市场震荡,英伟达市值大跌。

原文标题:英伟达市值蒸发近6000亿美元,而DeepSeek刚刚又开源新模型

原文作者:机器之心

冷月清谈:

DeepSeek开源了新的视觉模型Janus-Pro,其性能在多个基准上超越了DALL-E 3和Stable Diffusion,同时发布了多模态理解模型JanusFlow-1.3B。Janus-Pro模型的改进主要体现在训练策略优化、训练数据扩展和模型规模扩大三个方面。具体来说,他们延长了第一阶段的训练时间,在第二阶段使用文本生成图像数据进行训练,增加了多模态理解和视觉生成的数据,并将模型扩展到7B参数。DeepSeek的开源模型策略,加剧了全球AI竞争压力,导致英伟达等AI巨头市值大跌。Janus Pro 7B 模型因其高性能和低资源需求而备受关注,其开源性质也降低了AI的使用门槛,对大型科技公司构成直接威胁。

怜星夜思:

1、DeepSeek这次开源的模型对个人开发者和小型创业公司来说意味着什么?
2、Janus-Pro模型强调效率和多功能性,这会对未来的AI模型发展方向产生哪些影响?
3、DeepSeek连续开源多个高性能AI模型,对英伟达等芯片巨头产生了哪些影响?

原文内容

机器之心报道

编辑:亚鹂、Panda

龙年即将结束,但有些股民可能无心过春节了。影响,美股昨日开盘后迎来重挫。

周一,英伟达市值大幅下跌,损失接近 6000 亿美元,创下美国历史上公司单日市值最大跌幅。此次股价暴跌幅度达 17%,最终收盘价为 118.58 美元。

上周,英伟达才刚刚超越苹果,成为全球市值最高的上市公司。此次股价暴跌直接导致纳斯达克指数下滑了 3.1%。


另一家依赖 AI 获得巨额市值增长的美国大型芯片制造商 Broadcom,周一跌幅则达到 17%,市值蒸发了 2000 亿美元。


此次抛售的原因,主要是源于中国人工智能实验室 DeepSeek 带来的全球 AI 竞争压力飙增的担忧。,并表示该模型只用了两个月时间完成,使用的还是英伟达的低能力版芯片 H800

反观 Alphabet、Meta 和亚马逊等科技巨头,为训练和运行 AI 模型,花费了数十亿美元用于购买英伟达最前沿基础设备。

将开源进行到底,Janus-Pro 问世

在美股一片惨嗥的同时,DeepSeek 再接再厉继续开源,发布了视觉模型 Janus-Pro。该模型是去年 10 月发布的 Janus 的升级版,在质量上实现了飞跃式提升。与此同时,DeepSeek 还发布了一款多模态理解模型 JanusFlow-1.3B。

Janus-Pro

Janus Pro 是基于之前的 Janus 开发的高级版。整体而言,Janus Pro 实现了三大改进:训练策略优化训练数据扩扩展到了更大模型。有了这些改进, Janus Pro 在多模态理解和文生图指令遵从能力都收获了显著提升 —— 在多个基准上超越了 DALL-E 3 与 Stable Diffusion,同时文生图的稳定性也得到了加强。此次,DeepSeek 一次性发布了 7B 和 1B 两个版本。

刚刚注册 𝕏 帐号的 DeepSeek 创始人梁文峰(目前还无法验证该帐号的真实性)也宣布了此消息。


已经有不少网友尝试过该模型了,比如生成一个看起来像网球的小鸟,绒毛形态十分逼真。


或者由「美丽的汉字」五个字符组成的图画:


这个同时兼具视觉理解和生成的模型着实再一次震惊了中外 AI 社区,毕竟这个表现如此卓越的模型仅有 7B 大小!


  • 论文标题:Janus-Pro: Unified Multimodal Understanding and Generation with Data and Model Scaling
  • 论文地址:https://github.com/deepseek-ai/Janus/blob/main/janus_pro_tech_report.pdf
  • 7B 版本:https://huggingface.co/deepseek-ai/Janus-Pro-7B
  • 1B 版本:https://huggingface.co/deepseek-ai/Janus-Pro-1B
  • Hugging Face 试用链接:https://huggingface.co/spaces/deepseek-ai/Janus-Pro-7B

DeepSeek 如今正将其影响力从语言处理,扩展到计算机视觉领域。据随模型发布的技术论文介绍,Janus Pro 7B 在效率和多功能性方面经过精心设计,能够在一系列视觉任务中表现出色:从生成逼真的图像到执行复杂的视觉推理任务。

Janus-Pro 与其前身 Janus 在文本生成图像方面的对比

DeepSeek 还展示了 Janus Pro 7B 的性能指标。(左)Janus Pro 7B 在比其他多模态大模型参数更少的情况下,依然实现了较高的性能。(右)该模型在文本生成图像基准测试中也取得了最高的准确率,超越了竞争对手(包括 DALL・E 3 和 SD3-Medium)。

Janus-Pro 的多模态理解与视觉生成结果

DeepSeek 研究团队在他们的论文中表示:「Janus Pro 是一个高效的视觉模型系列,旨在实现性能与计算成本之间的平衡,能够在广泛的视觉任务中实现最先进的性能。」

以下为 Janus Pro 在多模态任务中的优良表现:

图片描述

文生图

1. Janus Pro 架构

对效率的强调是 Janus Pro 7B 区别于其他大规模、高资源需求 AI 模型的关键优势。与一些最大且最耗资源的 AI 模型不同,Janus Pro 7B 通过其 70 亿参数设计,能够提供高水平的性能,同时避免了对庞大计算资源的需求。

Janus-Pro 的架构与 Janus 相同。如下图所示,整体架构的核心设计原则是将多模态理解与生成的视觉编码解耦。研究者应用独立的编码方法将原始输入转换为特征,这些特征随后由一个统一的自回归 Transformer 处理。

Janus-Pro 架构

2. 训练策略优化

Janus 的前一个版本采用了三阶段训练过程:

  • 阶段 I:重点训练适配器和图像头。
  • 阶段 II:进行统一预训练。在此过程中,除理解编码器和生成编码器外,所有组件的参数都会被更新。
  • 阶段 III:进行监督微调。在阶段 II 的基础上,进一步解锁理解编码器的参数。

然而,这种训练策略存在一些问题。通过进一步的实验,DeepSeek 研究团队发现这一策略并不最优,并导致了显著的计算效率低下。

为解决此问题,他们在原有基础上进行了两项修改:

在阶段 I 延长训练时间:研究者增加了阶段 I 的训练步数,以确保在 ImageNet 数据集上得到充分的训练。他们经过研究发现,即使固定了大语言模型(LLM)的参数,该模型仍能有效地建模像素间的依赖关系,并根据类别名称生成合理的图像。

在阶段 II 进行重点训练:在阶段 II 中,研究者去除了 ImageNet 数据,直接使用标准的文本生成图像数据来训练模型,从而使模型能够基于详细的描述生成图像。这种重新设计的方法使得阶段 II 能够更高效地利用文本生成图像的数据,并显著提高了训练效率和整体性能。

3. 数据扩展

研究团队在 Janus 的训练数据上进行了扩展,涵盖了多模态理解和视觉生成两个方面:

  • 多模态理解:对于阶段 II 的预训练数据,参考 DeepSeek-VL2 ,并增加了大约 9000 万条样本。样本包括图像标注数据集,以及表格、图表和文档理解的数据。
  • 视觉生成:前一个版本的 Janus 使用的真实世界数据质量较差,且包含大量噪声,导致文本生成图像时不稳定,生成的图像质量较差。在 Janus-Pro 中,研究者加入了大约 7200 万条合成的美学数据样本,在统一预训练阶段,真实数据和合成数据的比例为 1:1。

4. 模型扩展

前一个版本的 Janus 通过使用 1.5B 的大语言模型(LLM)验证了视觉编码解耦的有效性。在 Janus-Pro 中,研究团队将模型扩展至 7B,并在其中详细列出了 1.5B 和 7B LLM 的超参数(见下表)。

他们观察到,当扩大 LLM 的规模时,无论是在多模态理解还是视觉生成任务中,损失函数的收敛速度相比于较小的模型都会有显著的提升。

这个发现进一步验证了该方法的强大可扩展性。

Janus-Pro 架构配置

Janus-Pro 训练的详细超参数

JanusFlow-1.3B

在发布 Janus Pro 的同时,DeepSeek 还发布了一个多模态理解模型 JanusFlow-1.3B。从名字也能看出来,参数量同样不高。

据介绍,JanusFlow 是一个将图像理解和生成统一在一个模型中的强大框架。其引入了一种极简主义架构,将自回归语言模型与校正流(rectified flow,一种生成建模的 SOTA 方法)相结合。

JanusFlow 的架构

DeepSeek 研究表明,校正流可以在大型语言模型框架内直接训练,无需进行复杂的架构修改。为了进一步提高统一模型的性能,他们还采用了两种关键策略:一是将理解和生成编码器解耦,二是在统一训练期间对齐它们的表征。

事实上, JanusFlow 的研究论文早在去年 11 月就已经发布。


  • 论文标题:JanusFlow: Harmonizing Autoregression and Rectified Flow for Unified Multimodal Understanding and Generation
  • 论文地址:https://arxiv.org/pdf/2411.07975

当时的实验结果表明,JanusFlow 在不同的领域中都实现了与专门模型相当或更优异的性能,同时在标准基准上明显优于现有的统一方法。因此,可以说,这项研究代表着向更高效和多功能的视觉语言模型迈出的重要一步。下图展示了其一些基准测试结果数据以及生成结果。


DeepSeek 两连击:提升市场焦虑与竞争压力

Janus Pro 7B 的发布引发了不少讨论,比如 VentureBeat 认为:「Janus Pro 7B 的发布时机放大了其影响力。这是紧随 R1 模型和随之而来的市场动荡之后,它强化了这样的叙事:DeepSeek 是能够颠覆 AI 既定秩序的创新者。

该媒体还认为:「Janus Pro 7B 的开源性质会加剧这种颠覆。与之前的开源运动一样,这会让人们更容易使用高级 AI。大型科技公司以外的企业将受益:无需供应商锁定或高额费用即可获得顶级 AI。对于 AI 巨头来说,DeepSeek 构成了直接威胁:他们的专有高级模型能否在免费、高质量的替代品面前生存下来?当前的股市抛售情况表明投资者对此表示怀疑。」

对于 DeepSeek 正在给 AI 社区以及投资市场带来的影响,你有什么看法,请与我们分享。

参考链接
https://venturebeat.com/ai/deepseek-unleashes-janus-pro-7b-vision-model-amidst-ai-stock-bloodbath-igniting-fresh-fears-of-chinese-tech-dominance/

© THE END 
转载请联系本公众号获得授权
投稿或寻求报道:[email protected]


对于小型创业公司,这相当于降低了AI研发的门槛。可以基于开源模型快速开发产品原型,验证市场需求,而不用投入大量资金从头训练模型。这在竞争激烈的市场中无疑是一个巨大的优势,有机会弯道超车。

个人开发者和小型创业公司都可以利用开源的 Janus-Pro 模型进行二次开发和定制,这可以大幅降低开发成本,并专注于特定领域或应用场景,从而在市场中找到自己的利基市场。

我认为这会促使研究者更加关注模型的架构设计和训练策略,而不是单纯地堆叠参数。如何用更少的资源,训练出性能更强、更通用的模型,将成为未来研究的重点。

DeepSeek开源模型,直接降低了使用AI的门槛,让更多的人和企业能够用上先进的AI技术。这对于英伟达这种主要依靠销售高端AI芯片的公司来说,肯定是一个巨大的挑战。

我觉得英伟达的股价下跌就是一个明显的信号。DeepSeek的开源模型,让大家对高端AI芯片的需求下降了,这直接影响了英伟达的市场份额和盈利能力,毕竟现在大家可以用更低的成本获得类似的性能。

DeepSeek 的开源策略可能会迫使英伟达等芯片巨头调整其商业模式,例如提供更具竞争力的价格或开发更具针对性的硬件解决方案,以应对来自开源模型的竞争。

"效率"和"多功能性"这两个关键词,我觉得会推动模型轻量化和通用性方面的研究。未来可能会出现更多像Janus-Pro这样,参数量相对较小,但在多个任务上都能有出色表现的模型,这样才能更好地适应各种不同的应用场景,降低部署成本。

我觉得未来AI模型可能会更注重“实用性”。以前大家都在追求模型越大越好,参数越多越好,但现在发现,像Janus-Pro这样,参数量没那么大,但性能依然很强,同时对资源的需求也没那么高,这种模型可能更符合实际应用场景的需求,以后大家可能会更倾向于开发这种高效率、多功能的模型。

我觉得这对个人开发者来说绝对是个巨大的机会!以前那些高性能的模型都掌握在大公司手里,个人开发者根本用不起也用不上,现在DeepSeek开源了,等于人人都能接触到最先进的技术,可以做一些以前不敢想的事情了,比如开发一些更个性化、更有趣的小应用。