通义千问Qwen2.5-Omni开源啦!7B小尺寸实现全球最强全模态性能,可处理文本、图像、音频和视频,并实时生成语音。手机上也能跑!
原文标题:全模态模型Qwen2.5-Omni开源,7B尺寸实现全球最强性能
原文作者:阿里云开发者
冷月清谈:
怜星夜思:
2、Qwen2.5-Omni强调了实时语音生成能力,这在实际应用中有什么价值?和传统的语音合成技术相比,它有什么优势?
3、Qwen2.5-Omni既然能在手机上部署,那么对于移动端的AI应用开发会带来哪些新的可能性?开发者可以利用它做些什么有趣的事情?
原文内容
今天,通义千问Qwen2.5-Omni-7B正式开源。
作为通义系列模型中首个端到端全模态大模型,可同时处理文本、图像、音频和视频等多种输入,并实时生成文本与自然语音合成输出。
在权威的多模态融合任务OmniBench等测评中,Qwen2.5-Omni刷新业界纪录,全维度远超Google的Gemini-1.5-Pro等同类模型。
Qwen2.5-Omni以接近人类的多感官方式「立体」认知世界并与之实时交互,还能通过音视频识别情绪,在复杂任务中进行更智能、更自然的反馈与决策。目前,开发者和企业可免费下载商用Qwen2.5-Omni,手机等终端智能硬件也可轻松部署运行。
Qwen2.5-Omni采用了通义团队全新首创的Thinker-Talker双核架构、Position Embedding (位置嵌入)融合音视频技术、位置编码算法TMRoPE(Time-aligned Multimodal RoPE)。双核架构Thinker-Talker让Qwen2.5-Omni拥有了人类的“大脑”和“发声器”,形成了端到端的统一模型架构,实现了实时语义理解与语音生成的高效协同。具体而言,Qwen2.5-Omni支持文本、图像、音频和视频等多种输入形式,可同时感知所有模态输入,并以流式处理方式实时生成文本与自然语音响应。
Qwen Chat免费体验:
百炼平台模型调用:
Demo体验:
开源地址:
https://huggingface.co/Qwen/Qwen2.5-Omni-7B
https://modelscope.cn/models/Qwen/Qwen2.5-Omni-7B
点击阅读原文,立即体验模型!