字节跳动发布豆包1.6,试水“上下文定价”降低AI应用成本;内部80%工程师用Trae提效;视频生成模型Seedance 1.0 Pro主打性价比。战略瞄定多模态、视频生成、复杂任务三主线。
原文标题:字节 AI 卷出新高度:豆包试水“上下文定价”,Trae 覆盖内部80%工程师,战略瞄定三主线
原文作者:AI前线
冷月清谈:
怜星夜思:
2、豆包大模型这次搞了个“上下文定价”,感觉挺新颖的。大家觉得这种定价模式对用户来说是好事吗?会不会反而让选择更困难了?
3、文章里提到字节内部80%的工程师都在用Trae,这个比例挺高的。大家觉得AI编程助手真的能大幅提升开发效率吗?还是说更多的是一种辅助作用?
原文内容
近日,字节分享了其对今年 AI 技术发展主线的思考,主要包括以下三个方面:
-
多模态的推理和思考。仅做文本的 reason 和 thinking 无法充分发挥模型能力,基于图片、视频等多模态数据,reason 和 thinking 能力才会真正爆发。但目前行业并没有涌现这样的能力。
-
视频生成技术突破。在 2024 年底之前,全球视频生成模型还属于“玩具”,难以应用于实际生产环节。然而到了 2025 年,随着类似 Veo 2 等模型的出现,视频生成技术开始逐渐进入实际生产与生活,如消费领域、电商广告短片制作等场景。
-
多步骤复杂任务。今年,多步骤复杂任务的处理能力会逐步成熟,但进程是缓慢的。直到目前,多数相关应用仍存在脱离实际需求的情况。字节预计到今年第四季度,这类能力会逐渐走向可用,可能达到放心让 AI 助手尝试完成价值约 50 元人民币的简单任务,准确率预计可达 80%-90%,开始具备实际使用的可能性。
基于上述考虑,6 月 11 日,字节跳动旗下火山引擎进行一系列的发布和更新,包括豆包大模型 1.6、视频生成模型 Seedance 1.0 pro 等新模型,并升级了 Agent 开发平台等 AI 云原生服务。
大会上,字节发布了豆包大模型 1.6,包括 Doubao-Seed-1.6-thinking、Doubao-Seed-1.6、Doubao-Seed-1.6-flash,均支持多模态输入,并实现 256K 超长上下文。
Doubao-Seed-1.6 支持 auto/thinking/non-thinking 三种思考模式。据介绍,在高考全国新一卷数学中,豆包大模型取得 144 分;在海淀模拟全卷考试中,理科取得 706 分,文科获得 712 分。
豆包 1.6 系列模型支持多模态理解和图形界面操作,能够理解和处理真实世界问题。演示案例显示,豆包 1.6 可自动操作浏览器完成酒店预定,识别购物小票并整理成 Excel 表格等任务。
各能力对比,从左到右:Doubao-Seedance-1.0-pro 250528、Doubao-Seed-1.6-flash 250615、Doubao-Seed-1.6-thinking 25061
火山引擎总裁谭待介绍,上下文长度是影响模型服务成本的关键因素,模型上下文长度对成本有累加特性。
谭待表示,深度思考、多模态和工具调用等模型能力提升,是构建 Agent 的关键要素。同时,由于 Agent 每次执行任务都会消耗大量 tokens,模型使用成本也要降下来,才能推动 Agent 的规模化应用。
鉴于此,豆包大模型 1.6 从上下文长度的维度进行了三档定价,并对深度思考、多模态能力与基础语言能力统一价格:
-
上下文长度在 1-32k 之间,输入价格为 0.8 元 / 百万 tokens,输出价格为 8 元 / 百万 tokens;
-
上下文长度在 32-128k 之间,输入价格为 1.2 元 / 百万 tokens,输出价格为 16 元 / 百万 tokens;
-
上下文长度在 128-256k 之间,输入价格为 2.4 元 / 百万 tokens,输出价格为 24 元 / 百万 tokens。
整体来看,豆包大模型 1.6 的综合成本只有豆包 1.5 深度思考模型或 DeepSeek R1 的三分之一。
谭待介绍,火山引擎除了用技术优化方案降低成本外,还结合自建数据中心与公有云资源,平衡初期投入与长期成本,目前其自建算力占比达 30%。
数据显示,豆包大模型日均 tokens 使用量超过 16.4 万亿,较去年 5 月首次发布时增长 137 倍。
5 月 28 日,字节被曝出于对防范数据泄露风险的考虑,自 6 月 30 日起,将在内部分批次禁用第三方 AI 开发软件,包括 AI 编程工具 Cursor、 Windsurf 等,并将旗下编程助手 Trae 作为替代方案。消息被曝出来后,Trae 也一度成为话题中心。
这次大会上,字节跳动技术副总裁洪定坤透露,在字节内部,超过 80% 的工程师在使用 Trae 辅助开发。Trae 的整体月活用户已经超过了 100 万。
洪定坤自己亲身体验了 Trae 带来的效率提升。端午假期后,洪定坤与两名同事一起开发了一个相对复杂且完成度较高的英语学习应用,根据以往经验,开发该应用可能需要几周甚至一个月,但这次开发实际只用了三天。
据介绍,Trae 有两个核心功能:代码补全和预测编辑。AI 不仅能补全当前代码,还能预测下一步可能需要修改的位置,并直接跳转到那里。通过这种方式来大幅提升代码生成和编辑的效率。
洪定坤团队最早开发的产品是 Mascode,它以插件形式集成到 VSCode 或 JetBrains 等 IDE 中,帮助开发者提升效率。如今 Mascode 插件拥有大量用户,但作为轻量级工具,它难以承载 AI 与 IDE 深度结合的完整体验。
随着模型能力提升,开发者对 IDE 的期待更高,希望它能支持更复杂的开发流程。因此,洪定坤团队研发了“去 IDE”的 Trae——一个为 AI 量身打造的原生开发环境,不仅包含基础功能,还支持代码重构、批量修改和交互式问答等复杂任务。此外,Trae 还支持 100+ 优质 MCP Servers,支持用户自定义并分享智能体。
Trae 采用了自然语言编程的方式,但不同于简单地将需求丢给 AI 完成,开发者仍然是主导开发的工程师。例如,开发者用 200 多字的提示词描述后,AI 生成了约 300 行代码,而开发者只需做少量优化(不到 5%)。这种方式下,85% 的代码由 AI 生成,“我更像是在与另一名工程师协作。”
Trae 的开发使用了内部模型“豆包 1.6”,其强大的编程能力是关键。团队针对工程场景对模型进行了额外训练,使其更适配开发需求。该模型将很快推送给“去 IDE”用户,性能较 1.5 版有显著提升。
编码只是开发的一环,软件开发还涉及文档编写、运维、调试、发布和 Debug 等。传统开发中,编码仅占不到 40% 的工作量。因此,除了编码,团队还花费大量时间在环境搭建、压测和部署上。未来,我们希望 AI 能成为“调度者”,自动完成日志分析、分支管理、代码提交和发布等任务,将复杂流程压缩到几小时内。
“需要强调的是,AI 与人的协作至关重要。完全依赖 AI 生成的代码难以维护,且缺乏性能优化。”洪定坤说道,“例如,昨晚我们遇到一个 Bug,最终仍需人工介入修复。专业工程师应专注于创造性工作(如算法设计和性能优化),而 AI 负责执行和协作。真正的‘AI 工程师’是人与 AI 的高效结合。”
字节判断,视频生成技术已经进入了更深度的创作阶段。今天,字节正式发布最新的豆包视频生成模型 Seedance 1.0 Pro。
据介绍,Seedance 1.0 Pro 具有三大特点:无缝的多镜头叙事、多动作的随心运镜、稳定运动与真实美感。其中,无缝多镜头能力可以生成两个以上镜头的自然切换,配合远景、中景和近景的变化,大幅提升画面信息量和叙事表现力。除了丰富的镜头语言,人物在画面中的肢体动作和表情也更加生动流畅,能够生成多主体、多动作及复杂运镜的视频内容。
通过后训练阶段采用的精细数据集、多维度奖励模型和反馈学习算法,Seedance 1.0 Pro 在运动生动性、结构稳定性和画面质量等方面都有显著提升。
此外,Seedance 1.0 Pro 的价格也具有一定性价比。Seedance 1.0 pro 模型价格为 0.015 元 / 千 tokens,生成一条 5 秒的 1080P 视频只需 3.67 元。
换算来看,1 万元预算可生成 2700 条 1080p 视频;若选择 780p 分辨率,则可生成 9700 多条。相比之下,对于 5 秒的 1080P 视频,可灵 2.1 大师版和 2.0 大师版都是分别生成 1000 条,Veo 2 则仅生成 785 条。
目前,字节在电商、游戏、影视等领域进行了实践探索。其中字节与网易合作,用《逆水寒》仙侠游戏进行测试,玩家可以创作角色故事并通过视频生成演绎剧情。
此外,豆包实时语音模型如今全量上线方舟平台,向所有企业客户开放。端到端实时语音让模型说话越来越拟人。基于此,字节进一步推出了播客模型,支持自然流畅的双人对话,包含互相附和、插话、犹豫等真实播客互动节奏,同时支持多种输入:一句话指令、网页链接或长文本内容等。
当前,各厂商都在加速将企业基础设施和云计算体系改造为更适配 AI 的形态。
在火山引擎智能算法负责人吴迪看来,其首要任务是选择更强、更智能且性价比更高的模型;其次,需要将数据基础设施与大模型能力深度融合,高效的数据检索能显著提升大模型表现,而知识库与记忆库的有机结合则有助于打造更智能的产品体验;最后,Agent 落地涉及大量工具调用,对其效果的持续评估和迭代将是团队的长期工作重点。
当前,字节已经有扣子开发平台企业版、扣子空间、Hi Agent 等智能体构建平台。这次大会上,围绕 MCP 协议,火山引擎 MCP Hub 已与 AI 原生 IDE Tree、方舟体验中心和扣子打通,支持一键选用 200 多个丰富 MCP 协议服务。吴迪表示,与云的深度连接是火山引擎 MCP 的显著特色。
提示词工程是 AI 应用开发的重要部分。吴迪团队判断:第一,模型越强,提出好问题的正向价值越大,优质问题才能充分释放模型潜力;第二,现实世界中许多高价值问题没有标准答案,如各企业用大模型提升招聘效率时,用人标准各不相同;第三,长期来看,提示词工程本质是搜索优化问题,历史经验表明所有搜索问题终将由自动化系统和优化算法解决。为此,吴迪团队推出了 Prompt Pilot,支持开发者用自然语言表达模糊需求,通过简单互动获得初步增强的 prompt。
吴迪表示,过去几个月,强化学习算力消耗快速攀升,模型训练正从单纯的深度学习作业演变为综合推理训练环境、模拟虚拟机等要素的分布式系统。随着大量 Agent 进入现实世界,强化学习愈发重要。其预测到 2027 年,强化学习带来的算力和资金消耗可能逼近整个行业在预训练上的投入。
然而,当前强化学习面临诸多挑战:需协调 GPU/CPU 混合编排、异构算力调度和异步推理,系统驾驭难度增加;需要对环境模拟仿真进行管理,涉及大量代码解释器、浏览器、虚拟机和 MCP 服务,数百个沙盒需随训练过程快速启停并确保安全隔离;训练阶段变得更动态复杂,整体运维难度提升等。
声明:本文为 AI 前线整理,不代表平台观点,未经许可禁止转载。

你也「在看」吗?👇