KAIYUN中国·官方网站-开云中国门户入口

Kaiyun中国:智能体时代还得看豆包大模型-开云中国·官方网站
KAIYUN中国 - 专业模型设计制作企业 | 高品质多元化解决方案 | 诚信共赢

咨询热线:

0830-2509596

Kaiyun中国:智能体时代还得看豆包大模型

发布时间:2025-06-15 17:14人气:

  2025年6月11日,火山引擎Force原动力大会发布豆包大模型1.6、视频生成模型Seedance 1.0 pro等重磅新模型,以及迭代了一站式AI云原生全栈服务。

  对此,字节跳动CEO梁汝波表示:“做好火山引擎对字节跳动成为一家优秀的科技公司、保持技术竞争力很重要。未来,字节跳动会坚定长期投入,追求智能突破,服务产业应用。通过火山引擎,持续把新模型、新技术开放给企业客户。”

  眼下,智能体成为AI落地的最短路径,火山引擎凭借“性能更强、成本更低、配套更全”的打法,进一步助力企业发力智能体。

  火山引擎总裁谭待表示:“如果我们把时间拉长,把技术栈展开,我们实际正处于PC到移动到AI三个时代的变化之中。在这三个时代里,技术主体在发生变化,PC时代的主体是Web,移动时代是APP,AI时代是Agent。”

  通俗易懂地说,当AI赋能千行百业成为共识,企业拥抱大模型不再是可选项而是必选项,智能体凭借低门槛、易上手的优势站上“风口”。

  巧的是,豆包大模型虽然下场稍迟,却上演了一场后发先至的好戏,成为大模型赛道无可争议的最大“黑马”。

  截至2025年5月底,火山引擎tokens日均调用量已经达到16.4万亿,较2024年5月发布时增长了137倍。

Kaiyun中国:智能体时代还得看豆包大模型(图1)

  更为重要的是,豆包大模型1.6系列登场,在GPQA Diamond、AIME25、MultiChallenge上等众多权威测评集上得分均属于国际第一梯队,为企业发力智能体提供多样化选择。

  其中,豆包1.6为All-in-One综合模型,是国内首个支持256K上下文的思考模型,具备自适应思考的能力,可根据提示词难度自动决定是否开启深度思考,兼顾提升效果与tokens消耗大幅减少的需求。

  而豆包1.6—thinking为深度思考强化版,在代码、数学、逻辑推理等基础能力上进一步提升,支持构建复杂智能体;豆包1.6—flash则为极速版,延迟极低、TOPT 仅需10ms,适用于智能客服、语音助手等实时交互场景。

  做2025高考数学线分,位列国内模型首位,且海淀区高考模拟卷文理科成绩全部突破700分,理科成绩更是比2024年提升了154分,模型进步的速度令人惊喜。

  一名互联网观察人士告诉锌刻度:“大模型是一个重资产赛道,考验企业在资金、生态、技术、人才等方面的底蕴,Scaling Law之下强者恒强。”

  当下,智能体在手机、汽车、教育、金融等领域重塑生产力与生产关系,随之而来的则是成本高企的挑战。

  譬如,斯坦福2023年设计的虚拟世界西部小镇,拥有25个可以恋爱交友的智能体,单个智能体的成本高达每小时20美元。

  《中国AI Agent应用市场概览(2025Q1)》的数据显示,2024年中国AI智能体市场规模突破50亿元大关,未来四年将以超过60%的年复合增长率迅猛增长。

  火山引擎精准地抓住痛点,在性能与成本之间寻求最佳平衡点,打破行业传统的定价惯例,赋能智能体降本增效。

  调用深度思考或多模态能力,需要额外付费,早已成为行业的惯例,豆包大模型1.6则一视同仁,原生支持深度思考和多模态,企业无需为token额外买单。

  以往,为了省心省力,token的输入定价并不考虑长度,行业采取固定价格,但是模型的成本存在明显的“递增效应”,即输入上下文长度的增加,模型处理token的难度与成本也随之增加。

  “当前,超过80%的企业调用请求集中在32K tokens以内,若能针对这一主流区间优化调度,可显著降低整体成本。”谭待如是说。

  于是乎,豆包大模型1.6精准匹配企业需求分布,将定价区间按照输入长度分为0—32K、32K—128K和128K—256K,价格随着输入长度的增长而增加。

  以企业调用量最大的0—32K为例,豆包大模型1.6的输入价格为0.8元/百万tokens、输出价格为8元/百万tokens,整体成本只有豆包1.5深度思考模型或DeepSeek R1的三分之一,性价比拉满。

Kaiyun中国:智能体时代还得看豆包大模型(图2)

  如此一来,火山引擎“好的模型就是要让每一家企业都用得起”的理念得以延续,凭借“高质低价”的打法进一步占领企业的心智。

  《中国公有云大模型服务市场格局分析,2025年一季度》的数据显示,2024年中国公有云大模型调用总量达到114.2万亿tokens,其中火山引擎占据46.4%的市场份额,位列第一,调用量几乎等于第二名与第三名之和。

  不难看出,通过抹去功能溢价与分区定价,火山引擎走上一条技术迭代与商业创新共振的降本之路,从而推动行业良性竞争。

  对此,谭待曾有言:“对于企业级市场来说,商业模式是建立在可持续发展的基础上,任何商品必须是盈利的,不能靠补贴来降价。如果降Kaiyun全站网页价是亏损的,规模越大亏得越多,这就不是合理的商业模式。”

  要孵化成千上万的智能体,解决各式各样实际场景问题,智能体的开发范式势必焕新,调用中心从传统的程序员转移到大模型。

  火山引擎智能算法负责人吴迪表示:“要构建高生产力的Agent,既要用好AI,整合高质量的应用;又要做好AI,关注底层技术本身的优化和创新。”

  即升级发布了PromptPilot、MCP Servers、TRAE、扣子开发平台等产品,以及多款开源项目,打造了覆盖大模型开发全链路的工具矩阵。

  譬如,PromptPilot肩负“翻译”的重任,帮助开发者将模糊的诉求变为具象化的目标,即便开发者不具备专业的大模型知识,也不影响最终的实际效果,只要开发者对行业领域、应用场景有一定知识储备和判断力即可。

  换而言之,通过需求理解、问题生成、输出三个环节的优化,可以提升Prompt调试效率300%,大幅节约智能体的开发时间。

  再譬如,火山引擎MCP Server与TRAE、方舟体验中心、扣子等平台打通,深度集成云服务能力,从而解决了智能体从概念到落地的链路断层问题。

  这么一来,开发者可通过MCP 控制火山引擎的云服务组件,便捷地完成计算、网络、存储等环境部署,更快地把一个创意变成一个成熟的产品。

  在此基础之上,火山引擎提供了AI云原生全栈服务,打通了开发、数据、安全等环节,帮助企业快捷落地智能体。

  AgentKit、TrainingKit和ServingKit,助力企业做好智能体服务、模型训练和模型推理;多模态数据湖、Data Agent,助力企业构建智能化、高效化、低成本的智能体数据体系;AICC 密态计算、大模型应用防火墙,助力企业构筑网络安全防线,抵御针对智能体的恶意攻击……

Kaiyun中国:智能体时代还得看豆包大模型(图3)

  以上可见,火山引擎通过全链路开发、高性价比基础设施、安全可靠服务等优势,成为企业发力智能体的不二选择。

  总而言之,“性能更强、成本更低、配套更全”之下,火山引擎降低了企业入局智能体的门槛,接下来将推动智能体大规模落地。


0830-2509596