刚刚,豆包连发多款大模型:让 DeepSeek更好用,音频版 Sora 惊艳全场

图灵汇官网

现在问AI一个问题,体验总是很不稳定。简单的问题,它很快就能给出回答,但内容往往不够具体。遇到复杂的问题,它需要长时间思考,有时候甚至要等上30秒以上。每次回答,AI都会消耗大量token。对企业而言,token的使用量直接关系到成本。虽然深度思考能提升效果,但延迟和token消耗也增加了,导致整体成本上升。这已经成为行业普遍面临的问题。

随着AI应用的增加,token的使用量也在迅速增长。比如豆包大模型,9月底的日均调用量已经超过30万亿,比5月增长了80%以上。这只是市场的一部分。当AI需求以这样的速度增长时,企业只能在两种方案之间选择:用轻量模型节省成本,但效果差;或者用高性能模型保证效果,但成本高。问题在于,企业既想要好效果,又希望控制成本。

最近,火山引擎在武汉举行的FORCE LINK AI创新巡展上,推出了四款新产品。包括升级后的豆包大模型1.6,支持四种不同的思考模式;豆包1.6 lite,成本降低一半,同时效果更好;还有语音合成模型2.0和声音复刻模型2.0。根据IDC的数据,2025年上半年,火山引擎在中国公有云大模型服务市场中占据49.2%的份额,排名第一。

这意味着每两家使用云端大模型的企业,就有一家选择了火山引擎。在发布会上提到,虽然深度思考能提高31%的效果,但由于延迟和token消耗过高,实际使用率只有18%。企业想用,但难以承担成本。为了解决这个问题,豆包大模型1.6提供了四种思考模式,是国内首个支持这种功能的模型。简单任务用最低档节省token,复杂任务用最高档确保效果。企业可以根据不同场景灵活调整,平衡效果、速度和成本。

例如,低档模式相比之前的单一模式,总token消耗减少了77.5%,思考时间缩短了84.6%。效果没有变化。另外,火山引擎还推出了豆包大模型1.6 lite,更轻量,推理更快。在企业级测试中,它的表现优于豆包1.5 pro,提升了14%。成本方面,在0到32k输入范围内,综合成本降低了53.3%。效果更好,成本更低。

单位token的价值提升,意味着每一笔投入都能发挥最大作用。火山引擎还发布了语音合成模型2.0和声音复刻模型2.0。这两款模型不仅情感表达更自然,还能准确朗读复杂的数学公式和化学方程式。很多家长可能遇到过这种情况:孩子在做作业时,AI无法正确朗读公式,导致理解困难。

新发布的语音模型优化后,小学到高中阶段的公式朗读准确率达到90%。发布会现场的演示让人印象深刻。这些模型基于豆包大语言模型开发,具备深度语义理解能力,并支持上下文推理。AI不再是简单地把文字转成声音,而是先理解内容,再进行精准的情感表达。用户可以通过自然语言调整语速、情绪、声线等,语音控制更加灵活。

火山引擎总裁谭待指出,全球AI大模型正在向三个方向发展:深度思考模型与多模态能力结合,视频、图像和语音模型逐步成熟,企业级复杂代理系统正在完善。面对越来越多的模型,如何选择性价比最高的,成为企业的重要问题。火山引擎推出了智能模型路由功能,可以自动选择最合适的模型。

这个功能有三种模式:平衡模式、效果优先模式和成本优先模式。用户可以根据任务需求自动匹配模型。不同任务对token的需求不同。客服回答退货问题,用轻量模型即可。而医疗诊断则需要最强模型。虽然token消耗相同,但价值密度差异很大。智能模型路由让AI自己判断该用多少token。

目前,智能模型路由已经支持豆包、DeepSeek、Qwen、Kimi等多个主流模型。当模型选择被AI接管后,整个行业进入一个良性循环:更强的模型带来新应用,新应用推动token消耗增长,消耗增长促使路由不断优化,优化降低单位成本,成本下降释放更多需求,需求增长再次推动消耗。就像1882年爱迪生建成第一座发电厂时,没人想到“千瓦时”会催生现代工业体系。如今,token正成为AI时代的“千瓦时”。

OpenAI公布的“万亿token俱乐部”,以及Google每月消耗的1300万亿token,都说明AI生产力正在快速扩张。好的模型只是开始,用户体验才是关键。提问时,用户不应该再纠结快还是好。分档思考让简单问题快速准确,复杂问题深入高效。智能路由让用户不用操心选哪个模型,AI会自动选择最合适的。通过自然语言控制语音模型,不需要处理一堆参数。每一次技术进步,都是为了让用户用得起、用得好。这或许就是AI应有的样子。

本文来源: 互联网 文章作者: 天龙
    下一篇

导读:该图片疑似AI生成前不久,国务院发布了《关于深入实施“人工智能+”行动的意见》(以下简称《意见》),《意见》从重点行动领域、基础要素支撑、组织实施等方面,针对实施“人工智能+”行动进行了全面部署