近日,2024火山引擎AI创新巡展上海站活动正式举办。会上,火山引擎发布了豆包大模型一系列产品升级。火山引擎总裁谭待表示,自豆包大模型正式发布以来,模型调用量快速增长,更丰富的业务场景也促进了模型关键能力的持续迭代升级。
以语言大模型为例,在过去的两个月里,豆包通用模型pro、通用模型lite都完成了多项重要更新。测试数据表明,最新版豆包通用模型pro,对比三个月前的版本综合能力提升了20.3%。
其中,角色扮演能力提升了38.3%,使得豆包模型带来的对话更加生动、拟人度更高,AI交互流程更自然连贯,从而带来更好的用户留存。
语言理解能力则提升了33.3%,这让大模型在信息分类、抽取、摘要总结、理解、知识问答等多项能力都有显著增强,使其越来越多地出现在企业的生产力环节中,帮助企业解决真实的业务需求。
图像创作方面,豆包大模型对“文生图”模型做了升级迭代。新模型对长文本有了更精准的图文匹配能力,并且对于多主体、多位置,以及手部结构等难题,新模型都有大幅提升。
同时,新“文生图”模型对于中国本土的人物、物品、艺术风格都有更深一层的理解,可以图文一致的创造出更多中国风格的高美感图片,进而广泛应用到设计、广告、营销、电商等多个领域,帮企业解决实际问题。
语音模型方面,火山引擎对语义识别准确性进行了相关升级,尤其是利用大模型丰富的知识储备和强大的推理能力,结合上下文感知,提升语音识别的准确性。
对此,谭待以滑雪运动为例进行解释。滑雪运动里有非常多专业术语,如立刃、搓雪等,如果没有上下文理解,模型很难识别。豆包语音识别模型通过更精准的上下文感知,就可以让模型更好理解其意义,让整个语音识别的召回率提升15%,错误率比国内公开的其他语音识别大模型相对降低了10%至40%。
同时,火山引擎还将豆包大模型和实时音频技术(RTC)结合在一起,从而能够提供端到端的大模型实时对话能力,企业可以将其接入自己的AI应用中,让用户真正和模型直接、自由对话,让用户获得与真人交流的体验。
谭待介绍,通过推理,以及RTC的端到端优化,火山引擎已经可以把这类对话的延迟做到1秒以内,即使在网络环境很差,可能80%丢包的情况下,仍保持清晰流畅的通话质量。
谭待表示,火山引擎通过降价,将企业的试错创新成本降到足够低,使大模型真正成为了创新源泉。火山引擎不仅提供了更低的价格,也提供了更好的性能和吞吐。豆包通用模型pro支持初始800K的TPM,比行业平均水平高出4—5倍。