当前位置: 首页 » 资讯 » 新科技 » 正文

火山引擎厦门巡展:要帮助更多企业更好地创建、运营Agent

IP属地 中国·北京 编辑:柳晴雪 雷科技 时间:2025-07-30 22:05:27

这段时间,国外的大模型圈子确实特别热闹。

那些沉浸在X上的夜猫子们,基本都在被OpenAI即将发布GPT-5的信息骚扰了一波;马斯克那抠抠搜搜的Grok 3体验,凭借着二次元女角色引发了一波讨论小高潮;而Google AI Studio刚上的Gemini 2.5 Pro,更是让我扎扎实实地沉迷了好几个星期,顺便感受着谷歌那微妙的审核尺度。

至于国内有啥新闻嘛……

对了,7月30日,火山引擎AI创新巡展开到厦门了。

虽然小雷是广州人,雷科技也设立在广州这边,但是有字节的邀请,这几百公里的距离显然挡不住我的好奇心,简简单单买了一张动车票,背上简简单单的行囊,我便踏上了前往会场的行程。



(图源:雷科技)

这次巡展的厦门站,虽然貌似规模不大,但从报名热度来看,现场依然会是熙熙攘攘。到了现场,果然又是一座难求,甚至还有很多没能进到会场只能站着听的小伙伴围在门口周边。

这幅场景,光是想象就着实有些夸张。

有趣的是,和外界的激动期待不同,火山引擎在本次巡展议程里透露出的信息,并不仅仅是发布让人“惊讶”的新鲜玩意,更多的,是一个又一个让AI大模型技术落地的实际案例。

想知道火山引擎要折腾些什么新东西吗?跟着我走就对了。

让跨语言沟通,再无障碍

大约一个月前,我到上海参加了“2025火山引擎春季FORCE原动力大会”。

作为半年一次的大会,火山引擎那次确实带来了很多值得关注的更新,除了豆包大模型1.6的正式发布、豆包大模型家族的全面焕新,还有颇受关注的扣子和TRAE的新消息,颇有种想把其他同类中文大模型拉一块击倒的意思。

没想到,仅仅相隔一个月时间,豆包大模型家族又迎来了两位新的成员。

没错!本次厦门站最重磅的内容,无疑是豆包·同声传译模型SeedLiveInterpret 2.0和豆包·图像编辑模型Seededit 3.0的正式发布

根据火山引擎总裁谭待介绍,豆包·同声传译模型2.0是首个延迟&准确率接近人类水平的产品级中英语音同传系统,在中英同传翻译质量达到业界SOTA的同时,实现了极低的语音延迟水平。



(图源:雷科技)

长期以来,传统机器同传受制于“语音识别→MT机器翻译→语音合成”的级联式架构。这种架构如同多级瀑布,信息在每一层传递时都会产生延迟与损耗,错误逐级累积,最终导致翻译结果延迟高、韵律感差、语义生硬。

豆包同传模型则摒弃了这一模式,采用了业界前沿的端到端全双工语音翻译框架,不仅实现了从源语言到目标语言的直接生成,更能完整保留源语言中丰富的韵律信息,使内容更贴近说话者的真实意图,并将延迟压缩至2-3秒这一惊人水平。

不仅如此,该模型还实现了“0样本声音复刻”

借助强大的说话人身份编码技术,豆包同传模型仅需利用演讲者开口说话的前3-5秒音频,就能迅速提取出独特的声纹特征,并结合目标语言的语言习惯,动态调整输出节奏,告别了传统机器翻译那种匀速、平淡、毫无生气的“机器人腔”。



(图源:雷科技)

谭待在现场演示了一下,在没有事先进行声库训练的情况下,豆包基本能做到在使用者说完后立刻复刻、翻译并完成同传,效果非常惊艳。

至于豆包·图像编辑模型3.0的升级则更简洁明了,打破了模型难以理解用户真实需求,指令执行不到位、误改了不该修改的地方、输出图像美感不够等既有问题,现在它具备更强的指令遵循能力、图像保持能力和更强的图像生成质量。



(图源:雷科技)

豆包现场展示的一系列厦门风景转画风确实很有意思,但像这种能力的乐趣,肯定还是大家自己下个豆包试一试更有乐子。

除此以外,上个月发布的豆包1.6底层大模型在近日升级了代码、推理、数学等大语言模型能力,此前开源的Coze相关项目也获得了开发者的一致好评。

可以说,仅这一系列发布,就足以让与会者不虚此行。

做好Agent,更要做到持续运营

除了惊艳的同传模型,Agent(智能体)依然是火山引擎持续深耕的核心方向。

现如今,多模态模型统一及其姐妹API的统一,是市面上所有大模型发展的重要趋势。

为此,火山方舟平台升级了API体系,推出Responses API



(图源:雷科技)

根据火山引擎智能算法负责人吴迪介绍,Responses API具备原生上下文管理能力,支持多轮对话的链式管理,可以无缝衔接文本、图像、混合模态数据,能大幅降低延迟和成本,在典型应用里,整体成本下降幅度可达80%。

此外,Responses API支持自主选择调用工具,用户发起单次请求,即可联动多个内置工具、自定义函数及多轮模型组合响应,解决复杂任务,让Agent开发更加省时省力。

针对有模型定制需求的企业客户,火山引擎还发布了企业自有模型托管方案。

依托火山方舟模型单元,企业无需运维底层GPU资源,也不用进行复杂的网络配置,就能在火山方舟上实现自研模型的全托管,并享受极致的弹性算力资源,大幅降本增效。



(图源:雷科技)

这一系列分享,标志着火山引擎正在为Agent的落地提供从开发、管理到部署的全生命周期解决方案,距离数字员工全面融入我们的日常工作,或许只是时间问题。

当然,为了证明好的模型和工具能够有效加速Agent的落地,没有什么比来自一线客户的现身说法更具说服力了。

在本次巡展中,火山引擎特意邀请了两位极具代表性的嘉宾。来自厦门大学信息中心的许卓斌主任,为我们分享了AI在教育科研领域的创新实践;来自网龙天晴AI平台的黄继峰,则为我们分享了如何用AI制作更智能的人机,以帮助玩家度过新手期的案例。



(图源:雷科技)

这些来自本土和行业的真实案例,远比单纯的技术宣讲更具说服力。

总结:火山引擎已成AI落地基建

在国内大模型厂商中,火山引擎的成绩是相当亮眼的。

根据最新数据,截至2025年5月底,豆包大模型日均处理的tokens量已攀升至16.4万亿+,这个数字相较于去年同期增长了136倍。目前,豆包大模型已在汽车、智能终端、互联网、金融、教育科研、零售消费等行业广泛落地,覆盖超5亿终端设备,算是一份相当亮眼的成绩单。



(图源:雷科技)

整个巡展议程看下来,我的感触还是比较清晰的。

作为一个极具前景的大模型落地方向,缺乏技术支持的企业很难轻松驾驭AI和Agent,效果不好、成本太贵、落地太难,始终是关键挑战。

火山引擎在厦门站展示的一系列产品和议程——从底层大模型、同声传译模型和图像编辑模型的迭代,到体系化的Agent开发运营平台,再到深入行业的实践分享,确实是在大模型落地层面起到了标准化流程、提升效率和促进协作的作用,让企业开发Agent变得更加简单。

可以预见的是,在技术门槛有效降低的情况下,为了加强市场的竞争力,企业将更勇敢地迈出转型的步伐,加速推进AI能力和自家业务的融合。

让大模型真正成为企业生产力的一部分,或许已经不是梦了。

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。