字节出战!火山引擎官宣:不做大模型,为七成大模型企业服务

南方都市报APP • 政商数据
原创2023-04-19 23:55

热闹无比的AI大模型“盛宴”又迎来重量级“玩家”。4月18日,火山引擎发布自研DPU等系列云产品,并推出新版机器学习平台:支持万卡级大模型训练、微秒级延迟网络,让大模型训练更稳更快。火山引擎总裁谭待表示,火山引擎的优势主要是资源复用、全面云原生化以及坚持全栈自研。

自2022年底发布以来,ChatGPT成为人类历史上最快获得上亿用户的消费级互联网应用。谭待认为,AI大模型有巨大潜力和创新空间,火山引擎会服务客户做好大模型,共同推动各行业的智能化升级。

但谭待也指出,“火山引擎自己不做大模型,我们先是服务好做大模型的公司”。据其透露,目前七成以上大模型企业已是火山引擎客户。 

火山.jpg

火山引擎总裁谭待

火山引擎与字节跳动并池”,资源潮汐复用

会上,火山引擎宣布与字节跳动国内业务并池。基于内外统一的云原生基础架构,抖音等业务的空闲计算资源可极速调度给火山引擎客户使用,离线业务资源分钟级调度10万核CPU,在线业务资源也可潮汐复用,弹性计算抢占式实例的价格最高可优惠80%以上.

字节跳动副总裁杨震原向南都记者解释称,“并池”的“池”指的就是计算池,“计算池的意思包括计算、存储、服务器、容器这样的单元,所以并池的意思是内外的服务可以在一个资源池里面调度,从而提高整体资源利用率,增效降本。”

谭待表示,“火山引擎上跑了抖音,也跑了比如MiniMax,这样他们就可以很好地体验到混合调度带来的弹性和性价比。”

据了解,MiniMax是目前国内少数已经推出自研大模型产品的AI技术公司,拥有文本、视觉、声音三种通用大模型引擎能力。据MiniMax联合创始人杨斌介绍,MiniMax与火山引擎合作建立了超大规模实验平台,实现千卡级常态化训练;超大规模推理平台有万卡级算力池,支撑单日过亿次调用。今年MiniMax在网络和存储上,和火山引擎进行了更加深入的优化合作,实现了更低的网络延迟,将带宽利用率提升了10%以上。

此次原动力大会上,火山引擎还发布了新一代自研DPU,网络性能高达5000万pps转发能力、延迟低至20us。基于自研DPU的各类计算实例性能也有显著提升,例如适用于大模型分布式并行训练场景的GPU实例,相较上一代实例集群性能最高提升3倍以上。

火山引擎也顺势推出了分布式云原生平台、多云安全、多云CDN、veStack混合云平台等系列产品,支持客户更好地使用多家云服务。杨震原进一步表示,火山引擎对内对外提供统一的产品,抖音、今日头条等APP开屏都加上了“火山引擎提供计算服务”。 

字节.jpg

字节跳动副总裁杨震原

“自己不做大模型,而是服务大模型企业”

杨震原透露,依托于火山引擎的机器学习基础设施,人力的效率也得到了极大的提高。去年底火爆全网的抖音“AI绘画”特效,从启动到上线只用一周多时间,模型由一名算法工程师完成训练。

杨震原表示,“很多人说模型训练的开销大,其实从长期来看,推理的开销会显著大于训练。AI绘画这个模型,在火山引擎平台推理的效率大概比原生Pytorch 模型快5倍。上线之后又做了一些针对性的优化,还可以更快,大概快10倍,提高了一个数量级。”

通过潮汐、混部等方式,火山引擎实现资源的高利用率和极低成本。以抖音推荐系统为例,工程师用15个月的样本训练某个模型,5小时就能完成训练,成本只有5000元。

但火山引擎也明确,并不会去做大模型,而是去服务做大模型的企业。谭待告诉南都记者,“火山引擎自己是不做大模型的,我在别的场合也说过,火山引擎本身先是服务好做大模型的公司,像MiniMax或者智谱AI一样,他们做好之后,像亚马逊和Anthropic 、 AI21,微软和OpenAI一样,然后再一起对外,这是我们的逻辑。”

据谭待透露,火山引擎的大模型云平台获得智谱AI、昆仑万维等众多企业的良好反馈。国内大模型领域,七成以上已是火山引擎客户。

自动驾驶公司毫末智行CEO顾维灏介绍称,去年下半年毫末智行和火山引擎一起构建了在自动驾驶领域最大的用于数据大模型训练的智算中心,算力能达到67亿亿次/秒,“有了这个智算中心,以及智算中心上面训练框架持续的保障、持续的迭代,才能让我们的大模型能够连续、稳定、高效的训练出来。”

上述智算中心为DriveGPT自动驾驶生成式预训练模型提供了强大的算力支持。顾维灏透露,DriveGPT使用量产车4000万公里的人驾数据训练,参数规模达1200亿,对自动驾驶认知决策模型进行持续优化。

在火山引擎的大模型客户中,以垂直行业为主。谭待告诉南都记者,“去年不管是在推荐还是自动驾驶领域都能看到这个趋势,就是模型越来越大,所以那时我们就为此做了很多准备,也发现我们的平台能力确实也不错。去年底和今年初基础大模型的公司爆发出来,我们发现我们之前做的这些事情都可以用上,同时他们也会有一些新的诉求,所以我们会对新的诉求再做一些优化。所以(大模型企业客户)比例大概通用1/3,垂直2/3。”

谭待表示,各行业有自己高质量的私有语料,大模型不会一家独大,而是会在千行百业生长,形成多模型共生甚至协作的生态。“未来将是‘多云多模型’的时代”,谭待称。 


采写:南都记者 汪陈晨

编辑:甄芹

南都新闻,未经授权不得转载。授权联系方式
banquan@nandu.cc. 020-87006626