“火山引擎自己是不做大模型的,我们首先服务好国内做大模型的厂商,等他们把大模型做好之后,我们再一起合作开展对外的服务。”火山引擎总裁谭待向TechWeb等表示。
随着ChatGPT的爆火,国内人工智能领域也风起云涌,互联网科技公司纷纷开启大模型军备竞赛。百度、阿里、360等大厂,以及MiniMax、智谱AI等创业公司,都已相继推出自己的大模型产品,与此同时云市场也在加速变革。
作为字节跳动旗下云服务平台,火山引擎明确不会做大模型,但发布了大模型训练云平台。谭待表示,AI大模型有巨大潜力和创新空间,火山引擎会服务客户做好大模型,共同推动各行业的智能化升级。
值得一提的是,在集团层面,字节跳动并未放弃自己做大模型。字节跳动副总裁杨震原在采访中透露,“公司在做一些学习和研究,现在还没有什么结果,未来这方面有了进展再同步。”
火山引擎明确不做大模型
火山引擎是字节跳动于2021年6月推出的云服务业务板块,被外界称为“字节云”,它和协同办公平台飞书共同构成字节跳动对外的To B服务体系。在百度、阿里等大厂相继推出大模型产品之后,有业内人士猜测,火山引擎可能也会推出自己的大模型产品。不过,这一消息被火山引擎方面明确否认。
4月18日,火山引擎原动力大会举办。在会后的采访中,火山引擎总裁谭待明确表示,“火山引擎自己是不做大模型的。”火山引擎将接入多家大模型深度合作,为大模型厂商提供服务。
这个思路与亚马逊类似。日前,亚马逊AWS宣布推出生成式 AI工具“全家桶”,包括用于生成文本、分类、开放式问答和信息提取等任务的生成式大语言模型以及文本嵌入大语言模型等,AWS瞄准的也是企业客户。
谭待表示,国内很多科技公司投入到大模型建设中,他们有优秀的技术团队,也有丰富的行业知识和创新想法,但往往缺乏经过大规模场景实践的系统工程能力。火山引擎要做的就是为大模型客户提供高稳定性和高性价比的AI基础设施。
值得一提的是,虽然火山引擎不做大模型,但在集团层面,字节跳动并未放弃自己做大模型。
今年2月,据36氪报道,字节跳动已经从语言和图像两种模态上布局大模型。其中,语言大模型团队在今年组建,由字节搜索部门牵头,探索方向主要为与搜索、广告等下游业务的结合;图像大模型团队则由产品研发与工程架构部下属的智能创作团队牵头。
3月底,有消息称,阿里M6大模型的前带头人杨红霞已加入字节跳动AI Lab,参与语言生成大模型的研发,并在语言生成大模型团队中处于领导地位,直接向字节跳动副总裁杨震原汇报。
对于上述市场消息,字节跳动方面当时均未予以回应。
在火山引擎原动力大会的采访中,杨震原透露,“大模型方面,其实公司也在做一些学习和研究,现在还没有什么结果,等未来这方面有了进展再同步。”
如何满足大模型厂商需求?
大模型需要大算力才能做出来,此外还需要很好的工程能力,去解决千卡甚至万卡并行的训练,去解决好网络问题,以及包括在训练过程中怎样使人可以更早地干预、观测等。
“对火山引擎来说,一方面是算力的供给,另一方面是云原生机器学习平台,以帮助企业应用好算力,进一步提升效率,把大模型训练的又快又稳定。”谭待如此说到。
据介绍,火山引擎机器学习平台经过抖音等海量用户业务长期打磨,支持单任务万卡级别的超大规模分布式并行训练场景。GPU弹性计算实例可灵活调度资源,随用随取,最高可以为客户节省70%的算力成本。
MiniMax是目前国内少数已经推出自研大模型产品的AI技术公司,拥有文本、视觉、声音三种通用大模型引擎能力。据MiniMax联合创始人杨斌介绍,MiniMax与火山引擎合作建立了超大规模实验平台,实现千卡级常态化训练;超大规模推理平台有万卡级算力池,支撑单日过亿次调用。
据谭待透露,国内大模型领域,七成以上已是火山引擎客户,包括智谱AI、昆仑万维等。
会上,火山引擎还宣布与字节跳动国内业务并池。基于内外统一的云原生基础架构,抖音等业务的空闲计算资源可极速调度给火山引擎客户使用,离线业务资源分钟级调度10万核CPU,在线业务资源也可潮汐复用。
只是,字节跳动的国内业务本身,用户数据已经很多,虽然有空闲的计算资源,字节本身也在做大模型的尝试,有多少算力能分到外部?对此,杨震原表示,“并池”实际上是一个技术问题,并不是资源问题。云计算本来就有很多客户,可以去调度一些资源,去错峰互用,把运力提上去。
“比如抖音,其实也有波峰和波谷,晚上或深夜用的人少,这种资源就很适合科学计算的能力,因为这个是批量的,并不需要非常实时的来做这个事情。这个例子也说明了为什么通过资源的混部能够更好降低云计算的成本。”杨震原进一步解释说。
大模型不会一家独大
有评论称,大模型将成为云厂商弯道超车的机会。谭待对此表示,大模型还在发展初期,面临数据安全、内容安全、隐私保护、版权保护等许多问题需要努力解决。但可以预见,大模型将带动云上AI算力急剧增长,AI算力的工作负载与通用算力的差距会越来越小,这会为各家云厂商带来新的机会,同时也会对数据中心、软硬件栈、PaaS平台带来新的挑战。
以数据中心的算力结构为例,谭待表示:“大模型需要大算力,虚拟化会带来资源损耗,规模越大就损耗越多。未来3年内,大规模的算力中心,都将形成’CPU+GPU+DPU’的混合算力结构,CPU负责通用计算,GPU负责AI计算,DPU负责资源卸载、加速和隔离,提升资源效率”。
此次原动力大会上,火山引擎发布了新一代自研DPU,实现计算、存储、网络的全组件卸载,释放更多资源给业务负载。现场数据显示,火山引擎自研DPU的网络性能高达5000万pps转发能力、延迟低至20us。
谭待认为,在大模型及下游应用发展推动下,无论传统企业还是初创企业,对AI算力都有迫切需求,企业使用多家云服务将成为常态。同时,各行业有自己高质量的私有语料,大模型不会一家独大,而是会在千行百业生长,形成多模型共生甚至协作的生态。
郑重声明:此文内容为本网站转载企业宣传资讯,目的在于传播更多信息,与本站立场无关。仅供读者参考,并请自行核实相关内容。