新闻检索:
当前位置:第一财经网 -> 滚动

英伟达黄仁勋叠BUFF!在家就能微调大模型、一键构建元宇宙,GH200大

栏目:滚动    时间:2023-08-10 13:43    来源: IT之家 编辑:文辉      阅读量:4154   

购置芯片,买的越多,省得越多?只需一台电脑,在家就能微调大模型?从前费时费力又烧钱的元宇宙,如今用生成式 AI 已经可以快速生成数字孪生模型,迅速构建虚拟世界?

8 月 8 日,皮衣教主黄仁勋带着英伟达的一系列更新,在 SIGGRAPH 现场发表 NVIDIA 主题演讲。SIGGRAPH 是计算机图形学的年度顶级会议,也是计算机图形学和交互技术领域的一个重要组织。

而英伟达自 1993 年创立以来,在计算机图形学领域扎根,推动着图形处理器技术的发展,包括实时光线追踪技术的突破、多核与众核处理器创新以及在人工智能和深度学习领域加速算法的训练和推理。这也是时隔五年后,皮衣教主黄仁勋再一次登上 SIGGRAPH 的演讲台。

那么此次演讲,皮衣教主给各路看客带来了哪些惊喜?划重点了!

一、GH200+Grace Hopper:降低大语言模型推理成本

今年五月,英伟达发布了 GH200 系统,专为处理大规模的生成式人工智能工作负载而设计。GH200 将 256 个 NVIDIA Grace Hopper? Superchip 完全连接成一个单一的 GPU,可以支持处理大规模的推荐系统、生成式人工智能和图分析等领域的模型。

此次演讲,黄仁勋又详细介绍了自己“如数家珍”的 GH200,在他看来,未来的前沿模型将会在大规模系统上进行训练和应用。每个节点上都会有一个单一的 Grace Hopper,这种架构在过去 60 年来一直是计算的方式,现在在加速计算和 AI 计算方面将成为主流,未来将使得前沿模型能够更好地进行训练和应用。

也就是说,此类系统可以进行普适性应用,未来的前沿模型将成为各种应用的前端。每个应用程序、每个数据库,在与计算机交互时,都可能首先与一个大型语言模型进行交互。这些模型将理解用户的意图、愿望和特定情境,并以最佳方式呈现信息。这种模型将进行智能查询和搜索,甚至可能用于音乐生成等领域。“在计算的未来,加速计算和 AI 计算将成为主流。”黄仁勋信心满满的展望道。

在能源效率和成本效益方面,黄仁勋反复强调:“买的越多,省得越多”。这可不是“信口开河”,加速计算在生成式 AI 应用程序的能源效率和成本效益方面相当于 20 倍的 Moore 定律和目前的 CPU 扩展方式。Moore 定律是由英特尔创始人之一戈登?摩尔提出的观点。其核心内容是,集成电路上可以容纳的晶体管数量,大约每隔 18 个月到 24 个月就会增加一倍。换句话说,处理器的性能大约每两年翻一倍,同时价格下降为之前的一半。那么,20 倍的 Moore 定律是什么概念?

黄仁勋举了一个生动的例子:具体来说,打造一个数据中心,使用通用计算的 GPU 需要 1 亿美元,而使用加速计算的 Grace Hopper 仅需 800 万美元。而且使用通用计算的能耗是兆瓦级别,而使用 Grace Hopper 仅需 262 千瓦,能耗减少了 20 倍。成本方面,使用 Grace Hopper 相较通用计算成本减少了 12 倍。使用加速计算可以显著降低能耗,同时大幅降低成本。也就是说购买越多 GH200,节省的成本就越多。

二、 进击的 Omniverse:元宇宙触手可及?

在生成式 AI 现在可以自动生成数字孪生模型之前,数字孪生模型的构建是一个相对复杂的过程,涉及多维虚拟模型和融合数据的驱动。无论是多维虚拟模型构建、数据采集与传感器集成还是模型融合和校准、交互式仿真和优化等流程,以往的数字孪生模型构建过程更多地依赖于专业人员的经验和手动操作,需要将实际数据与虚拟模型进行集成和校准,以实现监控、仿真、预测和优化等功能。

这样的制作过程,别说是个人,就连许多“财大气粗”的企业也望而却步。然而,英伟达 Omniverse 的更新让数字孪生的门槛进一步降低,目前开发者、企业和行业已经能够使用 OpenUSD 框架和生成式 AI 优化改进 3D 流程,也就是说,开发者可以随意在 Omniverse 上制作自己的专属虚拟助理和数字人,企业也可以在此平台上自动生成产品的数字孪生广告大片。

黄仁勋现场展示了世界上最大的广告公司 WPP 与电动汽车制造商比亚迪基于 Omniverse 的合作。OmniVerse Cloud 允许比亚迪使用高保真数据创建实时数字孪生体,从而实现物理精确的模拟。WPP 的艺术家可以在同一环境中使用 AutoDesk、Adobe 和 SideFX 等工具进行无缝协作,使得比亚迪可以通过 OmniVerse Cloud 连接不同时间和空间的设计师和开发者,从而快速构建具有物理级准确性的虚拟世界。

来感受下生成的炫酷数字孪生大片,汽车颜色与场景都可以随意变换,上一秒还是黑色,下一秒就能变为红色,上一个画面还在草原,下一帧就直接出现在雪地!

黄仁勋进一步介绍道,Open USD 技术使 WPP 能够创建一个超级数字孪生体,将所有可能的变化整合到一个单一资产中。这个数字孪生体部署在 Universe Class GDNA 网络上,实现了完全交互式的三维配置器,可以将高保真度的实时三维体验传送到全球 100 多个地区的设备上。该解决方案还可以生成个性化的内容,用于全球营销活动,USD 模型位于三维环境中,可以使用现实世界中的扫描数据或生成式 AI 工具进行创建。

同时,Machinima 应用也得到了更新,以帮助用户更好地构建逼真的虚拟形象。引入了 NVIDIA Omniverse Avatar Cloud Engine ,以及新的 Omniverse 连接器和应用,这使用户可以轻松地构建和自定义虚拟助理和数字人。

目前,Omniverse 用户已经可以通过 OmniLive 增强 USD工作流中的交互,将真实世界的实时准确性引入 3D 虚拟世界。

三、AI Workbench:在家就能 Fine-tune,AI 帮你叠 BUFF?

只需一台电脑,在家就可以测试、微调大模型?用皮衣教主黄仁勋的话来总结就是:“人人都可以生成 AI”。

这已经不是天方夜谭,黄仁勋此次现场宣布英伟达发布了全新的统一工作空间,名为 NVIDIA AI Workbench。该平台为开发者提供了一个统一、易用的工作空间,使他们能够在个人电脑或工作站上快速创建、测试和微调生成式 AI 模型,然后将这些模型扩展到几乎所有数据中心、公有云或 DGX Cloud。

与此同时,黄仁勋宣布 NVIDIA 将与初创企业 Hugging Face 一起为数百万开发者提供生成式 AI 超级计算,帮助他们构建大型语言模型等高级 AI 应用。开发者将能够使用 Hugging Face 平台内的 NVIDIA DGX Cloud AI 超级计算训练和调整高级 AI 模型。

具体而言,AI Workbench 和 Hugging Face 将怎样帮打工人解放双手呢?

NVIDIA 基于新一代 Ada Lovelace 架构的 NVIDIA RTX 6000 工作站 GPU,为设计师和创作者提供了具有 2-4 倍性能提升的强大工具。这款 GPU 可以使设计师和工程师能够驱动先进的基于模拟的工作流程,构建和验证更复杂的设计。艺术家可以将叙事推向新的高度,创造更引人入胜的内容,构建沉浸式虚拟环境。科学家、研究人员和医疗专业人员可以在工作站上利用超级计算能力来加速开发生命救助药物和程序,其性能达到上一代 RTX A6000 的 2-4 倍。

NVIDIA 的 RTX 6000 Ada Generation GPU 则采用了 Ada 架构 AI 和可编程着色器技术,可为神经图形和高级虚拟世界模拟提供理想的平台,可用于使用 NVIDIA Omniverse Enterprise 创建元宇宙内容和工具。

除了 RTX 6000 之外,NVIDIA 还推出了三款全新的工作站 GPU:RTX 5000、RTX 4500 和 RTX 4000,这些新产品在规格上各有不同。RTX 5000 采用了 AD102 芯片,是 RTX 6000 的削减版本,提供 12800 CUDA 核心和 32GB GPU 内存。RTX 4500 采用了 AD104 芯片,拥有 24GB GPU 内存。而 RTX 4000 是入门级的工作站 GPU,采用了 20GB GPU 内存和 6144 CUDA 核心。这些新 GPU 将为设计师、创作者和工程师提供更广泛的选择,以满足不同领域的需求。也就是说,有了 AI Workbench 和 Hugging Face,打工人完全可以叠 BUFF,利用平台完成更加精细、更加复杂的内容。

毫无疑问的是,NVIDIA 无论在生成式人工智能、数字孪生建模方面的进展还是 AI Workbench 的推出以及与 Hugging Face 的合作,都是在推动人工智能、虚拟现实以及内容创作的未来,降低生成式 AI 的门槛,让“不会用 AI 的低成本用上 AI,会用 AI 的用的更加娴熟并更加节省成本”,给诸多行业提供“加速器”。皮衣教主黄仁勋,正在人工智能、图形和模拟领域不断推动技术的边界,带来新的惊喜。

广告声明:文内含有的对外跳转链接,用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

郑重声明:此文内容为本网站转载企业宣传资讯,目的在于传播更多信息,与本站立场无关。仅供读者参考,并请自行核实相关内容。