自动驾驶一夜变“牛夫人” 英伟达直击AI命门
一夜之间,英伟达就掐住了AI的命门。
从火遍全球的GPT-4,到百度的文心一言、微软的365 Copilot以及Stable Diffusion 等AI超级应用的出现,AI开始渗透各个角落。
在这些大厂向AI集中炮火猛攻之际,“军火商”英伟达,赚翻了。
这些AI技术席卷全球,离不开英伟达硬件的支持,无论最后谁胜出,手握GPU算力技术的英伟达都能笑到最后。
此外,英伟达还围绕汽车、量子计算、元宇宙等发布了一系列前沿技术和产品。
在近80分钟的演讲中,老黄强调了3次这个观点。
如果说游戏促生了英伟达,挖矿让英伟达成就了算力,而现在AI让英伟达看到成为超级巨头的曙光。
与其说是“AI的iPhone时刻“,倒不如说是现在的AI,成就了英伟达的“曙光时刻”。
向AI全面出击
去年英伟达给自动驾驶业务带来了智能汽车芯片算力的天花板——DRIVE Thor(雷神),今年GTC大会,黄老板把大量篇幅给到了大火的ChatGPT和其背后的AI技术和A100、H100芯片等产品。
难道自动驾驶已经成了牛夫人,AI才是小甜甜?
在发布硬核的产品和技术以及服务之前,黄仁勋回顾了英伟达是如何进军AI 领域的。
“英伟达加速计算始于DGX(AI超级计算机),这是大型语言模型实现突破背后的引擎。”黄老板说,他曾亲手将全球第一款DGX交给了OpenAI,现场还放出了当年给 OpenAI 捐超算的视频。
老黄在机器上签下“致Elon和OpenAI 团队,为了计算和人类的未来。”
这台附有黄仁勋签名和赠语的全球第一台DGX,集成了8块通过NVLink共享算力的H100组成的超级计算机,为OpenAI奠定了创造ChatGPT的重要算力基础。
ChatGPT发布后在全球火速吸引了超过1亿用户,成为历史上增长速度最快的产品。
而这背后的引擎是英伟达DGX ,最初被用作 AI 的研究设备,现在已经被各大企业用于优化数据和处理 。黄仁勋在GTC大会上透露,“《财富》100强企业中有一半安装了DGX AI超级计算机,DGX已成为AI领域的必备工具。”
针对不同工作负载进行优化,分别对应了AI视频加速、图像生成加速、大型语言模型(LLM)加速和推荐系统和LLM数据库。
H100 专为ChatGPT等大型语言模型设计
配备双GPU NVLink,基于Hopper架构及其内置Transformer Engine,针对生成式AI、大型语言模型和推荐系统的开发、训练和部署进行优化,利用FP8精度在大型语言模型上,可以提供比上一代A100快9倍的AI训练和快30倍的AI推理。
DGX H100拥有8个H100 GPU模组,在FP8精度下可提供32Peta FLOPS的算力,并提供完整的英伟达AI软件堆栈,助力简化AI开发。
同时黄仁勋RbsUsJ宣布,NVIDIA DGX H100 AI超级计算机已全面投产,很快就会和全球企业见面。
L4 针对AI视频生成的通用GPU
用于加速AI视频,比CPU的AI视频性能高120倍,能效提高近99%。优化视频解码与转码、视频内容审核、视频通话等功能,还可以替换背景、重新打光、眼神交流等。一台8-GPU L4服务器将取代100多台用于处理AI视频的双插槽CPU服务器。
更新于:5小时前