当前位置:首页 > 资讯攻略 > 热点新闻

英伟达春季GTC大会公布最强硬件适配GPT模型(2023英伟达最强硬件)

时间:2023-03-23 15:08:17人气:400 作者:未知
英伟达显卡驱动
  • 类型:系统软件大小:1101.24MB语言:简体中文 评分:5
  • 标签:小凡为各位玩家带来的是公布的较新的英伟达NVIDIA 显...
立即下载

GPT模型的更新迭代,其展现了惊人能力,让AI技术再次进入了一个前途可期的关键点。

而支撑起GPT模型的能力突破的,不仅仅是AI算法和数据,更是硬件提供的强大AI算力。

当地时间3月21日,英伟达首席执行官黄仁勋将OpenAI的ChatGPT称为人工智能的“iPhone时刻”

并在该公司的春季GTC大会上宣布了专为其设计的推理GPU(图形处理器)

其中最主要的是H100 NVL,它将英伟达的两个H100 GPU拼接在一起,以部署像 ChatGPT这样的大型语言模型(LLM)。

当前唯一可以实际处理ChatGPT的GPU是英伟达HGX A100。

与前者相比,现在一台搭载四对H100和双NVLINK的标准服务器速度能快10倍,可以将大语言模型的处理成本降低一个数量级。

H100不是新的GPU,英伟达在一年前的GTC上展示了其Hopper架构,并在各种任务中加速AI推理。

推理是机器学习程序部署的第二阶段,此时运行经过训练的程序以通过预测来回答问题。

英伟达表示,H100 NVL附带94GB内存,与上一代产品相比,H100的综合技术创新可以将大型语言模型的速度提高30倍。

PC时代的芯片王者是Intel,那么AI时代的芯片王者就是Nvidia。

对于AI模型的性能,最迫切的需求不是在训练,而是在推理上,毕竟训练可以离线、增量,而推理必须实时。

面对海量用户的并发请求,能在用户无感的情况下给出推理结果,AI模型简直能做的事不要太多。

硬件的演进和对应的下层软件库的优化,才能带来数量级的提升

这次GTC,Nvidia 发布了AI超级计算服务DGX Cloud、突破性的光刻计算库cuLitho、加速企业创建大模型和生成式AI的云服务NVIDIA AI Foundations等。

以及与Quantum Machines合作推出了全球首个GPU加速量子计算系统。

但重点还是针对推理:H100 NVL,它将英伟达的两个H100 GPU拼接在一起,以部署像 ChatGPT这样的LLM。

现在一台搭载四对H100和双NVLINK的标准服务器速度能比 HGX A100 快10倍,可以将 LLM 的处理成本降低一个数量级。

AI的理论发展的越快、模型越来越大、应用场景越广,对Nvidia来说越是利好,AI对算力的要求非常之高,只能说Nvidia赢麻了。

点击收藏本站,随时了解时事热点、娱乐咨询、游戏攻略等更多精彩文章。

今日编辑铺热门推荐:农夫也有春天 深海寻宝 掌上电子鼓app(Trap Drum Pad Machine) 火柴人联盟2

相关文章

猜你喜欢

CopyRight © 2020-2025 www.zxian.cn All Right Reser 忠县软件园皖ICP备2023013640号-13 免责申明

声明: 本站所有手机app软件和文章来自互联网 如有异议 请与本站联系删除 本站为非赢利性网站 不接受任何赞助和广告网站地图