英伟达在世界电脑会议(sc2023)上发布了最新ai芯片h200,对ai模型进行了训练。
英伟达大幅升级了热门的h100人工智能gpu。新高端芯片芯片h200基于英伟达的hopper架构,是第一个使用高带宽内存的gpu,速度更快。建立一个大的语言模型是必要的。推理或生成问题答案时性能比h100提高60 ~ 90%。
英伟达方面表示,以hbm3e为基础,h200每秒提供4.8tb、141gb的存储器,与a100相比,容量和带宽分别增加2倍和2.4倍。
在备受关注的人工智能领域,英伟达表示,h200将进一步提高性能。llama 2(700亿个llm)的推理速度是h100的两倍。未来的软件更新有望为h200带来更多的性能和改进。
h200由英伟达hgx h200服务器主板4频道和8频道组成,可与hgx h100系统的硬件和软件兼容。
据悉,大型计算机制造企业和云服务提供企业将从明年第二季度开始使用h200。亚马逊的aws、Alphabet公司的谷歌云、微软的azure、甲骨文的云基础设施已承诺从明年开始使用该新芯片。
英伟达表示,希望通过推出新产品,赶上人工智能(ai)模型和服务数据集规模的增加。随着内存容量的增加,h200向软件提供数据的速度将会加快,这一过程将训练人工智能来完成图像和语音识别等工作。
过去英伟达通常每两年更新一次芯片架构,而最新的芯片架构是hopper。但nvidia向投资者表示,随着上月对gpu的需求剧增,原本每2年推出新的架构,现在改为每1年推出新的架构。
-
存储器
+关注
关注
38文章
7474浏览量
163725 -
人工智能
+关注
关注
1791文章
47090浏览量
238067 -
英伟达
+关注
关注
22文章
3765浏览量
90949
发布评论请先 登录
相关推荐
评论