0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

英伟达GPU打入芯片制造领域,cuLitho让光刻性能提升40倍!黄仁勋:我们正处在AI的iPhone时刻

Carol Li 来源:电子发烧友网 作者:李弯弯 2023-03-23 01:18 次阅读
电子发烧友网报道(文/李弯弯)3月21日晚间,英伟达CEO黄仁勋在2023年GTC开发者大会上发表了主题演讲,介绍了英伟达在AI领域的最新进展。

微信图片_20230322111131

其中有两点最为引人瞩目,一是英伟达宣布了一项突破性技术——NVIDIA cuLitho计算光刻库,它将加速计算带入计算光刻领域,使ASML、TSMC和Synopsys等半导体领导者能够加速下一代芯片的设计和制造。

二是专为ChatGPT打造的H100 NVLINK,以及为赋能生成式AI发布的NVIDIA AI Foundations云服务系列。黄仁勋认为“我们正处于AI的iPhone时刻”。他说:“初创公司正在竞相打造颠覆性产品和商业模式,科技巨头也在寻求突破。”

计算光刻库cuLitho将光刻技术提高40

光刻工艺过程可以用光学和化学模型,借助数学公式来描述。光照射在掩模上发生衍射,衍射级被投影透镜收集并会聚在光刻胶表面,这一成像过程是一个光学过程;投影在光刻胶上的图像激发光化学反应,烘烤后导致光刻胶局部可溶于显影液,这是化学过程。

计算光刻就是使用计算机来模拟仿真这些光学和化学过程,从理论上探索增大光刻分辨率和工艺窗口的途径,指导工艺参数的优化。

计算光刻是提高光刻分辨率、推动芯片制造达到2nm及更先进节点的关键手段。英伟达表示,这一进展将使芯片拥有比现在更小的晶体管和电线,同时加快上市时间,并提高全天候运行的大型数据中心的能源效率,以推动制造过程。

poYBAGQa1k6ATjF8ABUucSoI4fA111.png

具体来看,NVIDIA cuLitho计算光刻库有哪些优势?在GPU上运行时,cuLitho的性能比目前的光刻技术提高了40倍。

据黄仁勋介绍,英伟达的H100需要89块掩膜板,如果用CPU进行处理的话,每个掩膜板都需要消耗两周的时间,而如果在GPU上运行cuLitho,则只需8个小时即可处理完一个掩膜板。

它使500个NVIDIA DGX H100系统能够实现40000个CPU系统的工作,运行所有部件并行计算光刻工艺,有助于减少电力需求和潜在环境影响。

在短期内,使用cuLitho的晶圆厂可以每天生产3-5倍以上的光掩模,芯片设计模板使用的功率比当前配置低9倍。之前一个光掩模所需的两周时间现在可以在一夜之间处理。从长远来看,cuLitho将提供更好的设计规则、更高的密度、更高的产量和人工智能光刻技术。

NVIDIA正在与主要合作伙伴合作,以推动这些新技术的快速采用。黄仁勋并预告台积电将把这套AI系统,在今年6月导入2纳米试产,用于提升2纳米制程良率,并缩短量产时程。

台积电CEO魏哲家表示,这一发展为TSMC在芯片制造中更广泛地部署光刻技术和深度学习等光刻解决方案提供了新的可能性,为半导体扩展的延续做出了重要贡献。

ASML首席执行官Peter Wennink表示,正计划将其集成到所有的计算光刻软件中,ASML与NVIDIA在GPU和cuLitho方面的合作,应该会给计算光刻带来巨大的好处,从而给半导体带来巨大的益处缩放比例,在高NA极紫外光刻的时代尤其如此。

Synopsys董事长兼首席执行官Aart de Geus表示,计算光刻,特别是光学邻近校正(OPC),正在突破界限,与NVIDIA合作,在cuLitho平台上运行Synopsys OPC软件,我们将性能从几周大幅提高到几天。

专为ChatGPT打造的H100 NVLINK

NVIDIA技术是AI的基础,黄仁勋讲述了NVIDIA如何在生成式AI变革初期就已参与进来。早在2016年,他就向OpenAl亲手交付了第一台NVIDIA DGX AI超级计算机一支持ChatGPT的大型语言模型突破背后的引擎。

去年年底推出的ChatGPT几乎在一夜之间爆火,吸引了超过1亿用户,成为有史以来增长最快的应用。黄仁勋认为“我们正处于Al的iPhone时刻”。在GTC大会上,他还宣布了专为ChatGPT设计的推理GPU(图形处理器)。

其中最主要的是H100 NVLINK,它将英伟达的两个H100 GPU拼接在一起,以部署像 ChatGPT这样的大型语言模型(LLM)。

黄仁勋表示,当前唯一可以实际处理ChatGPT的GPU是英伟达HGX A100。与前者相比,现在一台搭载四对H100和双NVLINK的标准服务器速度能快10倍,可以将大语言模型的处理成本降低一个数量级。

H100不是新的GPU,英伟达在一年前的GTC上展示了其Hopper架构,并在各种任务中加速AI推理(推理是机器学习程序部署的第二阶段,此时运行经过训练的程序以通过预测来回答问题)。英伟达表示,H100 NVL附带94GB内存,与上一代产品相比,H100的综合技术创新可以将大型语言模型的速度提高30倍。

据黄仁勋透露,H100 NVL预计将在今年下半年上市。

另外,为了加速企业使用生成式Al的工作,黄仁勋在此次大会上还发布了NVIDIA AI Foundations云服务系列,为需要构建、完善和运行自定义大型语言模型及生成式A的客户提供服务,他们通常使用专有数据进行训练并完成特定领域的任务。

Al Foundations服务包括NVIDIA NeMo,用于构建自定义语言文本-文本转换生成模型;Picasso视觉语言模型制作服务,适用于想要构建使用授权或专有内容训练而成的自定义模型的客户;以及BioNeMo,助力2万亿美元规模的药物研发行业的研究人员。

小结

在本次GTC开发者大会上,英伟达除了带来令人瞩目的计算光刻库cuLitho,专为ChatGPT打造的H100 NVLINK以及赋能生成式AI的NVIDIA AI Foundations云服务系列外,还带来了其他的技术进展,包括量子计算系统、视觉图像系统等。

新的AI技术和迅速蔓延的应用正在改变科学和各行各业,并为成千上万的新公司开辟新的疆域。在黄仁勋看来,这将是迄今为止最重要的一次GTC。







声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • gpu
    gpu
    +关注

    关注

    27

    文章

    4417

    浏览量

    126689
  • 英伟达
    +关注

    关注

    22

    文章

    3327

    浏览量

    87768
收藏 人收藏

    评论

    相关推荐

    FPGA在深度学习应用中或将取代GPU

    最后说,“我们决定专注于软件业务,探索研究提升神经网络性能和降低延迟的方案。Zebra 运行在 FPGA 上,因此无需更换硬件就可以支持 AI 推理。FPGA 固件的每次刷新都能给
    发表于 03-21 15:19

    英伟达发布性能大幅提升的新款B200 AI GPU

    英伟达宣称,B200在性能上比以往最好的GPU快30倍不止。由它构成的服务器集群相比上一代,运算能力飞跃性提升,甚至能使大语言模型的训练速度翻番。
    的头像 发表于 03-20 09:37 209次阅读

    英伟达携手台积电、新思科技,力推下一代半导体芯片制造技术

    英伟达与台积电、 Synopsys 已做出决策,将在其软件环境、制造工艺以及系统上整合英伟达的 cuLitho 计算光刻平台。此举旨在大幅
    的头像 发表于 03-19 11:41 236次阅读

    英伟达新一代AI芯片预计2025年亮相

    近日,服务器制造商戴尔在业界交流活动中透露了英伟达即将发布的新一代人工智能(AIGPU信息。这款代号为Blackwell的芯片预计将在功耗
    的头像 发表于 03-05 10:26 295次阅读

    英伟将用AI设计AI芯片

    AI芯片行业资讯
    深圳市浮思特科技有限公司
    发布于 :2024年02月19日 17:54:43

    英伟达用AI设计GPU算术电路有何优势

    大量的算术电路阵列为英伟GPU提供了动力,以实现前所未有的AI、高性能计算和计算机图形加速。因此,改进这些算术电路的设计对于提升
    发表于 12-05 11:05 223次阅读

    #英伟 #显卡 英伟全新旗舰显卡RTX 5090性能暴涨70%

    显卡英伟
    深圳市浮思特科技有限公司
    发布于 :2023年11月20日 14:19:25

    半导体制造领域光刻胶的作用和意义

    光刻是半导体加工中最重要的工艺之一,决定着芯片性能光刻芯片制造时间的
    发表于 10-26 15:10 458次阅读
    半导体<b class='flag-5'>制造</b><b class='flag-5'>领域</b><b class='flag-5'>光刻</b>胶的作用和意义

    深度学习模型部署与优化:策略与实践;L40S与A100、H100的对比分析

    随着生成式AI应用的迅猛发展,我们正处在前所未有的大爆发时代。在这个时代,深度学习模型的部署成为一个亟待解决的问题。尽管GPU在训练和推理中扮演着关键角色,但关于它在生成式
    的头像 发表于 10-07 09:43 1171次阅读
    深度学习模型部署与优化:策略与实践;L<b class='flag-5'>40</b>S与A100、H100的对比分析

    英伟达通过GPU驱动程序提升Starfield性能

    英伟达(Nvidia)正在推出一项更新,将为RTX 30和40系列卡的所有者提高Starfield的性能英伟达表示,其自动无线更新将启用Resizable BAR,并提高其最新
    的头像 发表于 09-14 16:37 714次阅读

    三星计划为英伟AI GPU提供HBM3和2.5D封装服务;传苹果悄悄开发“Apple GPT” 或将挑战OpenAI

    与包括三星在内的潜在供应商进行交易谈判。 目前,英伟达的A100、H100和其他AI GPU均使用台积电进行晶圆制造和2.5封装工作的前端工艺。英伟
    的头像 发表于 07-20 17:00 440次阅读
    三星计划为<b class='flag-5'>英伟</b>达<b class='flag-5'>AI</b> <b class='flag-5'>GPU</b>提供HBM3和2.5D封装服务;传苹果悄悄开发“Apple GPT” 或将挑战OpenAI

    英伟:对依赖中国台湾芯片制造感到非常安全

    行业芯事时事热点行业资讯
    电子发烧友网官方
    发布于 :2023年06月02日 10:26:58

    英伟达与联发科合作舱驾一体芯片

    可以理解为,联发科将在未来提供给汽车制造商和一级供应商的Dimensity Auto智舱芯片封装中加入英伟达的GPU,该GPU使用一种称为小
    的头像 发表于 06-01 15:17 918次阅读

    NVIDIA仍不死心,再次加入ARM站场

    在GTC 2021主题演讲中,英伟首席执行官确认了英伟
    发表于 05-28 08:51

    联发科回应结盟英伟合攻 Arm 架构芯片传闻

    联发科计划周一下午举行 2023“旗舰科技 智领未来”记者会,由联发科 CEO 蔡力行与重量级嘉宾一同出席,这位嘉宾应该是近来引起全球关注、并成为 AI 创新推动者的英伟 CEO
    发表于 05-28 08:47