0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

CNCC | 论坛:探索 AI 全栈解决方案和基于 LLM 的推理与部署实践

NVIDIA英伟达 来源:未知 2023-10-24 10:30 次阅读

2023 年中国计算机大会(CNCC2023)以“发展数字基础设施,支撑数字中国建设”为主题,将于 10 月 26 - 28 日在沈阳新世界博览馆举办。

NVIDIA 携手合作伙伴丽台科技受邀为大会带来三大技术论坛,并在展位开设持续两天的开发者小课堂,为计算机行业的学者、研究人员、开发者和高校的同学们带来 NVIDIA 的最新技术应用实践。欢迎莅临我们的展位(沈阳新世界博览馆 4 楼 C 展馆 T13),与我们一起探索 AI加速计算的未来,开启生成式 AI 新时代!

NVIDIA 在 CNCC2023 的活动概览:

时间

主题

地点

10 月 26 日

13:30 - 17:30

NVIDIA AI 全栈技术解决方案研讨会

沈阳皇朝万鑫酒店

8 层 - 16

10 月 27 日

13:30 - 17:30

基于超大模型的推理和部署实践

沈阳新世界博览馆

5 层会议室 503

10 月 28 日

13:30 - 17:30

探索 Omniverse和AI加速创作开发流程

沈阳皇朝万鑫酒店

8 层 - 19

10 月 26 日

– 27 日

开发者小课堂

沈阳新世界博览馆

4 楼 C 展馆 T13

10 月 26 – 27 日,NVIDIA 将举办两场技术论坛:NVIDIA AI 全栈技术解决方案研讨会和基于超大模型的推理和部署实践分论坛,我们将分享 AI 领域最新的发展趋势,探讨大语言模型的崛起如何为 AI 技术的应用开拓新领域。

论坛详情

NVIDIA AI 全栈技术解决方案研讨会

时间:10 月 26 日 13:30 - 17:30

地点:沈阳皇朝万鑫酒店 8 层 - 16

AI 正迎来有史以来最辉煌的时刻,新的 AI 技术和迅速发展的应用正在改变各行各业。从自主机器人开发、自动驾驶系统和软件、GPU 加速的大语言模型以及火热的生成式 AI 背后的智能网络技术。在 NVIDIA AI 全栈技术解决方案论坛,NVIDIA 专家将为您揭示 AI 技术新趋势。

+

+

具体议程

面向生成式 AI 的端到端高性能网络关键技术

演讲时间:13:35 - 14:20

演讲简介:分享 Spectrum-X 平台技术创新及其在 AI Cloud 行业的应用介绍 Quantum 平台及网络计算技术对大规模生成式 AI 应用的加速。

-------------------------

wKgZomU3LVmAY53IAAAt4J-yd80838.jpg

冯高锋

NVIDIA HPC-AI 技术市场高级总监

构建 LLM 大规模训练推理基础架构的最佳实践(网络篇)

演讲时间:14:20 - 15:05

演讲简介:以当前火热的大语言模型(LLM)生成式人工智能为切入点,探索其成功背后的全栈智能网络技术,并介绍 NVIDIA BlueField-3 DPU 和 NVIDIA DOCA 2.0 为加速计算提供高性能、高效率和高安全性的云计算基础设施。

-------------------------

wKgZomU3LVmAERMgAAAOztQ4g4s744.jpg

王淼

NVIDIA 解决方案总监

NVIDIA 互联网行业 Infra 方向技术负责人

构建 LLM 大规模训练推理基础架构的最佳实践(GPU 篇)

演讲时间:15:05 - 15:50

演讲简介:介绍 NVIDIA 在 LLM 训练和推理场景的基础架构层面的最佳产品和方案。NVIDIA DGX SuperPOD 架构是实现 LLM 训练的最高性能基础架构,由 NVIDIA 实现全栈交付,极致满足客户算力需求。同时,NVIDIA Hopper NVL 产品可灵活适配主流服务器,在 LLM 推理场景帮助客户实现更高收益。

-------------------------

wKgZomU3LVmAJmh1AAA8y-OPnN0275.jpg

艾静

NVIDIA 解决方案架构师

市场高级总监

NVIDIA 加速边缘计算和自主机器开发

演讲时间:15:50 - 16:35

演讲简介:智能机器人和边缘计算是现在人工智能的一个热点,NVIDIA 提供软硬件全栈解决方案,从仿真开发到部署,助力边缘计算和智能机器人应用的实现。同时,丰富强大的生态帮助开发者和用户加速开发过程,轻松应对全行业应用。

-------------------------

wKgZomU3LVqAKuGJAAAqAq-NnYc657.jpg

李雨倩

NVIDIA 开发者关系总监

NVIDIA 全栈加速自动驾驶开发

演讲时间:16:35 - 17:20

演讲简介:围绕着自动驾驶整个数据闭环开发,NVIDIA 提供全栈的解决方案,从硬件、系统到软件,从数据中心到车端,助力自动驾驶高效开发、快速迭代。

-------------------------

wKgZomU3LVqAKcf_AAA8V_d81Pk744.jpg

程帅

NVIDIA 解决方案架构师

基于超大模型的推理和部署实践分论坛

时间:10 月 27 日 13:30 - 17:30

地点:沈阳新世界博览馆5层会议室503

大语言模型的兴起为 AI 技术的应用开辟了更广阔的空间,越来越多研究和实践证明超大模型在各类任务上的卓越能力与重要性。在 CNCC2023 大会上,腾讯、百度和阿里云将携手 NVIDIA 带来《基于超大模型的推理和部署实践》论坛。

通过本次论坛,您将了解到腾讯的生成式 AI 如何高效地部署;百度飞桨在 LLM 分布式训练方面的最新技术;阿里云 PAI 大语言模型推理服务实践;NVIDIA 在 GPU LLM 训练与推理部署优化解决方案以及构建 LLM 大规模训练推理基础架构的最佳实践分享。

+

+

具体议程

生成式 AI 高效部署实践

演讲时间:13:35 - 14:20

演讲简介:自 OpenAI 推出 ChatGPT 后,市场反应强烈。国内外科技公司快速跟进,到今年三月份,各公司逐步推出其专属的 ChatGPT 版本,并基于此开发逐步研发相关的商业应用。而 GPT 超大的模型结构在部署时产生的高延迟,高成本是其商业化路上的最大障碍。我们将从小型化算法、推理框架及服务化部署等多个方面和大家分享工业级 GPT 高效部署优化方案。

-------------------------

wKgZomU3LVqAJTRzAAAcHutI8Zo633.jpg

刘凯

腾讯高级工程师

基于飞桨的 LLM 训练和应用实践

演讲时间:14:20 - 15:05

演讲简介:介绍飞桨在 LLM 分布式训练方面的最新技术,针对 LLM 的开发、训练、Tuning、推理全流程工具设计,以及实际大规模训练和部署的应用实践。

-------------------------

wKgZomU3LVqAQ-7zAAA-6r81wxQ560.jpg

曾锦乐

百度资深工程师

GPU LLM 训练与推理部署优化实践与解决方案

演讲时间:15:05 - 15:50

演讲简介:介绍大语言模型训练推理中常用的优化支持和技巧(数据并行、Tensor 并行、Pipline 并行、Sequence并行、selective activation recompute、NCCL、TRTLLM 等)以及 Nemo framework 的全链路支持方案。

-------------------------

wKgZomU3LVqAKlOrAABHQ_A69O4004.jpg

高慧怡

NVIDIA 解决方案架构师

阿里云 PAI 大语言模型推理服务实践

演讲时间:15:50 - 16:35

演讲简介:大语言模型的兴起为人工智能技术的应用开辟了更广阔的空间。然而,大语言模型的训练和推理都需要大量的计算资源和时间,因此,性能和成本是大语言模型普及路上的重要挑战。演讲将主要介绍阿里云 PAI 平台为了应对这一挑战所做的工作,包括:

1)如何基于推理加速技术在 GPU 特别是 NVIDIA 平台上实现了大语言模型推理的高效推理;

2)如何利用云平台天然的弹性特性,通过资源调度降低用户的成本;

3)如何在保证性能和成本的前提下保持灵活性,支持社区百花齐放的大语言模型。

-------------------------

wKgZomU3LVuAMfNKAAB7CSwC6yM384.jpg

邱侠斐

阿里云机器学习平台(PAI)系统优化团队负责人

构建 LLM 大规模训练推理基础架构的最佳实践(基础架构篇)

演讲时间:16:35 - 17:20

演讲简介:介绍 NVIDIA 在 LLM 训练和推理场景的基础架构层面的最佳产品和方案。NVIDIA DGX SuperPOD 架构是实现 LLM 训练的最高性能基础架构,由 NVIDIA 实现全栈交付,极致满足客户算力需求。同时,NVIDIA Hopper NVL 产品可灵活适配主流服务器,在 LLM 推理场景帮助客户实现更高收益。

-------------------------

wKgZomU3LVmAJmh1AAA8y-OPnN0275.jpg

艾静

NVIDIA 解决方案架构师

内容分享后更有问答交流环节,现场专家阵容将悉心为您答疑解惑!

报名参会

扫描下方二维码,即刻报名参与论坛。

期待您莅临现场,一起领略更多精彩!

wKgZomU3LVuAIcWZAABRwoeGjGE484.jpg

您可以从CNCC2023 | 开启生成式 AI 新时代!NVIDIA 多场论坛下周重磅登场全面了解 NVIDIA 在 CNCC 的活动概览。

后续我们还将为您呈现关于探索 Omniverse 和 AI 加速创作开发流程论坛的详细信息,请持续关注我们。

GTC 2024 将于 2024 年 3 月 18 至 21 日在美国加州圣何塞会议中心举行,线上大会也将同期开放。点击“阅读原文”扫描下方海报二维码,关注更多会议及活动信息。

wKgZomU3LVuAR-wKAAFtccdApf0933.jpg


原文标题:CNCC | 论坛:探索 AI 全栈解决方案和基于 LLM 的推理与部署实践

文章出处:【微信公众号:NVIDIA英伟达】欢迎添加关注!文章转载请注明出处。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 英伟达
    +关注

    关注

    22

    文章

    3330

    浏览量

    87777

原文标题:CNCC | 论坛:探索 AI 全栈解决方案和基于 LLM 的推理与部署实践

文章出处:【微信号:NVIDIA_China,微信公众号:NVIDIA英伟达】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    广和通AIoT解决方案助力AI之眼探索视界

    广和通深度探索计算机视觉的关键技术与难点,助力客户实现计算机视觉端侧部署,以高算力模组及解决方案大大简化智能终端视觉部署的难度。
    的头像 发表于 04-23 18:07 397次阅读

    自然语言处理应用LLM推理优化综述

    当前,业界在将传统优化技术引入 LLM 推理的同时,同时也在探索从大模型自回归解码特点出发,通过调整推理过程和引入新的模型结构来进一步提升推理
    发表于 04-10 11:48 80次阅读
    自然语言处理应用<b class='flag-5'>LLM</b><b class='flag-5'>推理</b>优化综述

    安霸发布N1系列生成式AI芯片支持前端设备运行本地LLM应用

    单颗 SoC 支持 1 至 340 亿参数的多模态大模型(Multi-Modal LLM推理,实现前端低功耗生成式 AI
    的头像 发表于 01-09 15:19 626次阅读

    怎样使用Accelerate库在多GPU上进行LLM推理呢?

    大型语言模型(llm)已经彻底改变了自然语言处理领域。随着这些模型在规模和复杂性上的增长,推理的计算需求也显著增加。
    的头像 发表于 12-01 10:24 525次阅读
    怎样使用Accelerate库在多GPU上进行<b class='flag-5'>LLM</b><b class='flag-5'>推理</b>呢?

    Hugging Face LLM部署大语言模型到亚马逊云科技Amazon SageMaker推理示例

     本篇文章主要介绍如何使用新的Hugging Face LLM推理容器将开源LLMs,比如BLOOM大型语言模型部署到亚马逊云科技Amazon SageMaker进行推理的示例。我们将
    的头像 发表于 11-01 17:48 465次阅读
    Hugging Face <b class='flag-5'>LLM</b><b class='flag-5'>部署</b>大语言模型到亚马逊云科技Amazon SageMaker<b class='flag-5'>推理</b>示例

    集众力、汇众智,2023 中国计算机大会 DPU技术论坛成功举办

    ,据组委会介绍参加本届大会的院士多达49位。 中科驭数在大会中组织的DPU技术论坛以“大算力需求背景下,DPU芯片应用实践解决方案探索”为主题,邀请来自中国电子技术标准化研究院、联通
    的头像 发表于 10-28 16:05 378次阅读
    集众力、汇众智,2023 中国计算机大会 DPU技术<b class='flag-5'>论坛</b>成功举办

    周四研讨会预告 | 注册报名 NVIDIA AI Inference Day - 大模型推理线上研讨会

    推理加速和部署的服务化实现管道、性能收益,以及金融行业加速计算解决方案,为您 LLM 和生成式 AI 开发的增效降本提供领先的技术路线参考
    的头像 发表于 10-26 09:05 195次阅读

    CNCC技术论坛预告 | 大算力需求背景下,DPU芯片应用实践解决方案探索

    作为计算领域学术、技术、产业、教育各界共同探讨发展趋势的年度盛会,由中国计算机学会主办的第二十届计算机大会(CNCC 2023)将于10月26-28日在沈阳举行。CNCC 2023将以“发展数字
    的头像 发表于 10-25 16:05 231次阅读
    <b class='flag-5'>CNCC</b>技术<b class='flag-5'>论坛</b>预告 | 大算力需求背景下,DPU芯片应用<b class='flag-5'>实践</b>和<b class='flag-5'>解决方案</b><b class='flag-5'>探索</b>

    CNCC | 论坛探索 Omniverse 和 AI 加速创作开发流程

    带来三大技术论坛,并在展位开设持续两天的开发者小课堂,为计算机行业的学者、研究人员、开发者和高校的同学们带来 NVIDIA 的最新技术应用实践。欢迎莅临我们的展位(沈阳新世界博览馆 4 楼 C 展馆 T13),与我们一起探索
    的头像 发表于 10-25 15:55 151次阅读
    <b class='flag-5'>CNCC</b> | <b class='flag-5'>论坛</b>:<b class='flag-5'>探索</b> Omniverse 和 <b class='flag-5'>AI</b> 加速创作开发流程

    mlc-llm对大模型推理的流程及优化方案

    在 MLC-LLM 部署RWKV World系列模型实战(3B模型Mac M2解码可达26tokens/s) 中提到要使用mlc-llm部署模型首先需要一个编译过程,将原始的基于Rea
    发表于 09-26 12:25 448次阅读
    mlc-<b class='flag-5'>llm</b>对大模型<b class='flag-5'>推理</b>的流程及优化<b class='flag-5'>方案</b>

    对比解码在LLM上的应用

    为了改进LLM推理能力,University of California联合Meta AI实验室提出将Contrastive Decoding应用于多种任务的LLM方法。实验表明,所
    发表于 09-21 11:37 371次阅读
    对比解码在<b class='flag-5'>LLM</b>上的应用

    MLC-LLM的编译部署流程

    MLC-LLM部署在各种硬件平台的需求,然后我就开始了解MLC-LLM的编译部署流程和RWKV World模型相比于MLC-LLM已经支持的
    的头像 发表于 09-04 09:22 1801次阅读
    MLC-<b class='flag-5'>LLM</b>的编译<b class='flag-5'>部署</b>流程

    阿里平头哥发布首个 RISC-V AI 软硬平台

    平台通过软硬件深度协同,较经典方案提升超 8 成性能,支持运行 170 余个主流 AI 模型,推动 RISC-V 进入高性能 AI 应用时代。 平头哥表示,他们通过更新自研一站式 AI
    发表于 08-26 14:14

    Ai 部署的临界考虑电子指南

    虽然GPU解决方案对训练,AI部署需要更多。 预计到2020年代中期,人工智能行业将增长到200亿美元,其中大部分增长是人工智能推理。英特尔Xeon可扩展处理器约占运行
    发表于 08-04 07:25

    部署Linux的最佳实践探索

    编者按:本文节选自节选自《基于Linux的企业自动化》第五章。“第5章,使用Ansible构建用于部署的虚拟机模板,通过构建虚拟机模板来探索部署Linux的最佳实践,虚拟机模板将以实际
    的头像 发表于 05-16 09:35 336次阅读