电子发烧友App

硬声App

0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

电子发烧友网>人工智能>NVIDIA推出用于大型语言模型和生成式AI工作负载的推理平台

NVIDIA推出用于大型语言模型和生成式AI工作负载的推理平台

收藏

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

评论

查看更多

相关推荐

大型语言模型的逻辑推理能力探究

最新研究揭示,尽管大语言模型LLMs在语言理解上表现出色,但在逻辑推理方面仍有待提高。为此,研究者们推出了GLoRE,一个全新的逻辑推理评估基准,包含12个数据集,覆盖三大任务类型。
2023-11-23 15:05:16476

探索高效的大型语言模型大型语言模型的高效学习方法

大型语言模型(LLMs)的应用中,提示工程(Prompt Engineering)是一种关键技术,用于引导模型生成特定输出或执行特定任务。通过精心设计的提示,可以显著提高LLMs的性能和适用性。本文将介绍提示工程的主要方法和技巧,包括少样本提示、提示压缩和提示生成
2023-12-13 14:21:47274

NVIDIA 借助超大规模 AI 语言模型为全球企业赋能

NVIDIA NeMo Megatron 框架; 可定制的大规模语言模型 Megatron 530B;多GPU、多节点 Triton推理服务器助力基于语言AI开发和部署,推动行业和科学发展。
2021-11-10 14:22:52752

NVIDIA 推出大型语言模型云服务以推进 AI 和数字生物学的发展

NVIDIA NeMo 大型语言模型(LLM)服务帮助开发者定制大规模语言模型NVIDIA BioNeMo 服务帮助研究人员生成和预测分子、蛋白质及 DNA   美国加利福尼亚州圣克拉拉
2022-09-21 15:24:52434

NVIDIA推出DGX GH200 AI超级计算机

驱动的NVIDIA DGX™超级计算机,旨在助力开发面向生成AI语言应用、推荐系统和数据分析工作负载的巨型、下一代模型。   NVIDIA DGX GH200的超大共享内存空间通过NVLink互连技术以及NVLink
2023-05-30 14:15:36422

AI模型在医疗领域起飞

电子发烧友网报道(文/李弯弯)ChatGPT等大型语言模型语言理解、生成、知识推理等方面正展现出令人惊艳的能力。近段时间,各企业开始探索大模型在不同行业中的应用落地,并针对不同领域推出相对应的行业
2023-07-25 00:12:001434

NVIDIA Jetson的相关资料分享

Jetson概述爆炸增长的AI模型的复杂性专为自主机器开发人员设计的AI计算板加快AI处理的SDK“JetPack”概述NVIDIA Jetson是NVIDIA公司嵌入单板计算机的一系列
2021-11-09 08:26:45

NVIDIA 在首个AI推理基准测试中大放异彩

的BERT、GNMT 和Jasper 等AI模型开源优化帮助开发者实现顶尖推理性能。NVIDIA的客户和合作伙伴中包括有会话AI领域的一流公司,比如Kensho、微软、Nuance、Optum等。最后要
2019-11-08 19:44:51

AscendCL快速入门——模型推理篇(上)

腾CANN平台专用的离线模型,既然要调用模型进行推理,首先当然是要把模型加载进来,最简单的场景就是从磁盘加载一个离线模型文件进内存,接口如下: aclError aclmdlLoadFromFile
2023-08-24 11:04:14

Dllite_micro (轻量级的 AI 推理框架)

DLLite-Micro 是一个轻量级的 AI 推理框架,可以为 OpenHarmony OS 的轻量设备和小型设备提供深度模型推理能力DLLite-Micro 向开发者提供清晰、易上手的北向接口
2021-08-05 11:40:11

HarmonyOS:使用MindSpore Lite引擎进行模型推理

场景介绍 MindSpore Lite 是一款 AI 引擎,它提供了面向不同硬件设备 AI 模型推理的功能,目前已经在图像分类、目标识别、人脸识别、文字识别等应用中广泛使用。 本文介绍
2023-12-14 11:41:13

压缩模型会加速推理吗?

你好我使用 STM32CUBE-AI v5.1.2 ApplicationTemplate 将简单的 CNN 导入到 STM32L462RCT我发现压缩模型推理时间没有影响。aiRun 程序在 8
2023-01-29 06:24:08

在X-CUBE-AI.7.1.0中导入由在线AI平台生成的.h5模型报错怎么解决?

你好, 我试图在 X-CUBE-AI.7.1.0 中导入由在线 AI 平台生成的 .h5 模型,收到错误:E010(InvalidModelError): Model saved with Keras 2.7.0 but
2022-12-27 06:10:35

基于SRAM的方法可以加速AI推理

基于SRAM的方法可加速AI推理
2020-12-30 07:28:28

如何在RK3399这一 Arm64平台上搭建Tengine AI推理框架呢

Tengine是什么呢?如何在RK3399这一 Arm64平台上搭建Tengine AI推理框架呢?
2022-03-04 12:31:35

嵌入AI在linux芯片平台上的部署方案分享

ONNX文件并生成特定平台和运行框架所支持的神经网络模型。ONNX本身不是AI神经网络运行框架,只是AI神经网络模型通用中间描述文件格式GitHub链接https://github.com/onnx/onnx编程语言C++ / Python热度5星Tenso
2021-12-14 06:18:44

嵌入边缘AI应用开发指南

如果在没有嵌入处理器供应商提供的合适工具和软件的支持下,既想设计高能效的边缘人工智能(AI)系统,同时又要加快产品上市时间,这项工作难免会冗长乏味。面临的一系列挑战包括选择恰当的深度学习模型
2022-11-03 06:53:28

深度剖析OpenHarmony AI调度管理与推理接口

管理图 主要流程:任务推理创建流程:首先配置客户端sessionId,端配置clientId,由clientId和clientId组合生成唯一的transactionId,然后根据模型框架类型和推理网络
2022-03-25 11:15:36

深度学习推理和计算-通用AI核心

,支持广泛的应用程序和动态工作负载。本文将讨论这些行业挑战可以在不同级别的硬件和软件设计采用Xilinx VERSAL AI核心,业界首创自适应计算加速平台超越了CPU/GPU和FPGA的性能。
2020-11-01 09:28:57

LuxStudio增材制造晶格模型自动生成平台

对一些非参数化设计师以及3D打印纯小白非常不友好。为此,清锋科技推出了面向增材制造的晶格模型自动生成平台——LuxStudio,不仅可以实现多种结构晶格的自动生成
2022-11-09 10:43:02

亚马逊推出AWS Inferentia芯片 专门用于部署带有GPU的大型AI模型

亚马逊宣布推出Inferentia,这是由AWS设计的芯片,专门用于部署带有GPU的大型AI模型,该芯片将于明年推出
2018-12-03 09:46:081753

NVIDIA技术助力线上大模型推理

自然语言理解、匹配排序等等,这些模型的训练和推理都大量依赖于NVIDIA GPU,尤其在推理方面,NVIDIA GPU及相应的解决方案都满足了业务所需的延迟和吞吐要求。 微信搜索业务需要更高效平台 微信搜索业务由多个子模块构成,包括查
2021-10-28 15:28:121551

NVIDIA为全球企业开发和部署大型语言模型打开一扇新的大门

NVIDIA NeMo Megatron 框架; 可定制的大规模语言模型Megatron 530B;多GPU、多节点 Triton推理服务器助力基于语言AI开发和部署,推动行业和科学发展
2021-11-12 14:30:071327

NVIDIA宣布其AI推理平台的重大更新

软件的新功能,该软件为所有AI模型和框架提供跨平台推理;同时也包含对NVIDIA TensorRT的更新,该软件优化AI模型并为NVIDIA GPU上的高性能推理提供运行时优化。 NVIDIA推出NVIDIA A2 Tensor Core GPU,这是一款用于
2021-11-12 14:42:531684

NVIDIA Triton开源推理服务软件三大功能推动效率提升

Microsoft Teams借助AI生成的实时字幕和转录功能,帮助全球学生和职场人士顺利进行在线会议。用于训练的NVIDIA AI计算技术和用于推理语音识别模型NVIDIA Triton推理服务器进一步提升了这两个功能。
2022-01-04 14:20:111407

NVIDIA Triton推理服务器帮助Teams使用认知服务优化语音识别模型

Microsoft Teams借助AI生成的实时字幕和转录功能,帮助全球学生和职场人士顺利进行在线会议。用于训练的NVIDIA AI计算技术和用于推理语音识别模型NVIDIA Triton推理服务器进一步提升了这两个功能。
2022-01-04 17:45:121472

Microsoft使用NVIDIA Triton加速AI Transformer模型应用

Microsoft 的目标是,通过结合使用 Azure 与 NVIDIA GPU 和 Triton 推理软件,率先将一系列强大的 AI Transformer 模型投入生产用途。
2022-04-02 13:04:211456

NVIDIA推理平台和全栈方法提供最佳性能

现在,您和开发人员社区的其他成员都可以使用这些成果,主要是以开源软件的形式。此外, TensorRT 和 Triton 推理服务器可从 NVIDIA NGC 免费获得,以及预训练模型、深度学习框架
2022-04-08 16:31:31931

NVIDIA TensorRT助力打造AI计算机视觉算法推理平台

“在使用 NVIDIA TensorRT和NVIDIA T4 GPU对平台赋能后,“极星”推理平台的算法推理效率得到了进一步的提升,更好地支持速接入各类算法、数据及智能设备,实现AI自闭环能力,并通过应用服务和标准化接口,帮助终端客户低成本实现AI与业务的结合,快速构建智能应用。
2022-04-13 14:49:19862

使用NVIDIA Triton推理服务器简化边缘AI模型部署

  NVIDIA Triton 有助于在每个数据中心、云和嵌入式设备中实现标准化的可扩展生产 AI 。它支持多个框架,在 GPU 和 DLA 等多个计算引擎上运行模型,处理不同类型的推理查询。通过与 NVIDIA JetPack 的集成, NVIDIA Triton 可用于嵌入式应用。
2022-04-18 15:40:022306

基于NVIDIA Triton的AI模型高效部署实践

NVIDIA Triton 推理服务器(以前称为 TensorRT 推理服务器)是一款开源软件,可简化深度学习模型在生产环境中的部署。借助 Triton 推理服务器,Devops 和 MLops
2022-06-28 15:49:471293

腾讯云与NVIDIA仍持续为AI推理加速进行合作

Kit 不仅大大提升了 GPU 集群上多机多卡分布式训练的效率,对于 GPU 上的模型推理也通过集成 NVIDIA TensorRT 带来了显著加速。双方团队就 GPU 推理加速这一话题将进行持续深入的合作,推出定制化的优化方案,为业界客户带来显著的性能收益。
2022-08-31 09:24:071235

腾讯云TI平台利用NVIDIA Triton推理服务器构造不同AI应用场景需求

腾讯云 TI 平台 TI-ONE 利用 NVIDIA Triton 推理服务器构造高性能推理服务部署平台,使用户能够非常便捷地部署包括 TNN 模型在内的多种深度学习框架下获得的 AI 模型,并且显著提升推理服务的吞吐、提升 GPU 利用率。
2022-09-05 15:33:011419

蚂蚁链AIoT团队与NVIDIA合作加速AI推理

蚂蚁链 AIoT 团队与 NVIDIA 合作,将量化感知训练(QAT)技术应用于深度学习模型性能优化中,并通过 NVIDIA TensorRT 高性能推理 SDK 进行高效率部署, 通过 INT8 推理, 吞吐量提升了 3 倍, 助力蚂蚁链版权 AI 平台中的模型推理服务大幅降本增效。
2022-09-09 09:53:52872

NVIDIA NeMo最新语言模型服务帮助开发者定制大规模语言模型

NVIDIA NeMo 大型语言模型(LLM)服务帮助开发者定制大规模语言模型NVIDIA BioNeMo 服务帮助研究人员生成和预测分子、蛋白质及 DNA
2022-09-22 10:42:29742

KT利用NVIDIA AI平台训练大型语言模型

韩国先进的移动运营商构建包含数百亿个参数的大型语言模型,并使用 NVIDIA DGX SuperPOD 平台和 NeMo Megatron 框架训练该模型
2022-09-27 09:24:30915

NVIDIA AI平台大型语言模型带来巨大收益

随着大型语言模型( LLM )的规模和复杂性不断增长, NVIDIA 今天宣布更新 NeMo Megatron 框架,提供高达 30% 的训练速度。
2022-10-10 15:39:42644

NVIDIA GPU加速潞晨科技Colossal-AI模型开发进程

通过 NVIDIA GPU 加速平台,Colossal-AI 实现了通过高效多维并行、异构内存管理、大规模优化库、自适应任务调度等方式,更高效快速部署 AI模型训练与推理
2022-10-19 09:39:391149

NVIDIA 和 Evozyne 创建用于生成蛋白质的生成AI 模型

科学家使用 NVIDIA BioNeMo 创建出能够生成高质量蛋白质的大型语言模型,以此加快药物研发并助力创造更具可持续性的环境。 初创企业 Evozyne 使用 NVIDIA 提供的预训练 AI
2023-01-13 23:15:02419

大型语言模型有哪些用途?

大型语言模型能识别、总结、翻译、预测和生成文本及其他内容。 AI 应用在大型语言模型的帮助下,可用于解决总结文章、编写故事和参与长对话等多种繁重工作大型语言模型(LLM)是一种深度学习算法,可以
2023-02-23 19:50:043887

大型语言模型有哪些用途?大型语言模型如何运作呢?

大型语言模型能识别、总结、翻译、预测和生成文本及其他内容。
2023-03-08 13:57:006989

NVIDIA 为全球企业带来生成AI 推出用于创建大型语言模型和视觉模型的云服务

AI驱动的应用构建自定义模型   加利福尼亚州圣克拉拉 – GTC – 太平洋时间 2023年3月21日 – 为了加速企业应用生成AINVIDIA今日宣布推出一套云服务,使企业能够构建、完善
2023-03-22 13:45:40261

NVIDIA GTC 2023:GPU算力是AI的必需品

NVIDIA 创始人兼首席执行官黄仁勋将在 GTC 2023 上介绍生成AI、元宇宙、大型语言模型、云计算等领域的最新进展。 同时黄仁勋不仅阐述了NVIDIA 在人工智能时代的诸多成就和对未来发展
2023-03-22 15:23:282900

英伟达 GTC 2023上黄仁勋谈生成AI

NVIDIA AI Foundations云服务系列为需要构建、完善和运行自定义大型语言模型生成AI的客户提供服务,他们通常使用专有数据进行训练并完成特定领域的任务。 图源  NVIDIA 直播截图 Audio2Face 可以支持中文
2023-03-22 17:14:331621

GTC23 | NVIDIA 为全球企业带来生成AI推出用于创建大型语言模型和视觉模型的云服务

Foundations 云服务为 AI 驱动的应用构建 自定义模型 加利福尼亚州圣克拉拉 – GTC – 太平洋时间 2023年3月21日 – 为了加速企业应用生成AINVIDIA 宣布推出一套云服务,使企业
2023-03-23 06:50:04365

GTC23 | NVIDIA 推出用于大型语言模型生成AI 工作负载推理平台

日 – NVIDIA 于今日推出四款推理平台。这些平台针对各种快速兴起的生成AI 应用进行了优化,能够帮助开发人员快速构建用于提供新服务和洞察的 AI 驱动的专业应用。 这些平台NVIDIA
2023-03-23 06:55:02654

GTC23 | NVIDIA 携手谷歌云提供强大的全新生成AI 平台,基于新款 L4 GPU 和 Vertex AI 构建

NVIDIA 生成AI 推理平台将集成至谷歌云 Vertex AI 中;谷歌云成为首家提供 NVIDIA L4 GPU 实例的云服务商 加利福尼亚州圣克拉拉 – GTC – 太平洋时间 2023
2023-03-23 06:55:02438

GTC23 | NVIDIA 发布大型语言模型生成AI 服务以推动生命科学研发

年 3 月 21 日 – NVIDIA 今日推出一整套用于自定义 AI 基础模型生成AI 云服务。这些服务将加速新蛋白质和治疗方法的创建以及基因组学、化学、生物学和分子动力学等领域的研究。 作为
2023-03-23 06:55:03328

GTC23 | 弥补不足:大型语言模型借企业数据之力变得更加智能

NVIDIA NeMo 服务帮助企业将大型语言模型与其专有数据相结合,赋能智能聊天机器人、客户服务等更多应用。 如今的大型语言模型知识渊博,但它们的工作方式有点像时间胶囊——所收集的信息仅限于第一次
2023-03-25 09:10:03274

GTC23 | NVIDIA 为全球企业带来生成AI推出用于创建大型语言模型和视觉模型的云服务

Foundations 云服务为 AI 驱动的应用构建 自定义模型 加利福尼亚州圣克拉拉 – GTC – 太平洋时间 2023年3月21日 – 为了加速企业应用生成AINVIDIA 宣布推出一套云服务,使企业
2023-03-25 15:20:04285

NVIDIA 在 MLPerf 测试中将推理带到新高度

在最新 MLPerf 基准测试中,NVIDIA H100 和 L4 GPU 将生成AI 和所有其他工作负载带到了新的水平,Jetson AGX Orin 则在性能和效率方面都有所提升。 作为独立
2023-04-08 00:30:08389

ServiceNow 与 NVIDIA 宣布联合打造面向企业 IT 的生成AI

基于 ServiceNow 平台并采用 NVIDIA AI 软件和 DGX 基础设施构建的自定义大型语言模型将为企业带来更智能的工作流自动化 ServiceNow 和 NVIDIA 宣布达成合作伙伴
2023-05-19 00:50:02342

NVIDIA 与微软合作加速企业就绪的生成AI

NVIDIA AI Enterprise 与 Azure 机器学习集成,提供端到端云平台,供开发者构建、部署和管理大型语言模型AI 应用 微软 Build 大会——太平洋时间 2023
2023-05-25 09:15:02347

戴尔科技集团与 NVIDIA 联合发布用于安全、本地化部署生成AI 的 Project Helix

•  Project Helix 使企业能够轻松构建和部署值得信赖的生成AI •  戴尔和 NVIDIA 的基础设施与软件包含内置的数据安全功能,用于本地生成AI 应用 戴尔科技集团全球大会
2023-05-25 09:15:02349

NVIDIA 携手微软,在生成AI 的新时代推动 Windows PC 创新

行业领导者打破藩篱,使开发人员能够轻松地在 Windows 11 上训练并部署先进的 AI 模型,并在配备 RTX 的 PC 和工作站上提供节能的推理生成AI,以 ChatGPT 等大型语言
2023-05-25 09:15:02509

大型语言模型能否捕捉到它们所处理和生成的文本中的语义信息

  大型语言模型能否捕捉到它们所处理和生成的文本中的语义信息?这一问题在计算机科学和自然语言处理领域一直存在争议。然而,MIT的一项新研究表明,仅基于文本形式训练、用于预测下一个token的语言模型
2023-05-25 11:34:11434

COMPUTEX2023 | NVIDIA 推出 DGX GH200 AI 超级计算机

Switch System 驱动的 NVIDIA DGX 超级计算机 ,旨在助力开发面向生成AI 语言应用、推荐系统和数据分析工作负载的巨型、下一代模型NVIDIA DGX GH200 的超大共享内存空间通过 NVLink 互连技术 以及 NV
2023-05-30 01:40:011459

COMPUTEX2023 | NVIDIA 推出面向超大规模生成AI 的加速以太网平台

全新的 NVIDIA Spectrum-X 网络平台NVIDIA Spectrum-4、BlueField-3 DPU 和加速软件于一身;全球头部云服务提供商采用该平台来横向扩展其生成AI
2023-05-30 01:40:02352

NVIDIA 为 1 亿台 Windows RTX PC 和工作站提供全新生成AI 功能与突破性性能

搭载 Tensor Core 的 NVIDIA RTX GPU 正在加速生成AI 模型的开发与部署;即将推出的 Max-Q 低功耗 AI 推理将提高能效比。 生成AI 正在迅速开创一个计算
2023-05-31 03:50:02344

NVIDIA为Windows RTX工作站提供全新生成AI功能与突破性性能

随着越来越多的 AI 推理在本地设备上运行,工作站将需要强大而高效的硬件以支持这些复杂的任务。为了满足这一需求,RTX GPU 将添加用于 AI 工作负载的 Max-Q 低功耗推理。在执行轻量级
2023-06-07 14:55:24442

基于Transformer的大型语言模型(LLM)的内部机制

本文旨在更好地理解基于 Transformer 的大型语言模型(LLM)的内部机制,以提高它们的可靠性和可解释性。 随着大型语言模型(LLM)在使用和部署方面的不断增加,打开黑箱并了解它们的内部
2023-06-25 15:08:49991

大型语言模型的应用

   大型语言模型(LLM) 是一种深度学习算法,可以通过大规模数据集训练来学习识别、总结、翻译、预测和生成文本及其他内容。大语言模型(LLM)代表着 AI 领域的重大进步,并有望通过习得的知识改变
2023-07-05 10:27:351463

如何使用NVIDIA Triton 推理服务器来运行推理管道

使用集成模型NVIDIA Triton 推理服务器上为 ML 模型管道提供服务
2023-07-05 16:30:341082

AI和大语言模型给云计算和DevOps带来了哪些影响?

通过降低认知负载和为即时管理、工单系统和代码生成等任务提供支持,人工智能(AI)和大型语言模型(LLMs)可能在云计算和 DevOps 领域发挥重要作用。主要的云计算供应商,如微软、谷歌和亚马逊云科技等,已经将 AI 集成到他们的产品和服务中,充分展示了行业在 AI 技术上的投入。
2023-08-03 15:26:42813

NVIDIA 与 Hugging Face 将连接数百万开发者与生成AI 超级计算

年 8 月 8 日 — NVIDIA 与 Hugging Face 宣布建立合作伙伴关系,为数百万开发者提供生成AI 超级计算服务,帮助他们构建大语言模型(LLM)和其他高级 AI 应用。   此次
2023-08-09 11:41:59100

SIGGRAPH 2023 | NVIDIA 与全球数据中心系统制造商大力推动 AI 与工业数字化的发展

计算密集型的复杂应用,包括 AI 训练与推理、3D 设计与可视化、视频处理以及工业数字化等。 这款全新 GPU 将加速生成AI 的计算工作负载生成式 A
2023-08-09 19:10:06264

SIGGRAPH 2023 | NVIDIA AI Workbench 助力全球企业加速采用自定义生成AI

从 PC 和工作站到企业数据中心、公有云和 NVIDIA DGX 云,新推出的开发者套件在 NVIDIA AI 平台上引入了简化的模型优化与部署。 洛杉矶 — SIGGRAPH — 太平洋时间
2023-08-09 19:10:09261

英伟达全球首发HBM3e 专为生成AI时代打造

2023年8月8日,NVIDIA创始人兼CEO黄仁勋在计算机图形年会SIGGRAPH上发布了HBM3e内存新一代GH200 Grace Hopper超级芯片。这款芯片被黄仁勋称为“加速计算和生成AI时代的处理器”,旨在用于任何大型语言模型,以降低推理成本。
2023-08-11 16:29:17767

清华大学大语言模型综合性能评估报告发布!哪个模型更优秀?

近日,清华大学新闻与传播学院发布了《大语言模型综合性能评估报告》,该报告对目前市场上的7个大型语言模型进行了全面的综合评估。近年,大语言模型以其强大的自然语言处理能力,成为AI领域的一大热点。它们
2023-08-10 08:32:01607

生成AI时代要来了吗 NVIDIA生成AI获新突破

这些性能强大的新系统将利用 NVIDIA Omniverse 平台加速高计算密集度的复杂应用,包括 AI 训练和推理、3D 设计和可视化、视频处理、工业数字化等。
2023-08-23 14:20:18224

VMware 与 NVIDIA 为企业开启生成AI 时代

全新 VMware Private AI Foundation With NVIDIA 帮助企业为生成AI 在业务中的应用做好准备;该平台将在数据隐私性、安全性和可控性方面提供进一步支持
2023-08-23 19:10:07446

全球领先系统制造商推出 NVIDIA AI 就绪型服务器,为企业大幅提升生成AI 性能

戴尔科技、慧与和联想即将推出采用 NVIDIA L40S GPU 和 NVIDIA BlueField 的服务器,以支持 VMware Private AI Foundation
2023-08-23 19:10:09350

Meta发布一款可以使用文本提示生成代码的大型语言模型Code Llama

今天,Meta发布了Code Llama,一款可以使用文本提示生成代码的大型语言模型(LLM)。
2023-08-25 09:06:57885

谷歌云与 NVIDIA 进一步深化合作

两家 AI 领军企业一同优化谷歌云,使更多生成AI 领域的初创企业能够构建下一代应用。 生成AI 和大语言模型(LLM)不断推动创新,使训练和推理工作的算力需求以惊人的速度增长。 为了满足
2023-08-31 13:00:03230

训练大语言模型带来的硬件挑战

生成AI和大语言模型(LLM)正在以难以置信的方式吸引全世界的目光,本文简要介绍了大语言模型,训练这些模型带来的硬件挑战,以及GPU和网络行业如何针对训练的工作负载不断优化硬件。
2023-09-01 17:14:561046

虹科分享 | 谷歌Vertex AI平台使用Redis搭建大语言模型

化。有Redis加持的大语言模型可应用于文档检索、虚拟购物助手、客户服务助理等,为企业带来益处。 一、语言模型构件 应用程序生成、理解和使用人类语言的能力正变得越来越重要,从客服机器人到虚拟助手,再到内容生成,人们对AI应用功能的需求横跨众多领
2023-09-18 11:26:49316

Oracle 云基础设施提供新的 NVIDIA GPU 加速计算实例

生成AI 和大语言模型(LLM)不断推动突破性创新,训练和推理对算力的需求也随之急剧上升。 这些现代生成AI 应用需要全栈加速计算,首先要有能够快速、准确处理大量工作负载的先进基础设施
2023-09-25 20:40:02269

NVIDIA 扩展机器人平台,迎接生成AI 的崛起

基于 NVIDIA Jetson 平台进行开发的 1 万多家公司现在可以利用全新的生成AI、API 和微服务来加快推进行业数字化     强大的生成AI 模型、云原生应用程序接口( API
2023-10-19 17:16:24121

NVIDIA 扩展机器人平台,迎接生成AI 的崛起

务已应用于边缘。 生成AI 正在将 Transformer 模型和大语言模型的强大力量带到各行各业,应用范围现已扩展到边缘、机器人和物流系统相关领域,如缺陷检测、实时资产追踪、自主规划和导航以及人机交互等。 NVIDIA 今日宣布,对适用于边缘 AI 和机器人的  NVIDIA Jetson  平台上的两个框
2023-10-20 02:05:02320

NVIDIA AI 现已在 Oracle Cloud Marketplace 推出

OCI 在业内率先扩展了企业对 NVIDIA DGX 云 AI 超级计算平台NVIDIA AI Enterprise 软件的访问权限。 训练生成AI 模型变得更容易了。 NVIDIA DGX
2023-10-24 10:30:02206

周四研讨会预告 | 注册报名 NVIDIA AI Inference Day - 大模型推理线上研讨会

由 CSDN 举办的 NVIDIA AI Inference Day - 大模型推理线上研讨会,将帮助您了解 NVIDIA 开源大型语言模型(LLM)推理加速库 TensorRT-LLM  及其功能
2023-10-26 09:05:02174

现已公开发布!欢迎使用 NVIDIA TensorRT-LLM 优化大语言模型推理

NVIDIA 于 2023 年 10 月 19 日公开发布 TensorRT-LLM ,可在 NVIDIA GPU 上加速和优化最新的大语言模型(Large Language Models)的推理
2023-10-27 20:05:02478

硅谷:设计师利用生成AI 辅助芯片设计

芯片工程师展示了一个高度专业化的行业如何使用 NVIDIA NeMo 来定制大语言模型,以获得竞争优势。     10 月 31 日,NVIDIA       发布的一篇研究论文描述了生成AI
2023-11-01 14:45:08141

全新NVIDIA Spectrum-X网络平台构筑阿里生成AI云底座

全新 NVIDIA Spectrum-X 网络平台构筑阿里生成AI 云底座。
2023-11-02 09:07:25300

利用 NVIDIA Jetson 实现生成AI

上以交互速率运行的 Llama-2-70B 模型。 图 1. 领先的生成AI 模型在  Jetson AGX Orin 上的推理性能 如要在 Jetson 上快速测试最新的模型和应用,请使用 Jetson 生成AI 实验室提供的教程和资源。
2023-11-07 21:25:01398

NVIDIA 为全球领先的 AI 计算平台 Hopper 再添新动力

Tensor Core GPU 和领先的显存配置,可处理生成AI 与高性能计算工作负载的海量数据。   NVIDIA H200 是首款采用 HBM3e 的 GPU,其运行更快、更大的显存容量将进一步加速生成AI 与大语言模型,同时
2023-11-14 14:30:0185

SC23 | NVIDIA 为全球领先的 AI 计算平台 Hopper 再添新动力

再添新动力。 NVIDIA H200 是首款采用 HBM3e 的 GPU,其运行更快、更大的显存容量将进一步加速生成AI 与大语言模型,同时推进用于 HPC 工作负载的科学计算。凭借 HBM3e
2023-11-14 20:05:01269

NVIDIA 在 Microsoft Azure 上推出面向全球企业和初创公司的 生成AI Foundry 服务

Models、NVIDIA NeMo™ 框架和工具,以及 NVIDIA DGX™ 云 AI 超算服务三大要素,为企业提供创建自定义生成AI 模型
2023-11-16 14:13:08116

NVIDIA 在 Microsoft Azure 上推出面向全球企业和初创公司的生成AI Foundry 服务

AI Enterprise 软件进行部署 NVIDIA 于今日推出一项 AI foundry 服务,助力企业和初创公司在 Microsoft Azure 上开发、调优和部署其自定义生成AI
2023-11-16 21:15:02270

NVIDIA 加快企业自定义生成AI 模型开发

的业务数据进行自定义。 如今,免费、开源的大语言模型对企业来说就像是一顿“自助餐”。但对于构建自定义生成AI 应用的开发者来说,这顿“大餐”可能会让他们应接不暇,因为他们需要满足各种不同的项目和业务
2023-11-16 21:15:02312

NVIDIA 通过企业级生成AI 微服务 为聊天机器人、AI 助手和摘要工具带来商业智能

— 太平洋时间 2023 年 11 月 28 日 — NVIDIA 今日宣布推出一项生成AI 微服务,支持企业将自定义大语言模型与企业数据相连接,使其 AI 应用能够提供高度准确的响应
2023-11-29 14:37:12121

NVIDIA 通过企业级生成AI 微服务为聊天机器人、AI 助手和摘要工具带来商业智能

微服务,支持企业将自定义大语言模型与企业数据相连接,使其 AI 应用能够提供高度准确的响应。 NVIDIA NeMo Retriever 是 NVIDIA NeMo (一个用于构建、自定义和部署生成
2023-11-29 21:05:02340

NVIDIA 为部分大型亚马逊 Titan 基础模型提供训练支持

GPU 和海量的数据集上所训练而成。 不过这可能会给想要使用生成AI 的企业带来很多巨大的挑战。 NVIDIA NeMo (一个用于构建、自定义和运行 LLM 的框架)能够帮助企业克服上述挑战
2023-11-29 21:15:02295

语言模型简介:基于大语言模型模型全家桶Amazon Bedrock

本文基于亚马逊云科技推出的大语言模型生成AI的全家桶:Bedrock对大语言模型进行介绍。大语言模型指的是具有数十亿参数(B+)的预训练语言模型(例如:GPT-3, Bloom, LLaMA)。这种模型可以用于各种自然语言处理任务,如文本生成、机器翻译和自然语言理解等。
2023-12-04 15:51:46356

安霸发布全新N1系列生成AI芯片

安霸在CES 2024上发布了全新的N1系列生成AI芯片,这是一款专门为前端设备设计的芯片,支持本地运行大型语言模型(LLM)应用。其单颗SoC能够支持1至340亿参数的多模态大模型(Multi-Modal LLM)推理,从而实现低功耗的生成AI功能。
2024-01-09 15:32:54602

NVIDIA即将推出一项新的生成AI专业认证

NVIDIA 即将推出一项新的生成AI 专业认证,助力开发者在这一重要领域证明自身技术实力。
2024-03-14 09:43:34286

NVIDIA推出微服务,助力企业迈向生成AI

NVIDIAAI 平台用于任何高瞻远瞩的企业使用,而且比以往任何时候都更加易于应用。
2024-03-21 09:39:27109

NVIDIA Isaac将生成AI用于制造业和物流业

NVIDIA Isaac 机器人平台利用最新的生成AI 和先进的仿真技术,加速 AI 机器人技术的发展。
2024-03-22 10:06:2156

已全部加载完成