0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

AI大模型引发算力变革,英特尔与百度联合发起飞桨+文心大模型硬件生态共创计划 ,加速大模型开发与落地

英特尔中国 来源:未知 2023-08-19 11:15 次阅读

8月16日,英特尔在Wave Summit 2023深度学习开发者大会上,携第四代英特尔 至强可扩展处理器、英特尔oneAPI 和英特尔发行版OpenVINO人工智能全栈软硬件解决方案,与众多人工智能专家学者和开发者深入交流,展示了英特尔AI的端到端能力。

同时,英特尔正式宣布与百度联合发起飞桨+文心大模型硬件生态共创计划,双方将共同推进在英特尔硬件上与飞桨+文心大模型的适配。此项计划将进一步拓展双方在大模型领域的合作,并构建更加高效、完整的AI生态,助力大模型的落地应用。

d619b4d6-3e3d-11ee-ac96-dac502259ad0.png

以大语言模型为代表的人工智能技术在全球掀起科技和产业创新浪潮,加速产业升级和经济增长。我们也在积极探索英特尔数据中心GPU 和HabanaGaudi2 在大语言模型领域的合作机会,为AI行业创新提供新动力。

—英特尔中国区互联网行业总经理 胡凯

d62821b0-3e3d-11ee-ac96-dac502259ad0.png

飞桨(PaddlePaddle)是百度自主研发的中国首个开源开放、功能丰富的产业级深度学习平台,是百度“芯片-框架-模型-应用”全栈技术布局的重要组成部分,与芯片层深度适配与融合优化,并高效支撑以文心一言为代表的文心大模型的生产与应用。当前飞桨已凝聚800万开发者,广泛服务于金融、能源、制造、交通等领域。而文心大模型是百度产业级知识增强大模型,以“知识增强”为特色,引入知识图谱,将数据与知识融合,提升了学习效率及可解释性。

近年来,英特尔与百度飞桨已经进行了长期深入的技术合作,并取得了丰硕成果。从2017年开始,不断拓展双方合作的深度和广度,双方成立了联合技术团队实现英特尔AI加速软件栈与飞桨的持续集成,从硬件上积极适配全系列英特尔至强可扩展处理器AI产品。在软件层面,通过英特尔oneAPI 深度神经网络库 (英特尔oneDNN )调用英特尔AVX-512、英特尔深度学习加速(英特尔DL Boost )、英特尔高级矩阵扩展AMX(英特尔Advanced Matrix Extensions)等底层加速技术,对百度飞桨中 NLP,CV 等各类别模型和框架进行了深度优化。例如百度ERNIE 3.0轻量化版本ERNIE-Tiny 模型,基于英特尔软硬件的联合优化,性能获得了显著的提升。

在大模型方面,英特尔计划推出针对至强可扩展处理器平台高度优化的大语言模型(LLM)推理加速引擎。该加速引擎兼容 Huggingface 等主流的模型格式,支持OPT,LLAMA,ChatGLM,Falcon 等多种主流大语言模型在FP16/BF16/INT8数据格式上的推理加速,可以充分利用至强可扩展处理器平台上的底层硬件加速进行加速,同时具有良好的跨节点扩展性,加速英特尔至强可扩展处理器与飞桨+文心大模型的适配,助力AI算力+大模型算法融合发展。

从 2022.1 版本发布开始,英特尔AI推理工具套件英特尔OpenVINO也正式直接支持飞桨模型,大大提升了模型在英特尔异构硬件上的推理性能和可用性。英特尔OpenVINO与百度飞桨围绕模型构建、优化及部署三个方面的合作不断深入,不仅帮助开发者减少中间环节,还能够让一些大模型在边缘部署成为可能,优化了整个的边缘推理和操作流程。目前,英特尔OpenVINO不仅能够支持飞桨模型在英特尔 CPU 和集成显卡上部署、在英特尔独立显卡上部署,还可以通过一行代码支持飞桨模型在多张独立显卡上部署。英特尔OpenVINO最新版本也引入对PaddleSlim 量化后模型以及ERNIETiny 模型的直接支持,以实现在英特尔平台上更优异的性能表现。同时,英特尔OpenVINO与百度飞桨持续在社区生态发力,连续三年参与飞桨黑客马拉松,众多PR被合入OpenVINO主代码,并多次开展各类线上线下研讨会、训练营,与百度飞桨共建AI繁荣生态,为 AI 开发者提供全方位支持。

如今生成式人工智能浪潮迭起,大模型逐渐成为新一轮科技革命和产业变革的重要驱动力量,而超级AI算力+大模型算法是此次变革进程中的基础和核心。英特尔与飞桨+文心大模型将持续携手,聚生态之力,共同打造软硬一体的人工智能大模型平台,为人工智能尤其是大模型的快速发展和应用落地提供坚实的基础。

参考资料

1 测试配置如下:测试配置 1:处理器:双路英特尔 至强 铂金 8358P 处理器,主频 2.6GHz,32 核心 64 线程,睿频开启;内存:512GB DRAM(16x32GB DDR4 3200 MT/s [2933 MT/s]);存储:INTEL_ SSDSC2KG960G8, INTEL_SSDSCKKB480G8;网络适配器:2x Ethernet Controller 10G X550T;BIOS 版本:06.00.01;操作系统版本:Ubuntu 20.04.4 LTS (Kernel:5.8.0-43-generic);GCC 版本:8.4;英特尔 oneDNN 版本:2.6;工作负载:PaddlePaddle 2.3,Ernie-3.0 optimization for INT8;


声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 英特尔
    +关注

    关注

    60

    文章

    9421

    浏览量

    168826
  • cpu
    cpu
    +关注

    关注

    68

    文章

    10442

    浏览量

    206560
  • AI大模型
    +关注

    关注

    0

    文章

    194

    浏览量

    91

原文标题:AI大模型引发算力变革,英特尔与百度联合发起飞桨+文心大模型硬件生态共创计划 ,加速大模型开发与落地

文章出处:【微信号:英特尔中国,微信公众号:英特尔中国】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    华为联合24家企事业单位发起“大模型应用产业联合体”

    创达、软通动力等北京24家企事业单位联合发起“大模型应用产业联合体”。 据悉“大模型应用产业联合体”将依托华为鲲鹏硬底座和软底座,共同探索人
    的头像 发表于 03-02 15:55 1027次阅读

    英特尔模型全适配,大语言模型已成功部署于CPU

    他进一步指出,英特尔作为芯片制造商,始终致力于对“合适尺寸”模型的全面适配。面对大模型领域激烈的市场竞争,每个季度大约有4-5款新模型上市,一旦发现任何新的
    的头像 发表于 12-11 15:41 612次阅读

    华为云发布三大基础方案和AI出海计划 加速模型生态发展

    ,华为云重磅发布了基于盘古大模型打造的三大基础解决方案和华为云AI出海计划。 华为云EI服务产品部部长尤鹏做开场致辞,分享了盘古大模型生态
    的头像 发表于 11-23 11:25 268次阅读

    APUS入驻百度灵境矩阵,普惠AI模型插件能力

    应用生态,在生态搭建过程中,插件与API尤为重要。插件是一种特殊的AI原生应用,也是门槛最低,最容易上手的AI原生应用,而AI原生应用调用基
    的头像 发表于 10-23 10:46 411次阅读
    APUS入驻<b class='flag-5'>百度</b>灵境矩阵,普惠<b class='flag-5'>AI</b>大<b class='flag-5'>模型</b>插件能力

    百度智能云千帆大模型平台应用开发挑战赛正式启动

    模型已经成为未来技术发展方向的重大变革,热度之下更需去虚向实,让技术走进产业场景。在这样的背景下,百度智能云于近期发起了“百度智能云千帆大
    的头像 发表于 09-28 10:35 644次阅读

    中科曙光与百度飞桨共同发起飞桨+文心大模型硬件生态共创计划

    近日,WAVE SUMMIT 2023深度学习开发者大会在北京举行。会上,中科曙光与百度飞桨宣布共同发起飞桨+文心大模型硬件
    的头像 发表于 08-22 09:47 1289次阅读

    安谋科技与百度联合发起飞桨+文心大模型硬件生态共创计划

    近年来,安谋科技与百度飞桨已经在底层架构和硬件层面进行了长期深入的技术合作。安谋科技自研“周易”NPU已经在物联网、智能终端、智能汽车等领域全面落地,并形成了一套完整的工具链及技术服务,可适配100多种算法
    的头像 发表于 08-18 14:57 615次阅读

    生态合作再度升级!昆仑芯已入驻飞桨AI Studio硬件生态专区

    8月16日,昆仑芯在Wave Summit 2023深度学习开发者大会上正式宣布与百度联合发起飞桨+文心大模型硬件
    的头像 发表于 08-18 10:12 1530次阅读

    天数智芯与百度联合发起飞桨+文心大模型硬件生态共创计划

    生态共创计划,天数智芯作为重要合作伙伴参与此次发布仪式。 飞桨+ 文心大模型硬件生态
    的头像 发表于 08-17 22:15 925次阅读
    天数智芯与<b class='flag-5'>百度</b><b class='flag-5'>联合发起飞</b>桨+文心大<b class='flag-5'>模型</b><b class='flag-5'>硬件</b><b class='flag-5'>生态</b><b class='flag-5'>共创</b><b class='flag-5'>计划</b>

    AI模型引发算力变革!NVIDIA 带您直击“Wave Summit 2023 深度学习开发者大会”精彩盛况!

    圆满成功 百度飞桨+文心大模型 硬件生态共创计划隆重发布 在 Wave Summit 2023
    的头像 发表于 08-17 19:15 641次阅读
    <b class='flag-5'>AI</b> 大<b class='flag-5'>模型</b><b class='flag-5'>引发</b>算力<b class='flag-5'>变革</b>!NVIDIA 带您直击“Wave Summit 2023 深度学习<b class='flag-5'>开发</b>者大会”精彩盛况!

    壁仞科技与百度联合发起飞桨+文心大模型硬件生态共创计划

    8月16日, 壁仞科技在Wave Summit 2023深度学习开发者大会上正式宣布与百度联合发起飞桨+文心大模型硬件
    发表于 08-17 10:52 253次阅读
    壁仞科技与<b class='flag-5'>百度</b><b class='flag-5'>联合发起飞</b>桨+文心大<b class='flag-5'>模型</b><b class='flag-5'>硬件</b><b class='flag-5'>生态</b><b class='flag-5'>共创</b><b class='flag-5'>计划</b>

    摩尔线程与百度合作为客户及开发者提供自主创新的软硬件解决方案

    8月16日,摩尔线程在“Wave Summit 2023深度学习开发者大会”上正式宣布与百度联合发起飞桨+文心大模型硬件
    的头像 发表于 08-17 10:36 835次阅读

    MediaTek 联合百度发起飞桨和文心大模型硬件生态共创计划,以 AI模型赋能终端设备

    MediaTek 正式宣布与百度联合发起飞桨和文心大模型硬件生态共创
    的头像 发表于 08-16 17:40 354次阅读
    MediaTek <b class='flag-5'>联合</b><b class='flag-5'>百度</b><b class='flag-5'>发起飞</b>桨和文心大<b class='flag-5'>模型</b><b class='flag-5'>硬件</b><b class='flag-5'>生态</b><b class='flag-5'>共创</b><b class='flag-5'>计划</b>,以 <b class='flag-5'>AI</b> 大<b class='flag-5'>模型</b>赋能终端设备

    英特尔媒体加速器参考软件Linux版用户指南

    英特尔媒体加速器参考软件是用于数字标志、交互式白板(IWBs)和亭位使用模型的参考媒体播放器应用软件,它利用固定功能硬件加速来提高媒体流速、改进工作量平衡和资源利用,以及定制的图形处理
    发表于 08-04 06:34