0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

AI大模型引发算力变革,英特尔与百度联合发起飞桨+文心大模型硬件生态共创计划 ,加速大模型开发与落地

英特尔中国 来源:未知 2023-08-19 11:15 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

8月16日,英特尔在Wave Summit 2023深度学习开发者大会上,携第四代英特尔 至强可扩展处理器、英特尔oneAPI 和英特尔发行版OpenVINO人工智能全栈软硬件解决方案,与众多人工智能专家学者和开发者深入交流,展示了英特尔AI的端到端能力。

同时,英特尔正式宣布与百度联合发起飞桨+文心大模型硬件生态共创计划,双方将共同推进在英特尔硬件上与飞桨+文心大模型的适配。此项计划将进一步拓展双方在大模型领域的合作,并构建更加高效、完整的AI生态,助力大模型的落地应用。

d619b4d6-3e3d-11ee-ac96-dac502259ad0.png

以大语言模型为代表的人工智能技术在全球掀起科技和产业创新浪潮,加速产业升级和经济增长。我们也在积极探索英特尔数据中心GPU 和HabanaGaudi2 在大语言模型领域的合作机会,为AI行业创新提供新动力。

—英特尔中国区互联网行业总经理 胡凯

d62821b0-3e3d-11ee-ac96-dac502259ad0.png

飞桨(PaddlePaddle)是百度自主研发的中国首个开源开放、功能丰富的产业级深度学习平台,是百度“芯片-框架-模型-应用”全栈技术布局的重要组成部分,与芯片层深度适配与融合优化,并高效支撑以文心一言为代表的文心大模型的生产与应用。当前飞桨已凝聚800万开发者,广泛服务于金融、能源、制造、交通等领域。而文心大模型是百度产业级知识增强大模型,以“知识增强”为特色,引入知识图谱,将数据与知识融合,提升了学习效率及可解释性。

近年来,英特尔与百度飞桨已经进行了长期深入的技术合作,并取得了丰硕成果。从2017年开始,不断拓展双方合作的深度和广度,双方成立了联合技术团队实现英特尔AI加速软件栈与飞桨的持续集成,从硬件上积极适配全系列英特尔至强可扩展处理器AI产品。在软件层面,通过英特尔oneAPI 深度神经网络库 (英特尔oneDNN )调用英特尔AVX-512、英特尔深度学习加速(英特尔DL Boost )、英特尔高级矩阵扩展AMX(英特尔Advanced Matrix Extensions)等底层加速技术,对百度飞桨中 NLP,CV 等各类别模型和框架进行了深度优化。例如百度ERNIE 3.0轻量化版本ERNIE-Tiny 模型,基于英特尔软硬件的联合优化,性能获得了显著的提升。

在大模型方面,英特尔计划推出针对至强可扩展处理器平台高度优化的大语言模型(LLM)推理加速引擎。该加速引擎兼容 Huggingface 等主流的模型格式,支持OPT,LLAMA,ChatGLM,Falcon 等多种主流大语言模型在FP16/BF16/INT8数据格式上的推理加速,可以充分利用至强可扩展处理器平台上的底层硬件加速进行加速,同时具有良好的跨节点扩展性,加速英特尔至强可扩展处理器与飞桨+文心大模型的适配,助力AI算力+大模型算法融合发展。

从 2022.1 版本发布开始,英特尔AI推理工具套件英特尔OpenVINO也正式直接支持飞桨模型,大大提升了模型在英特尔异构硬件上的推理性能和可用性。英特尔OpenVINO与百度飞桨围绕模型构建、优化及部署三个方面的合作不断深入,不仅帮助开发者减少中间环节,还能够让一些大模型在边缘部署成为可能,优化了整个的边缘推理和操作流程。目前,英特尔OpenVINO不仅能够支持飞桨模型在英特尔 CPU 和集成显卡上部署、在英特尔独立显卡上部署,还可以通过一行代码支持飞桨模型在多张独立显卡上部署。英特尔OpenVINO的最新版本也引入对PaddleSlim 量化后模型以及ERNIETiny 模型的直接支持,以实现在英特尔平台上更优异的性能表现。同时,英特尔OpenVINO与百度飞桨持续在社区生态发力,连续三年参与飞桨黑客马拉松,众多PR被合入OpenVINO主代码,并多次开展各类线上线下研讨会、训练营,与百度飞桨共建AI繁荣生态,为 AI 开发者提供全方位支持。

如今生成式人工智能浪潮迭起,大模型逐渐成为新一轮科技革命和产业变革的重要驱动力量,而超级AI算力+大模型算法是此次变革进程中的基础和核心。英特尔与飞桨+文心大模型将持续携手,聚生态之力,共同打造软硬一体的人工智能大模型平台,为人工智能尤其是大模型的快速发展和应用落地提供坚实的基础。

参考资料:

1 测试配置如下:测试配置 1:处理器:双路英特尔 至强 铂金 8358P 处理器,主频 2.6GHz,32 核心 64 线程,睿频开启;内存:512GB DRAM(16x32GB DDR4 3200 MT/s [2933 MT/s]);存储:INTEL_ SSDSC2KG960G8, INTEL_SSDSCKKB480G8;网络适配器:2x Ethernet Controller 10G X550T;BIOS 版本:06.00.01;操作系统版本:Ubuntu 20.04.4 LTS (Kernel:5.8.0-43-generic);GCC 版本:8.4;英特尔 oneDNN 版本:2.6;工作负载:PaddlePaddle 2.3,Ernie-3.0 optimization for INT8;


声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 英特尔
    +关注

    关注

    61

    文章

    10322

    浏览量

    181086
  • cpu
    cpu
    +关注

    关注

    68

    文章

    11327

    浏览量

    225901
  • AI大模型
    +关注

    关注

    0

    文章

    407

    浏览量

    1038

原文标题:AI大模型引发算力变革,英特尔与百度联合发起飞桨+文心大模型硬件生态共创计划 ,加速大模型开发与落地

文章出处:【微信号:英特尔中国,微信公众号:英特尔中国】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    沐曦股份曦云C系列GPU产品Day 0适配百度ERNIE-Image文生图模型

    4月15日,百度模型团队重磅推出ERNIE‑Image文生图模型,沐曦股份曦云 C 系列 GPU 已完成对 ERNIE‑Image 的
    的头像 发表于 04-15 17:39 459次阅读

    海光DCU Day0适配百度ERNIE-Image文生图模型

      今天,百度模型团队发布ERNIE-Image文生图模型,海光DCU同步完成Day0适配与深度调优。全球
    的头像 发表于 04-15 15:47 216次阅读

    瀚博半导体宣布深度参与百度黑客松生态活动

    近日,瀚博半导体正式宣布深度参与百度主办的黑客松生态活动。面向全球开发者开放旗下载天系列加速开发
    的头像 发表于 04-11 09:41 647次阅读

    百度衍生模型PaddleOCR登顶GitHub Star OCR全球第一

    3月30日,百度衍生模型PaddleOCR在GitHub上的Star数突破73.3K,超越谷歌Tesseract OCR,成为全球Star数最高的OCR项目。
    的头像 发表于 03-31 11:40 446次阅读

    技嘉与趋境科技联合部署AMaaS平台 推动本地大模型应用加速落地

    在生成式AI加速走向实际应用的当下,大模型部署正从“可体验”迈向“可落地、可管理、可应用”。作为技嘉面向本地AI场景打造的重要产品,
    的头像 发表于 03-12 15:11 200次阅读
    技嘉与趋境科技<b class='flag-5'>联合</b>部署AMaaS平台 推动本地大<b class='flag-5'>模型</b>应用<b class='flag-5'>加速</b><b class='flag-5'>落地</b>

    百度模型5.0正式版上线

    今天,在百度Moment大会现场,模型5.0正式版上线。
    的头像 发表于 01-23 16:48 1488次阅读

    百度模型X1.1正式发布

    今天,在WAVE SUMMIT深度学习开发者大会2025上,模型X1.1正式发布,在事实性、指令遵循、智能体等能力上均提升显著。
    的头像 发表于 09-10 11:08 2345次阅读

    硬件与应用同频共振,英特尔Day 0适配腾讯开源混元大模型

    于OpenVINO™ 构建的 AI 软件平台的可扩展性,英特尔助力ISV生态伙伴率先实现应用端Day 0 模型适配,大幅加速了新
    的头像 发表于 08-07 14:42 1536次阅读
    <b class='flag-5'>硬件</b>与应用同频共振,<b class='flag-5'>英特尔</b>Day 0适配腾讯开源混元大<b class='flag-5'>模型</b>

    科技上线赤兔推理引擎服务,创新解锁FP8大模型

    模型轻量化部署方案。用户通过远程平台预置的模型镜像与AI工具,仅需50%的GPU
    的头像 发表于 07-30 21:44 1046次阅读

    中兴努比亚启动接入百度4.5系列开源大模型

    近日,中兴努比亚启动接入4.5系列开源大模型,为星云智能提供新引擎,共同推动人工智能在AI手机的创新应用,加速
    的头像 发表于 07-15 09:35 1182次阅读

    宁畅与与百度模型展开深度技术合作

    近日,百度正式开源模型4.5系列模型。作为
    的头像 发表于 07-07 16:26 1016次阅读

    龙芯中科与心系列模型开展深度技术合作

              6月30日,4.5系列模型正式开源。龙芯中科在模型开源首日启动技术
    的头像 发表于 07-02 16:53 1480次阅读

    65%央企大模型落地首选百度智能云

    今天,很荣幸地分享一个好消息,百度智能云已牵手65%的央企,共同推进大模型产业落地。得益于全栈的AI能力,百度
    的头像 发表于 06-11 15:44 1025次阅读

    百度模型X1 Turbo获得信通院当前大模型最高评级证书

    百度在520居然还领了个证?是它, 信通院当前大模型最高评级证书 ! 在5月20日的百度AI Day 上,中国信通院公布了大模型推理能力评估
    的头像 发表于 05-21 18:19 1404次阅读
    <b class='flag-5'>百度</b><b class='flag-5'>文</b><b class='flag-5'>心</b>大<b class='flag-5'>模型</b>X1 Turbo获得信通院当前大<b class='flag-5'>模型</b>最高评级证书

    百度发布4.5 Turbo、X1 Turbo和多款AI应用

    近日,Create2025百度AI开发者大会在武汉举办。百度创始人李彦宏发布了
    的头像 发表于 04-30 10:16 1324次阅读