0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

如何能使大模型更好地服务企业和个人

ThunderSoft中科创达 来源:ThunderSoft中科创达 2023-11-03 09:26 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

随着人工智能技术的迅速发展,传统的个人电脑已经面临升级的需求。AI PC时代,如何能使大模型更好地服务企业和个人?中科创达交出了第一份答卷。

近日,中科创达凭借其在终端、边缘计算领域的多年技术沉淀以及在大模型领域的创新探索,利用模型压缩、分布式以及张量并行技术,成功在搭载了高通8系列芯片平台的边缘设备上实现了LLaMA-2 130亿参数模型的稳定运行,成为业内首家取得此突破的大模型企业。这一创举将使得端侧设备能够运行更大参数的模型,同时提高了端侧设备的推理速度,为大模型在端侧的应用奠定了坚实的基础。

模型压缩及张量并行技术提升端侧AI效率

自今年3月份ChatGPT-3对外开放以来,大模型及其应用以极其惊人的发展速度席卷全球,由此带来了对于算力需求的急速攀升。云端算力面临成本和供给压力,无法满足AI算力需求,端侧AI为这一难题提供了解决方案。随着高通、Intel等芯片厂商陆续发布具有更高算力并支持生成式AI的终端芯片,AI PC时代拉开序幕。

AI PC作为终端、边缘与云技术融合的创新产物,具有成本、时延和隐私方面的天然优势,可以作为云端算力的补充。在即将到来的AI PC时代,中科创达将能够充分发挥自身在终端、操作系统、边缘计算、软件以及生态合作方面的优势,助力品牌商和开发者抓住行业转型的契机,为终端用户带来在办公、娱乐、学习等多场景下的更为高效便捷的体验。

边缘AI加速大模型在B端落地应用

此次中科创达的成功实践不仅验证了13B大模型在端侧的落地,也为大模型在边缘的应用打开了新的可能性。以往,大型模型主要在云端进行训练和推理,而现在,边缘设备也能够胜任更大参数的模型。这将为各行各业带来更多的机会和挑战,无论是语音识别、图像处理还是自然语言处理,都能够受益于这一创新。

未来,AI将以端云协同的模式,即云端进行模型训练,而推理则集中在离数据产生距离更近的端侧及边缘侧进行,有效缓解AI算力不足的需求和缺口。由此加速大模型应用在智能驾驶、具身智能、智能家居、智能物联网等场景的落地。

审核编辑:彭菁

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 芯片
    +关注

    关注

    463

    文章

    54412

    浏览量

    469187
  • 高通
    +关注

    关注

    78

    文章

    7747

    浏览量

    200328
  • 人工智能
    +关注

    关注

    1820

    文章

    50314

    浏览量

    266885
  • 大模型
    +关注

    关注

    2

    文章

    3765

    浏览量

    5269

原文标题:AI PC时代,端侧运行130亿参数模型,中科创达是如何做到的?

文章出处:【微信号:THundersoft,微信公众号:ThunderSoft中科创达】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    AI大模型微调企业项目实战课

    API,无异于将企业命脉交由他人掌控。一旦面临网络封锁、服务停机或协议条款变更,企业的智能化进程将瞬间瘫痪。因此,将开源基础大模型“请回自家机房”,通过微调技术注入
    发表于 04-16 18:48

    九天菜菜大模型agent智能体开发实战2026一月班

    地扩展了其能力边界。 大模型 Agent 的应用场景广泛得超乎想象,正深刻改变着各个行业的运行模式。在客户服务领域,智能客服 Agent 能够 24/7 全天候响应客户咨询,通过分析用户行为和偏好,提供
    发表于 04-15 16:04

    模型服务为什么总是爆显存

    模型服务报 CUDA out of memory,很多现场第一反应都是“模型太大,换更大的卡”。这个结论通常过于粗糙。生产里的显存问题至少有五类来源:模型权重本身、KV Cache、
    的头像 发表于 03-11 09:54 478次阅读

    什么是企业服务器-云计算

    企业服务器是指为企业提供的基于云计算技术的服务器解决方案。华纳云是一家云计算服务提供商,为企业
    的头像 发表于 12-29 17:57 1060次阅读

    Microchip推出模型语境协议服务

    为进一步兑现公司为嵌入式工程师开发AI解决方案的承诺,Microchip Technology Inc.(微芯科技公司)今日推出模型语境协议(MCP)服务器。作为AI接口,MCP服务器可直接连接兼容
    的头像 发表于 11-24 15:43 758次阅读

    服务发布配置开发者服务信息

    ://或https://开头的合法URL。此选项仅支持中国大陆企业/个人开发者、海外企业开发者的应用类元服务。 客服电话号码:请使用“国际区号/国内区号-电话号码”的格式,如
    发表于 10-31 17:58

    DeepSeek模型如何在云服务器上部署?

    随着大型语言模型(LLM)的应用日益普及,许多开发者和企业希望将像DeepSeek这样的优秀模型部署到自己的云服务器上,以实现私有化、定制化服务
    的头像 发表于 10-13 16:52 1136次阅读

    何能更好地预测和评估座椅的长期乘坐疲劳度

    长期乘坐疲劳度的精准预测与评估,离不开专业的测试设备、场景模拟能力与数据解析技术。北京沃华慧通测控技术有限公司作为汽车测试领域的资深服务商,可为车企提供 “全周期、定制化” 的座椅长期疲劳度测试解决方案,助力突破 “仅关注瞬间体验” 的局限。从“瞬间惊艳”到“久坐不倦”,是汽车座椅品质的终极飞跃。
    的头像 发表于 10-10 09:05 494次阅读
    如<b class='flag-5'>何能</b><b class='flag-5'>更好</b>地预测和评估座椅的长期乘坐疲劳度

    聆思大模型智能FAE,看得懂技术,答得准问题

    开发者技术支持、电子产品售后服务支持、企业内部文档智能检索 详情请看pdf附件*附件:聆思大模型智能FAE,看得懂技术,答得准问题.pdf
    发表于 09-30 11:29

    Cognizant加速AI模型企业级开发

    全新解决方案旨在帮助企业快速且大规模地构建、微调和实施AI模型。 Cognizant 凭借其作为数据与AI模型训练合作伙伴的深厚经验,继服务于部分领先的数字原生
    的头像 发表于 07-31 17:25 813次阅读

    积算科技上线赤兔推理引擎服务,创新解锁FP8大模型算力

    模型轻量化部署方案。用户通过远程算力平台预置的模型镜像与AI工具,仅需50%的GPU算力即可解锁大模型推理、企业知识库搭建、智能体开发,加速大模型
    的头像 发表于 07-30 21:44 1037次阅读

    超低延时重构AI推理体验!白山云发布“大模型API”产品

    优势,打造超低延时、超稳定、简单易用的API接口服务,降低大模型应用成本和开发门槛,助力企业个人用户快速开启AI创新之旅。专注边缘推理,构建“云边端”算力协同新范
    的头像 发表于 07-02 17:26 1248次阅读
    超低延时重构AI推理体验!白山云发布“大<b class='flag-5'>模型</b>API”产品

    企业部署AI大模型怎么做

    当下,AI大模型已成为驱动决策自动化、服务智能化与产品创新的核心引擎。然而,企业面对动辄数百亿参数的大模型部署时,常陷入算力不足、响应延迟高、成本失控等困境。如何突破瓶颈,实现高效、稳
    的头像 发表于 06-04 09:26 1012次阅读

    FA模型访问Stage模型DataShareExtensionAbility说明

    FA模型访问Stage模型DataShareExtensionAbility 概述 无论FA模型还是Stage模型,数据读写功能都包含客户端和
    发表于 06-04 07:53

    有偿邀请企业个人分析此图,并提供分析报告

    有偿邀请企业个人分析此图,并提供分析报告,
    发表于 06-01 18:40