企业号介绍

全部
  • 全部
  • 产品
  • 方案
  • 文章
  • 资料
  • 企业

颖脉Imgtec

Imagination为图形、视觉和AI处理授权市场领先的处理器解决方案,基于其 IP的产品被全球数十亿人用于他们的手机、汽车、住宅和工作。

690 内容数 99w+ 浏览量 19 粉丝

颖脉Imgtec文章

  • 中国信通院发布2025年数字孪生十大关键词2025-12-11 14:03

    数字孪生作为一种综合技术应用正在各行各业深化应用,先后经历从可视化走向智能体、从局部试点迈向全域协同发展。2025年12月4日,第二届数字孪生技术与产业发展大会暨场景培育与开放创新大会在苏州举办。会上,中国信息通信研究院(简称“中国信通院”)产业与规划研究所副所长牟春波正式发布并解读“2025年数字孪生十大关键词”,十大关键词分别是数字孪生低空经济、数字孪生
    低空经济 数字孪生 838浏览量
  • PowerVR上的LLM加速:LLM性能解析2025-12-10 08:34

    作者:AlexPim,Imagination软件架构Fellow在Imagination,我们致力于加速大语言模型在日常设备上的运行。在本系列关于大语言模型性能与加速的两篇博客的首篇中,我们将介绍关键性能指标:首次生成Token时间(TTFT)与Token间延迟(ITL)。在下一篇文章中,我们将分享如何在ImaginationGPU上实现高效的Llama.c
    AI LLM powervr 414浏览量
  • 一文读懂LSTM与RNN:从原理到实战,掌握序列建模核心技术2025-12-09 13:56

    在AI领域,文本翻译、语音识别、股价预测等场景都离不开序列数据处理。循环神经网络(RNN)作为最早的序列建模工具,开创了“记忆历史信息”的先河;而长短期记忆网络(LSTM)则通过创新设计,突破了RNN的核心局限。今天,我们从原理、梯度推导到实践,全面解析这两大经典模型。一、基础铺垫:RNN的核心逻辑与痛点RNN的核心是让模型“记住过去”——通过隐藏层的循环连
    LSTM rnn 神经网络 1901浏览量
  • 为啥 AI 计算速度这么惊人?—— 聊聊 GPU、内存与并行计算2025-12-05 14:35

    提到AI,大家常说它“算得快”,其实是指AI能在眨眼间处理海量数据。可它为啥有这本事?答案就藏在“GPU+高速内存+并行计算”这trio(组合)里。咱们可以把AI要处理的数据,想象成一大堆“小任务”。比如一张图片里的每个像素、一段语音里的每段声波、一句话里的每个词,都得单独拿出来计算。而且这些任务可不是几十个,而是几百万、几亿甚至更多,数量特别惊人。CPUG
    AI gpu 内存 并行计算 1150浏览量
  • 为云游戏打造定制显卡2025-12-04 11:29

    根据GrandviewResearch的预测,到2030年全球云游戏市场将超过200亿美元,其中亚太地区将占据约45%的市场机会。然而,目前主流的GPU解决方案主要是为数据中心计算而设计的,并不适用于云游戏独特的经济模型。云游戏的盈利能力依赖于在保持高质量用户体验的前提下,每颗GPU能支持的高并发用户数量。对于正在开发云游戏硬件的公司而言,选择合适的GPUI
    云游戏 显卡 664浏览量
  • 汽车中的GPU是如何使用的?2025-12-03 14:45

    (HMI)的发展尤为迅猛。随着电子电气架构(EEA)的集中化,车辆对高性能计算能力的需求显著提升,GPU(图形处理单元)的灵活性、可扩展性以及高效并行计算能力,使其成为支持这些创新应用的核心组件。我们从GPU在汽车中的应用场景及其具体需求出发,深入探讨了GPU对汽车行业发展的影响,并对未来趋势提出了关键判断。1、GPU计算在汽车中的应用场景GPU在汽车领域的
    gpu 自动驾驶 9713浏览量
  • 并行智能体:洞察复杂系统的 14 种并发设计模式2025-12-02 15:07

    在AI智能体的世界中,速度、质量和可靠性不仅仅是特性,它们是必备条件。一个单一、顺序执行的智能体可能速度慢、容易出错,并且解决问题的能力有限。解决方案是采用并行思维:设计一个系统,让多个智能体、流程或任务可以同时执行,以实现共同的目标。大规模的智能体系统通常受到两个主要因素的瓶颈:I/O延迟:等待网络、数据库和外部API调用。质量与可靠性:单一的推理路径可能
    AI 复杂系统 智能体 766浏览量
  • 如何通过交替式几何处理实现更优的多核 GPU 扩展2025-12-01 10:12

    在理论上,通过增加更多GPU核心来提升性能似乎很简单:核心越多,性能越强。但在实践中,这是图形架构领域最棘手的挑战之一。虽然某些工作负载因其独立特性能实现良好扩展,但另一些工作负载(尤其是几何处理)会引入顺序依赖性,使得线性性能扩展成为业界所有GPU架构都难以攻克的难题。为什么多核GPU性能扩展如此困难?现代GPU的优势来自高度并行化,但并不是所有任务都能做
    API gpu imagination 793浏览量
  • 一文看懂AI大模型的并行训练方式(DP、PP、TP、EP)2025-11-28 08:33

    大家都知道,AI计算(尤其是模型训练和推理),主要以并行计算为主。AI计算中涉及到的很多具体算法(例如矩阵相乘、卷积、循环层、梯度运算等),都需要基于成千上万的GPU,以并行任务的方式去完成。这样才能有效缩短计算时间。搭建并行计算框架,一般会用到以下几种常见的并行方式:DataParallelism,数据并行PipelineParallelism,流水线并行
    AI大模型 DP ep pp TP 2092浏览量
  • Imagination亮相Aspencore CEO Summit:E系列GPU实力获奖,深度参与行业对话2025-11-27 09:18

    11月25日Imagination受邀参加AspencoreCEOSummit。在这场汇聚行业领袖与技术先锋的年度盛会上,我们带来了两大亮点:ESeriesGPU荣获“Aspencore年度EDA/IP”大奖参与高峰圆桌论坛,分享对数模融合与计算创新的洞察本次参与,不仅展示了ESeriesGPU的架构优势,也为我们在EdgeAI方向的技术布局建立了更丰富的交
    AI gpu imagination 700浏览量