0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

大模型时代的OCR,“CPU” 的味道更重了

英特尔中国 来源:未知 2023-07-08 14:25 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

金磊 杨净 发自 凹非寺
量子位 | 公众号 QbitAI

经典技术OCR光学字符识别),在大模型时代下要“变味”了。

怎么说?

我们都知道OCR这个技术在日常生活中已经普及开了,像各类文件、身份证、路标等识别,可以说统统都离不开它。

而随着近几年大模型的不断发展,OCR也迎来了它的“新生机”——

凭借自身可以将文本从图片、扫描文档或其他图像形式提取出来的看家本领,成为大语言模型的一个重要入口

在这个过程中,一个关键问题便是“好用才是硬道理”

过去人们会普遍认为,像OCR这种涉及图像预处理、字符分割、特征提取等步骤的技术,堆GPU肯定是首选嘛。

不过朋友,有没有想过成本和部署的问题?还有一些场景甚至连GPU资源都没得可用的问题?

这时又有朋友要说了,那CPU也不见得很好用啊。

不不不。

现在,大模型时代之下,CPU或许还真是OCR落地的一种新解法。

例如在医保AI业务中,在CPU的加持之下,医疗票据识别任务的响应延时指标,在原有基础上提升达25倍

799cdaca-1d55-11ee-962d-dac502259ad0.png
数据来源:英特尔合作伙伴

为什么会有如此大的转变?

一言蔽之,因为此前做OCR任务的时候,CPU的计算潜能并没有完全释放出来。

OCR,进入CPU时代

那么到底是谁家的CPU,能让经典OCR产生这般变化。

不卖关子。

它正是来自英特尔第四代至强可扩展处理器

据了解,第四代至强可扩展处理器增加了每个时钟周期的指令,每个插槽多达60个核心,支持8通道DDR5内存。

在内存宽带方面实现了50%的性能提升,并通过每PCIe 5.0(80个通道)实现了2 倍的PCIe带宽提升,整体可实现60%的代际性能提升。

但解锁如此能力的,可不仅仅是一颗CPU这么简单,是加成了英特尔软件层面上的优化;换言之,就是“软硬一体”后的结果。

而且这种打法也不是停留在PPT阶段,而是已经实际用起来的那种。

例如国内厂商用友便在自家OCR业务中采用了这种方案。

79f10032-1d55-11ee-962d-dac502259ad0.png

性能比较上,用友在第三/第四代英特尔至强可扩展处理器上进行了算法对比,推理性能提升达优化前的3.42倍

7a0a3d5e-1d55-11ee-962d-dac502259ad0.png

而在INT8量化后的性能更是提升到原来的7.3倍

7a1bef9a-1d55-11ee-962d-dac502259ad0.png

值得一提的是,OCR的响应时间直接降低到了3秒以内,还是切换架构不影响业务,用户无感知的那种。

除了用友之外,像亚信科技在自家OCR-AIRPA方案中,也是采用了英特尔的这套打法。

与用友类似的,亚信科技实现了从FP32到INT8/BF16的量化,从而在可接受的精度损失下,增加吞吐量并加速推理。

从结果上来看,相比传统人工方式,成本降到了1/5到1/9之间,而且效率还提升了5-10倍。

由此可见,释放了AI加速“洪荒之力”的CPU,在OCR任务上完全不亚于传统GPU的方案。

那么问题来了:

英特尔是如何释放CPU计算潜力的?

实际应用过程中,企业通常选择自己使用CPU来做OCR处理,但由于缺乏对CPU硬件加速和指令集的了解,就会发现CPU处理性能与理想峰值相差甚远,OCR程序也就没有得到很好的优化。

至于以往更常见的GPU解决方案,始终存在着成本和部署的难题。一来成本通常较高,且很多情况下,业务现场没有GPU资源可以使用。

但要知道OCR本身应用广泛、部署场景多样,比如公有云、私有云,以及边缘设备、终端设备上……而且随着大模型时代的到来,作为重要入口的OCR,更多潜在场景将被挖掘。

于是,一种性价比高、硬件适配性强的解决方案成为行业刚需。

既然如此,英特尔又是如何解决这一痛点的呢?

简单归结:第四代至强可扩展处理器及其内置的AI加速器,以及OpenVINO 推理框架打辅助

当前影响AI应用性能的要素无非两个:算力和数据访问速度。第四代至强可扩展处理器的单颗CPU核数已经增长到最高60核。

而在数据访问速度上,各级缓存大小、内存通道数、内存访问速度等都有一定程度的优化,另外部分型号还集成了HBM高带宽内存技术。

7a936b24-1d55-11ee-962d-dac502259ad0.png

此外,在CPU指令集上也做了优化,内置了英特尔高级矩阵扩展(英特尔AMX)等硬件加速器,负责矩阵计算,加速深度学习工作负载。

这有点类似于GPU里的张量核心Tensor Core)

AMX由两部分组成,一部分是1kb大小的2D寄存器文件,另一部分是TMUL模块,用来执行矩阵乘法指令。

7aa88ed2-1d55-11ee-962d-dac502259ad0.png

它可同时支持INT8和BF16数据类型,且BF16相较于FP32计算性能更优。

有了AMX指令集加持,性能比矢量神经网络指令集VNNI提升达8倍。

7ace93ca-1d55-11ee-962d-dac502259ad0.png

除了核心硬件平台外,实际情况中帮助OCR在CPU上落地的,还有推理框架OpenVINO

市面上大部分AI框架都是同时支持训练和推理,OpenVINO则是删减了很多训练部分所需的冗余计算,主要支持推理部分。

而且也是专门针对英特尔硬件打造的优化框架。框架替换也不复杂,只需5行代码就可以完成原有框架的替换。

用户可以针对不同业务场景,来优化OpenVINO运行参数

比如用友OCR业务涉及文字检测和文字识别两个AI模型,优化方向有所不同。

前者对单次推理要求高,后者需要整个系统吞吐量的优化,那么OpenVINO分别采用单路同步模式和多路异步模式。单一模块优化后,再针对整体流程的优化。

这样一套软硬件组合拳打下来,英特尔充分释放了CPU计算潜力,在实际场景中也实现了与GPU同等性能。

不再是你以为的CPU

以往谈到AI加速、AI算力,大众经常想到的就是GPU,又或者是专用TPU。

至于通用架构芯片CPU,受到计算单元和内存带宽的限制,始终无法适应于计算数据庞大的深度学习。

但现在的CPU,已经不再是“你以为的你以为”了:

它可以深入到各个行业当中,轻松Hold住各种场景应用。

尤其在AMX加速引擎加持下,能将深度学习训练和推理性能提升高达10倍。

比如,媒体娱乐场景中,能帮助个性化内容推荐速度提升达6.3倍;零售行业里,能将视频分析速度提升高达至2.3倍,还有像工业缺陷检测、医疗服务也都能从容应对。

即便是在前沿探索领域,CPU也已经成为不容忽视的存在:

像是在生命科学和医药方向,在某些场景下的表现效果甚至比GPU还要好。

英特尔用CPU速刷AlphaFold2,结果力压AI专用加速芯片,去年发布的第三代至强可扩展处理器经过优化后就能使其端到端的通量足足提升到了原来的23.11倍。今年基于第四代至可扩展处理器再次把性能提升到了上一代产品的3.02倍。

7ae3a3f0-1d55-11ee-962d-dac502259ad0.png

不过要实现CPU加速,背后也并非简单的硬件优化。

而是软硬件融合协同,从底层到应用的一整套技术创新,以及产业链上合作伙伴的支撑。

随着大模型时代的到来和深入,这种解决思路也正在成为共识。

像一些大模型玩家要实现大模型优化和迭代,并不能依靠以往单纯三驾马车来解决,而是需要从底层芯片到模型部署端到端的系统优化。

在算力加速层面的玩家,一方面摆脱不了摩尔定律的极限,另一方面要在应用场景中充分释放计算潜力,就需要与软件适配快速部署。

有意思的是,在最近OCR主题的《至强实战课》中,英特尔人工智能软件架构师桂晟曾这样形容英特尔的定位:

英特尔不仅仅是一个硬件公司,同时也拥有着庞大的软件团队。

在整个人工智能生态中,不论是从底层的计算库,到中间的各类组件,框架和中间件,再到上层的应用,服务和解决方案都有英特尔软件工程师的参与。

7af9aed4-1d55-11ee-962d-dac502259ad0.png

CPU加速,不再是你以为的加速。英特尔,也不再是以往所认知中的硬件公司。

但如果你以为英特尔只有CPU来加速AI,那你又单纯了。

针对AI的专用加速芯片HabanaGaudi 2即将迎来首秀;而通用加速芯片,同时兼顾科学计算和AI加速的英特尔数据中心GPU Max系列也刚刚结束了它在阿贡实验室Aurora系统中的部署,即将走近更多客户。

以这些多样化、异构的芯片为基石,英特尔也将形成更全面的硬件产品布局,并配之以跨异构平台、易用的软件工具组合(oneAPI为整个应用链上的合作伙伴及客户提供应用创新的支持,为各行各业AI应用的开发、部署、优化和普及提供全方位支持。

了解更多英特尔如何显著提升OCR性能,可点击文末【阅读原文】。

更多《至强实战课》相关内容,欢迎扫描如下海报中的二维码注册观看:

7b177b3a-1d55-11ee-962d-dac502259ad0.jpg


声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 英特尔
    +关注

    关注

    61

    文章

    10275

    浏览量

    179289
  • cpu
    cpu
    +关注

    关注

    68

    文章

    11216

    浏览量

    222930

原文标题:大模型时代的OCR,“CPU” 的味道更重了

文章出处:【微信号:英特尔中国,微信公众号:英特尔中国】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    小语种OCR标注效率提升10+倍:PaddleOCR+ERNIE 4.5自动标注实战解析

    与一致性校验,实现高精度、低成本的小语种OCR训练数据生成。该方案将数据准备周期 从数周缩短至数小时 ,为小语种模型的快速迭代与冷启动提供全新范式 一、引言:小语种OCR的“数据之困
    的头像 发表于 08-29 11:26 3271次阅读
    小语种<b class='flag-5'>OCR</b>标注效率提升10+倍:PaddleOCR+ERNIE 4.5自动标注实战解析

    【嘉楠堪智K230开发板试用体验】+OCR实现

    =[1920,1080],display_size=[1920,1080],debug_mode=0): # OCR检测模型路径 self.ocr_det_kmodel=ocr_det
    发表于 08-23 18:53

    【EASY EAI Orin Nano开发板试用体验】PP-OCRV5文字识别实例搭建与移植

    用PP-OCRV5,首先就是要安装PaddlePaddle 3.0(飞桨)和PaddleOCR 3.0(飞桨OCR模型),这两个软件要通过Python进行安装,这里为了省事,我直接在别的ARM64开发板(野火
    发表于 08-18 16:57

    如何利用OCR技术实现高效集装箱箱号识别?

    在现代物流和海关监管领域,快速准确地识别集装箱箱号是提升通关效率、降低运营成本的关键。OCR(光学字符识别)技术的应用,为这一需求提供智能化解决方案。通过结合高清成像设备和先进的算法,OCR技术
    的头像 发表于 08-12 10:48 550次阅读
    如何利用<b class='flag-5'>OCR</b>技术实现高效集装箱箱号识别?

    【HZ-T536开发板免费体验】3 - Cangjie Magic调用视觉语言大模型(VLM)真香,是不是可以没有YOLO和OCR

    感谢电子发烧友和合众恒跃提供的试用机会。 引言 上次我们已经实现交叉编译仓颉编程语言的程序在开发板上运行。今天我们会交叉编译Cangjie Magic程序到开发板上。Cangjie Magic是一
    发表于 08-01 22:15

    端侧OCR文字识别实现 -- Core Vision Kit ##HarmonyOS SDK AI##

    制),我发送出去的base64是不全的。 总之,传统方法做ocr流程上比较复杂,而原生鸿蒙开发提供端侧AI的能力,其中就包括“Core Vision Kit(基础视觉服务)”,即与图片识别相关的AI能力
    发表于 06-30 18:07

    OCR识别训练完成后给的是空压缩包,为什么?

    OCR识别 一共弄26张图片,都标注好了,点击开始训练,显示训练成功,也将压缩包发到邮箱,下载下来后,压缩包里面是空的 OCR图片2
    发表于 05-28 06:46

    模型时代的深度学习框架

    作者:算力魔方创始人/英特尔创新大使刘力 在 CNN时代 ,AI模型的参数规模都在百万级别,仅需在单张消费类显卡上即可完成训练。例如,以业界知名的CNN模型: ResNet50 为例,模型
    的头像 发表于 04-25 11:43 654次阅读
    大<b class='flag-5'>模型</b><b class='flag-5'>时代</b>的深度学习框架

    模型预标注和自动化标注在OCR标注场景的应用

    OCR,即光学字符识别,简单来说就是利用光学设备去捕获图像并识别文字,最终将图片中的文字转换为可编辑和可搜索的文本。在数字化时代OCR(光学字符识别)技术作为处理图像中文字信息的关键手段,其标注
    的头像 发表于 04-15 15:18 710次阅读

    使用OpenVINO优化并部署飞桨PP-OCRv4模型

    作者:算力魔方创始人/英特尔创新大使刘力 一,什么是PaddleOCR工具库? PaddleOCR 旨在打造一套丰富、领先、且实用的 OCR 工具库,助力开发者训练出更好的模型,并应用落地。在
    的头像 发表于 04-03 18:07 2242次阅读
    使用OpenVINO优化并部署飞桨PP-OCRv4<b class='flag-5'>模型</b>

    请问为什么模型加载时间比CPU长?

    为什么模型加载时间比 CPU 长?
    发表于 03-06 06:03

    飞腾CPU成功支持DeepSeek全系列大模型

    成功实现对DeepSeek全系列大模型的端到端支持。 这一成就不仅覆盖了数据中心场景,还全面扩展到了终端场景,标志着国产CPU在AI大模型应用方面取得了又一重要突破。据悉,DeepS
    的头像 发表于 02-10 14:26 1025次阅读

    龙芯3号CPU成功运行DeepSeek R17B模型

    。 此次成功适配,不仅彰显龙芯中科在自主研发领域的强大实力,更为构建自主可控的人工智能技术生态奠定坚实的基础。龙芯3号CPU作为国产芯片的优秀代表,其高效性能与DeepSeek R17B
    的头像 发表于 02-08 09:15 1243次阅读

    【「大模型启示录」阅读体验】+开启智能时代的新钥匙

    好久没有得到书籍的试读机会了,很幸运此次能有机会试读这本《大模型启示录》首先这是一本很新的书,2024年9月才出版,电子发烧友论坛还很温馨的在扉页空白处标明赠书。 怀着满心的期待,我迫不及待地开始
    发表于 12-24 13:10