0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

使用加速WEKA加速机器学习模型

星星科技指导员 来源:NVIDIA 作者:NVIDIA 2022-08-15 17:27 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

近年来,建筑业和采用机器学习( ML )工具。使用 GPU 加速计算日益密集的模型已成为一个突出的趋势。

为了增加用户访问,加速 WEKA 项目通过集成开源 RAPIDS 库,为在知名的 WEKA 算法中使用 GPU 提供了一个可访问的入口点。

在这篇文章中,我们将向您介绍加速 WEKA ,并学习如何使用 WEKA 软件利用图形用户界面( GUI )的 GPU 加速算法。这种 Java 开源替代方案适合于从不同环境或包中寻找各种 ML 算法的初学者。

什么是加速 WEKA ?

加速 WEKA 将WEKA软件(一种著名的开源 Java 软件)与利用 GPU 缩短 ML 算法执行时间的新技术相结合。针对没有系统配置和编码专业知识的用户,它有两个好处:易于安装和指导 ML 任务的配置和执行的 GUI 。

加速 WEKA 是一个可用于 WEKA 的软件包集合,它可以扩展以支持新的工具和算法。

什么是急流?

RAPIDS是一组开源 Python 库,供用户在 NVIDIA GPU 上开发和部署数据科学工作负载。流行的库包括用于 GPU 加速数据帧处理的 cuDF 和用于 GPU 加速机器学习算法的 cuML 。 RAPIDS API 尽可能符合 CPU 对应项,例如 pandas 和scikit-learn。

%1 : %2 加速的 WEKA 架构

加速 WEKA 的构建块是WekaDeeplearning4j和wekaRAPIDS(受wekaPython启发)等包。 WekaDeeplearning4j ( WDL4J )已经支持 GPU 处理,但在库和环境配置方面有非常特殊的需求。 WDL4J 为 Deeplearning4j 库提供了 WEKA 包装。

对于 Python 用户, weka Python 最初通过创建服务器并通过套接字与之通信来提供 Python 集成。有了它,用户可以在 WEKA 工作台内执行 scikit learn ML 算法(甚至XGBoost)。此外, weka RAPIDS 通过在 wekaPython 中使用相同的技术提供与 RAPIDS cuML 库的集成。

总之,这两个包在用户友好的 WEKA 工作台内提供了增强的功能和性能。加速 WEKA 通过改进 JVM 和 Python 解释器之间的通信,在性能方面更进一步。它通过使用 Apache Arrow 和 GPU 内存共享等替代方法来实现这两种语言之间的高效数据传输。

加速 WEKA 还提供了与 RAPIDS cuML 库的集成,该库实现了在 NVIDIA GPU 上加速的机器学习算法。一些 cuML 算法甚至可以支持多 GPU 解。

支持的算法

加速 WEKA 目前支持的算法有:

线性回归

物流回归

山脊

套索

弹性网

MBSGD 分类器

MBSGDRegressor 公司

多项式 nb

伯努林

高斯 B

随机森林分类器

随机森林采伐

静止无功补偿器

SVR 公司

LinearSVC

Kneighbors 回归器

Kneighbors 分类器

多 GPU 模式下加速 WEKA 支持的算法有:

Kneighbors 回归器

Kneighbors 分类器

线性回归

山脊

套索

弹性网

多项式 nb

光盘

使用加速 WEKA GUI

在加速 WEKA 设计阶段,一个主要目标是使其易于使用。以下步骤概述了如何在系统上进行设置,并提供了一个简单的示例。

有关更多信息和全面入门,请参阅文档。加速 WEKA 的唯一先决条件是在系统中安装Conda。

加速 WEKA 的安装可通过提供包和环境管理的系统 Conda 获得。这种能力意味着一个简单的命令可以安装项目的所有依赖项。例如,在 Linux 机器上,在终端中发出以下命令以安装加速 WEKA 和所有依赖项。

conda create-n accelweka-c rapidsai-c NVIDIA -c conda forge-c waikato weka

Conda 创建环境后,使用以下命令将其激活:

激活时

这个终端实例刚刚加载了加速 WEKA 的所有依赖项。使用以下命令启动 WEKA GUI 选择器:

韦卡

图 1 显示了 WEKA GUI 选择器窗口。从那里,单击 Explorer 按钮访问 Accelerated WEKA 的功能。

poYBAGL6EmWAdcHGAAHjhG3QMT8517.png

图 1 。 WEKA GUI 选择器窗口。这是启动 WEKA 时出现的第一个窗口

在 WEKA Explorer 窗口(图 2 )中,单击 Open file 按钮以选择数据集文件。 WEKA 使用 ARFF 文件,但可以从 CSV 中读取。根据属性的类型,从 CSV 转换可能非常简单,或者需要用户进行一些配置。

pYYBAGL6EmyAbx2uAAChQtx9148264.png

图 2 :在 WEKA Explorer 窗口中,用户可以导入数据集,检查有关属性的统计信息,并在预处理时对数据集应用过滤器

加载了数据集的 WEKA Explorer 窗口如图 3 所示。假设不想预处理数据,单击“分类”选项卡将向用户显示分类选项。

poYBAGL6EnOACReOAAB-lGnhXdI816.png

图 3 。加载数据集的 WEKA Explorer 窗口。加载数据集(从 ARFF 文件或 CSV 文件)后,属性名称显示在左侧。有关选定属性的信息显示在右上角。在右下角可以看到一个图表,其中包含根据所选属性的类分布

分类选项卡如图 4 所示。单击“选择”按钮将显示已实现的分类器。由于数据集的特性,有些可能被禁用。要使用加速 WEKA ,用户必须选择急流。积云分类器。之后,单击粗体 CuMLClassifier 将使用户转到分类器的选项窗口。

pYYBAGL6ErKAEXbSAAB-aSQVWxA067.png

图 4 。在 WEKA 分类选项卡中,用户可以配置分类算法和测试选项,这些选项将在使用之前选择的数据集的实验中使用

图 5 显示了 CuMLClassifier 的选项窗口。使用字段 RAPIDS 学习器,用户可以在软件包支持的分类器中选择所需的分类器。现场学习者参数用于修改 cuML 参数,其详细信息可在cuML documentation中找到。

其他选项用于用户微调属性转换,配置要使用的 Python 环境,并确定算法应操作的小数位数。为了学习本教程,请选择随机林分类器,并将所有内容保留为默认配置。单击“确定”将关闭窗口并返回到上一个选项卡。

poYBAGL6EquAIS1wAAFEbTj-YWg228.png

图 5 。通过 WEKA 分类器配置窗口,用户可以配置所选分类器的参数。在这种情况下,它显示了新集成的 CuMLClassifier 选项和所选的 RandomForestClassifier 学习器

根据上一步配置分类器后,参数将显示在选择按钮旁边的文本字段中。单击开始后, WEKA 将开始使用数据集执行所选分类器。

图 6 显示了分类器的作用。分类器输出显示有关实验的调试和一般信息,例如参数、分类器、数据集和测试选项。状态显示执行的当前状态,底部的 Weka 鸟在实验运行时从一侧动画并翻转到另一侧。

pYYBAGL6EqSAJqAaAADlQP47HEw622.png

图 6 。 WEKA 分类选项卡,所选分类算法正在进行中

算法完成任务后,将输出执行摘要,其中包含有关预测性能和所用时间的信息。在图 7 中,输出显示了使用从 cuML 到 CuMLClassifier 的 RandomForestClassifier 进行 10 倍交叉验证的结果。

poYBAGL6EpuAHWgbAAFVg-KSSfs812.png

图 7 。实验完成后的 WEKA 分类选项卡

基准测试加速 WEKA

我们评估了加速 WEKA 的性能,比较了算法在 CPU 上的执行时间和使用加速 WEKA 的执行时间。实验中使用的硬件是 i7-6700K 、 GTX 1080Ti 和具有四个 A100 GPU 的 DGX 站。除非另有说明,否则基准测试使用单个 GPU 。

我们使用具有不同特征的数据集作为基准。其中一些是合成的,用于更好地控制属性和实例,如 RDG 和 RBF 生成器。 RDG 生成器基于决策列表构建实例。默认配置有 10 个属性, 2 个类,最小规则大小为 1 ,最大规则大小为 10 。我们将最小值和最大值分别更改为 5 和 20 。使用该生成器,我们创建了具有 1 、 2 、 5 和 1000 万个实例的数据集,以及具有 20 个属性的 500 万个实例。

RBF 生成器为每个类创建一组随机中心,然后通过获取属性值中心的随机偏移来生成实例。属性的数量用后缀 a _ uu 表示(例如, a5k 表示 5000 个属性),实例的数量用后缀 n _ u 表示(例如, n10k 表示 10000 个实例)。

最后,我们使用了HIGGS 数据集,其中包含有关原子加速器运动学特性的数据。希格斯数据集的前 500 万个实例用于创建希格斯粒子。

显示了 weka RAPIDS 积分的结果,其中我们直接比较了基线 CPU 执行和加速 weka 执行。 WDL4J 的结果如表 5 所示。

pYYBAGL6EeGAS91-AABqaRDDsAk357.png



该基准测试表明,加速 WEKA 为具有较大数据集的计算密集型任务提供了最大的好处。像 RBFa5k 和 RBFa5kn1k 这样的小数据集(分别拥有 100 个和 1000 个实例)呈现出糟糕的加速,这是因为数据集太小,无法使将内容移动到 GPU 内存的开销值得。

这种行为在 A100 (表 4 )实验中很明显,其中架构更为复杂。使用它的好处开始在 100000 个实例或更大的数据集上发挥作用。例如,具有 100000 个实例的 RBF 数据集显示了约 3 倍和 4 倍的加速,这仍然不太明显,但显示出了改进。更大的数据集,如 covertype 数据集(约 700000 个实例)或 RBFa50n1m 数据集( 100 万个实例),分别显示了 56X 和 271X 的加速。请注意,对于深度学习任务,即使使用 GTX 1080Ti ,加速也可以达到 20 倍以上。

关键要点(与行动要求挂钩)

加速 WEKA 将帮助您使用激流为 WEKA 增压。加速 WEKA 有助于 RAPIDS 的高效算法实现,并具有易于使用的 GUI 。使用 Conda 环境简化了安装过程,从一开始就可以直接使用加速 WEKA 。

如果您使用 AcceleratedWEKA ,请在社交媒体上使用标签“ AcceleratedWEKA ”。此外,请参阅 文档 以获取在学术工作中引用加速 WEKA 的正确出版物,并了解有关该项目的更多详细信息。

加速 WEKA

WEKA 在 GPL 开源许可证 下免费提供,因此加速了 WEKA 。事实上, Accelerated WEKA 是通过 Conda 提供的,用于自动安装环境所需的工具,对源代码的添加将发布到 WEKA 的主包中。

关于作者

Albert Bifet 是特议会联盟特马哈拉艾研究所所长。他是一位计算机科学家,主要兴趣领域是数据流及其应用的人工智能/机器学习。他是 MOA 机器学习软件的核心开发者,拥有 150 多篇关于机器学习方法及其应用的出版物。

Guilherme Weigert Cassales 自 2021 以来一直是人工智能研究所的博士后研究员,同年他在圣卡洛斯联邦大学( UFSCar )获得了计算机科学博士学位。他的研究兴趣包括数据流的机器学习、分布式系统和高性能计算。

自 2021 以来,Justin Liu 一直是人工智能研究所的研究程序员。他在该行业有十多年的软件开发经验。他的兴趣包括机器学习、大规模数据处理和 ML 操作。

审核编辑:郭婷

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • cpu
    cpu
    +关注

    关注

    68

    文章

    11223

    浏览量

    223080
  • 加速器
    +关注

    关注

    2

    文章

    837

    浏览量

    39740
  • gpu
    gpu
    +关注

    关注

    28

    文章

    5108

    浏览量

    134504
  • 机器学习
    +关注

    关注

    66

    文章

    8541

    浏览量

    136267
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    利用NVIDIA Cosmos开放世界基础模型加速物理AI开发

    NVIDIA 最近发布了 NVIDIA Cosmos 开放世界基础模型(WFM)的更新,旨在加速物理 AI 模型的测试与验证数据生成。借助 NVIDIA Omniverse 库和 Cosmos,开发者可以大规模生成基于物理学的合
    的头像 发表于 12-01 09:25 572次阅读

    硬件加速模块的时钟设计

    硬件加速模块需要四个时钟,分别为clk_l , clk_r , clk_c , clk_n 。 clk_l : 整个硬件加速模块为了最大化的节约时间成本而采用了类似处理器的流水线设计,具体上将每一层
    发表于 10-23 07:28

    NVIDIA 利用全新开源模型与仿真库加速机器人研发进程

    科研人员及开发者打造功能更强大、适应性更强的机器人。   全新的 NVIDIA Isaac GR00T 开源基础模型将为机器人赋予接近人类的推理能力,使其能够拆解复杂指令,并借助已有知识与常识执行任务
    的头像 发表于 09-30 09:52 2791次阅读
    NVIDIA 利用全新开源<b class='flag-5'>模型</b>与仿真库<b class='flag-5'>加速</b><b class='flag-5'>机器</b>人研发进程

    成都汇阳投资关于大模型白热化,应用加速分化

           大模型加速多模态研发 ,闭源模型逐步逆袭开源 多模态技术路线尚未收敛 , 国内外大模型厂商持续刷新 SOAT。 图片领域 ,GPT-4o 图像生成功能引发热潮后 ,谷
    的头像 发表于 09-09 09:30 723次阅读

    Cognizant加速AI模型企业级开发

    全球最先进的AI/机器学习模型 新泽西州蒂内克2025年7月31日 /美通社/ -- Cognizant(纳斯达克股票代码:CTSH)今日宣布推出AI Training Data Services,该
    的头像 发表于 07-31 17:25 600次阅读

    FPGA在机器学习中的具体应用

    随着机器学习和人工智能技术的迅猛发展,传统的中央处理单元(CPU)和图形处理单元(GPU)已经无法满足高效处理大规模数据和复杂模型的需求。FPGA(现场可编程门阵列)作为一种灵活且高效的硬件
    的头像 发表于 07-16 15:34 2648次阅读

    模型推理显存和计算量估计方法研究

    ,如乘法、加法等; (2)根据各层计算操作的类型和复杂度,确定每层所需的计算量; (3)将各层计算量相加,得到模型总的计算量。 基于硬件加速的算力估计 随着硬件加速技术的发展,许多深度学习
    发表于 07-03 19:43

    NVIDIA Cosmos加速机器人和自动驾驶汽车物理AI发展

    NVIDIA Cosmos 通过可预测未来世界状态的世界基础模型加速物理 AI 的发展。
    的头像 发表于 04-24 11:01 957次阅读
    NVIDIA Cosmos<b class='flag-5'>加速</b><b class='flag-5'>机器</b>人和自动驾驶汽车物理AI发展

    NVIDIA Isaac GR00T N1开源人形机器人基础模型+开源物理引擎Newton加速机器人开发

    NVIDIA Isaac GR00T N1开源人形机器人基础模型+开源物理引擎Newton加速机器人开发
    的头像 发表于 03-20 16:56 1301次阅读

    DeepSeek大模型受行业热捧,加速AI应用迭代

    DeepSeek大模型的诞生在行业内掀起了巨大波澜,吸引了众多券商及上市公司的关注。近期,多家机构纷纷宣布,无论是硬件还是软件方面,都将接入DeepSeek,旨在加速其AI应用产品的迭代升级。 这一
    的头像 发表于 02-14 14:14 1059次阅读

    机器学习模型市场前景如何

    当今,随着算法的不断优化、数据量的爆炸式增长以及计算能力的飞速提升,机器学习模型的市场前景愈发广阔。下面,AI部落小编将探讨机器学习
    的头像 发表于 02-13 09:39 633次阅读

    中国电提出大模型推理加速新范式Falcon

    近日,中国电信翼支付针对大模型推理加速的最新研究成果《Falcon: Faster and Parallel Inference of Large Language Models through
    的头像 发表于 01-15 13:49 1478次阅读
    中国电提出大<b class='flag-5'>模型</b>推理<b class='flag-5'>加速</b>新范式Falcon

    在NVIDIA BlueField-3 DPU上运行WEKA客户端的实际优势

    WEKA是可扩展软件定义数据平台的先驱,NVIDIA 正在与其合作,将 WEKA 先进的数据平台解决方案与功能强大的NVIDIA BlueField DPU相结合。
    的头像 发表于 01-07 09:43 1071次阅读
    在NVIDIA BlueField-3 DPU上运行<b class='flag-5'>WEKA</b>客户端的实际优势

    《具身智能机器人系统》第10-13章阅读心得之具身智能机器人计算挑战

    阅读《具身智能机器人系统》第10-13章,我对具身智能机器人的工程实践有了全新认识。第10章从实时性角度剖析了机器人计算加速问题。机器人定位
    发表于 01-04 01:15

    【「具身智能机器人系统」阅读体验】2.具身智能机器人大模型

    近年来,人工智能领域的大模型技术在多个方向上取得了突破性的进展,特别是在机器人控制领域展现出了巨大的潜力。在“具身智能机器人大模型”部分,作者研究并探讨了大
    发表于 12-29 23:04