0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

HPC的基本配置方法

工程师邓生 来源:老猫电磁馆 作者:高频嗨肺嘶 2022-09-21 09:10 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

1.HPC基本配置方法(本方法不适用于SIwave)

软件安装完成后,用户就可以使用软件进行建模、仿真计算了。但是,若要充分调用计算机的资源,还需对HPC并行计算进行一定的配置。

1.1.HPC的类型

HPC license分为两种,HPC与HPC Pack,它们在软件中的配置方法,略有区别。

1.2.HPC类型的配置

打开软件菜单栏,选择ToolsOptionsHPC and Analysis Options,打开如下对话框,选中“Options”选项卡,见下图。 图中蓝色部分“HPC License”项,包含“Pool”、“Pack”与“None”三个子选项。HPC License对应于“Pool”,HPC Pack对应于“Pack”。选择与License匹配的类型即可。

a662b320-38ce-11ed-ba43-dac502259ad0.png

1.3.本地电脑Local的多处理器设置

1)打开软件菜单栏,选择ToolsOptionsHPC and Analysis Options,打开如下对话框,默认为“Configurations”选项卡。

a67df5ea-38ce-11ed-ba43-dac502259ad0.png

2)点击“Edit”,打开Local设置对话框,设置CPU总数与task任务数(分的域数)。 设置的CPU总数不大于license授权文件支持的CPU数量,也不能超出计算机硬件的CPU数量。

关于license授权文件支持的CPU数量,请与对应的ANSYS销售人员确认。

a69b518a-38ce-11ed-ba43-dac502259ad0.png

1.4.远程调用服务器的多处理器设置(RSM)

1)打开软件菜单栏,选择ToolsOptionsHPC and Analysis Options,打开如下对话框,点击“Add”。

a6a5af18-38ce-11ed-ba43-dac502259ad0.png

2)为本次HPC配置取个名字,通过添加服务器名称、IP地址等,将服务器加入到列表中,并设置总的CPU数;分的域数可手动添加,也可选择自动设置选项。

a6bc65e6-38ce-11ed-ba43-dac502259ad0.png

3)通过点击“Test”,测试远程服务器的设置是否成功。

a6e10b94-38ce-11ed-ba43-dac502259ad0.png

4)点击“OK”,回到HPC设置中的“Configurations”选项卡,通过“Make Active”,可以在Local与远程调用服务器之间进行切换。

a6f505cc-38ce-11ed-ba43-dac502259ad0.png

1.5.完成HPC的基本配置

通过HPC的基本配置,可以实现本地电脑与RSM远程调用的多CPU并行运算,以及域分解提高求解效率。必须说明的是,RSM远程调用,本地电脑并不参与运算求解,而只显示操作界面。

如果需要实现多电脑分布式并行运算,以求解更大更复杂的问题,我们需要进行高级HPC设置,即MPI的配置方法(仅适用于HFSS)。

2.HPC高级配置 (仅HFSS) —— Message Passing Interface (MPI)

MPI即消息传递接接口,是目前使用最为广泛的实现并行计算的一种方式。在消息传递模型中,计算由一个或者多个进程构成,进程间的通信通过调用库函数发送和接收消息来完成。通信是一种协同的行为。

ANSYS EM Suite 16.0包含两种MPI方式,即IBM Platform MPI与Intel MPI。用户可以自由选择,取其中一种即可。

MPI配置前的准备工作

对于需要参加分布式并行运算的电脑, 1)都必须拥有一个相同的用户名以及相同的密码,该用户属性必须为管理员账户; 2)要确保每一台电脑都安装了相同版本的ANSYS EM 软件,而且软件都安装在相同的目录下(建议默认安装路径); 3)各电脑之间是相互连通的,即“ping”命令可以在任意两台电脑间成功执行,并完成数据的收发。

2.1.Intel MPI安装与配置

2.1.1.运行ANSYS EM Suite安装包的“autorun.exe”,进入安装界面

a70719c4-38ce-11ed-ba43-dac502259ad0.png

2.1.2.选择“Install Distributed Simulation Technologies”,打开如下界面

a72cab62-38ce-11ed-ba43-dac502259ad0.png

2.1.3.点击“InstallIntel MPI”,选择解压目录,进入MPI安装界面

a73d746a-38ce-11ed-ba43-dac502259ad0.png

2.1.4.点击“下一步”,按照默认安装设置

a75233b4-38ce-11ed-ba43-dac502259ad0.png

2.1.5.最后点击“完成”

a77286f0-38ce-11ed-ba43-dac502259ad0.png

2.1.6.通过ANSYS EM软件的安装目录找到“wmpiregister.exe“文件,以管理员身份运行,打开注册对话框。

具体的文件目录,可参考如下位置 “C:Program FilesAnsysEMAnsysEM16.0Win64commonfluent_mpimultiportmpiwin64intelin”。

a79146ee-38ce-11ed-ba43-dac502259ad0.png

2.1.7.输入域名和多机共有的用户名,若多机同域,域名可省略;另外,注册成功后,会显示成功提示信息“Password encrypted into the Registry“。

a7a3f654-38ce-11ed-ba43-dac502259ad0.png

2.1.8.在所有参加分布式计算的计算机上,重复步骤5.1.1至5.1.7,完成Intel MPI的配置。

2.2.IBM Platform MPI 安装与配置

2.2.1.运行ANSYS EM Suite安装包的“autorun.exe”,进入安装界面

2.2.2.选择“Install Distributed Simulation Technologies”,打开如下界面

a7b4dd52-38ce-11ed-ba43-dac502259ad0.png

2.2.3.选择“Install IBM Platform MPI”,进入MPI安装界面

a7e961e4-38ce-11ed-ba43-dac502259ad0.png

2.2.4.选择安装目录,默认即可

2.2.5.选择对应操作系统“for Windows XP/2003/Vista/2008/7”,如下图

a7fb0e4e-38ce-11ed-ba43-dac502259ad0.png

2.2.6.安装至下图时,切记勾选项要全部选中

a81b54a6-38ce-11ed-ba43-dac502259ad0.png

2.2.7.默认安装直至最后完成

a83894f8-38ce-11ed-ba43-dac502259ad0.png

2.2.8.开始/运行/cmd,打开DOS命令窗口

2.2.9.利用cd命令,将当前路径切换至如下目录

C:Program FilesAnsysEMAnsysEM16.0win64commonfluent_mpimultiportmpi win64pcmpiin(软件默认安装情况下)

2.2.10.运行命令“mpidiag–s <你的计算机名> -at -cache”,注册密码

命令是将用户本机(用于界面操作与并行设置的本地电脑,控制并行运算)的信息添加至MPI信息中。 具体操作,见下图示例。其中“beigcao”为本地用户的个人PC,注册的密码为多机共有用户名对应的密码。注册成功后会返回一条信息,并给出共有的用户名“gcao”。

a8564e12-38ce-11ed-ba43-dac502259ad0.png

2.2.11.重复步骤5.2.1至5.2.10,在每一台参加运算的电脑上配置一次(除计算机名外,与图中配置完全一致),以实现最终的多机并行。

2.2.12.完成IBM Platform MPI的配置。

2.3.CPU资源配置

首先,获取所有参加并行计算的电脑名称与CPU数量,找开HFSS中的多处理器设置选项卡。具体操作请参照步骤4.4。 其次,添加各个电脑名称,并配置每个电脑的CPU总数与分的域数。

最后,本地电脑应作为主节点,位置应在最前方。 手动方式与自动方式的两种配置结果,可参照下图。(图中为两台电脑并行计算,Local与beitech01)

a87202a6-38ce-11ed-ba43-dac502259ad0.pnga88d1f5a-38ce-11ed-ba43-dac502259ad0.png

2.4.Profile中查看多机并行运算的过程

打开一个工程文件,将求解器由默认的“Direct Solver”更改为“Domain Decomposition”,即域分解法,进行仿真计算。多机并行可在Profile中查看。

a8a9fe54-38ce-11ed-ba43-dac502259ad0.png

2.5.MPI配置完成

当仿真中看到步骤5.4的结果时,就说明MPI配置成功。

需要注意的是,步骤5.4中而我们看到的有5个域,而其实共有6个域。这是因为作为主节点的本地电脑Beitech04,其中一个域用来进行整体仿真的控制,即作了头节点。

MPI配置成功之后,用户可根据自己仿真资源消耗的情况,自由选择由几台电脑并行计算;本地电脑也可只操作而不参加并行运算等。




审核编辑:刘清

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 多处理器
    +关注

    关注

    0

    文章

    22

    浏览量

    9195
  • HPC
    HPC
    +关注

    关注

    0

    文章

    342

    浏览量

    24825
  • HFSS软件
    +关注

    关注

    0

    文章

    8

    浏览量

    12687

原文标题:HFSS软件的HPC基本配置方法

文章出处:【微信号:微波仿真论坛,微信公众号:微波仿真论坛】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    TE Connectivity HPC 350A BESS连接器技术解析与应用指南

    TE Connectivity HPC 350A电池储能系统(BESS) 连接器专注于通过单极350A/1500V大电流连接器提供高安全可靠的解决方案。这些HPC 350A连接器采用一体式成型触点
    的头像 发表于 11-02 17:59 1164次阅读

    新思科技测试IO方案加速HPC和AI芯片量产

    为实现更高性能目标,AI与HPC芯片设计正加速向芯粒架构演进。但是传统单片机SOC已经很难在尺寸上继续扩张,异构集成已成为推动半导体创新的核心动力。然而,它也增加了芯片设计的复杂性,需要更先进的测试
    的头像 发表于 10-15 11:33 536次阅读
    新思科技测试IO方案加速<b class='flag-5'>HPC</b>和AI芯片量产

    【产品介绍】Altair PBS Professional HPC工作负载管理器和作业调度管理系统

    AltairPBSProfessional行业领先的HPC工作负载管理器和作业调度管理系统PBSProfessional是一款快速、强大的工作负载管理器和作业调度管理系统,旨在提高生产力、优化利用率
    的头像 发表于 09-19 17:03 381次阅读
    【产品介绍】Altair PBS Professional <b class='flag-5'>HPC</b>工作负载管理器和作业调度管理系统

    澎峰科技邀您相约CCF HPC China 2025

    第21届CCF全国高性能计算学术年会(CCF HPC China 2025) 将于 2025年8月13日至16日在承载千年风华的历史名城鄂尔多斯盛大举办。
    的头像 发表于 08-07 11:33 1013次阅读

    50%新型HPC拥抱多芯片设计:性能飞跃的新篇章

    在当今这个数据爆炸的时代,高性能计算(HPC)已经成为推动科技进步、产业升级和经济社会发展的重要力量。从天气预报、基因测序到新能源开发、航空航天,HPC的应用领域日益广泛,对计算性能的需求也日益增长
    的头像 发表于 03-03 11:34 800次阅读
    50%新型<b class='flag-5'>HPC</b>拥抱多芯片设计:性能飞跃的新篇章

    康佳特推出高性能COM-HPC模块conga-HPC/cBLS

    德国康佳特,作为嵌入式和边缘计算技术的领先供应商,近日宣布扩展其高性能COM-HPC计算机模块产品线,推出了全新的conga-HPC/cBLS模块。这款模块专为需要强大计算性能的边缘与基础设施
    的头像 发表于 02-08 16:49 900次阅读

    HPC工作负载管理的关键要素

    HPC工作负载管理是一个复杂而精细的过程,涉及资源分配、作业调度、性能监控与优化以及故障处理与恢复等多个关键要素。下面,AI部落小编带您了解HPC工作负载管理的关键要素。
    的头像 发表于 02-08 09:53 532次阅读

    康佳特发布高性能COM-HPC模块

    德国康佳特近日宣布扩展其高性能COM-HPC计算机模块产品线,推出全新的conga-HPC/cBLS模块。该模块专为需要强大计算性能的边缘计算与基础设施应用而设计,旨在满足市场上对高性能、高可靠性
    的头像 发表于 02-05 18:21 1236次阅读

    HPC云计算的技术架构

    HPC云计算结合了HPC的强大计算能力和云计算的弹性、可扩展性,为用户提供了按需获取高性能计算资源的便利。下面,AI部落小编带您了解HPC云计算的技术架构。
    的头像 发表于 02-05 14:51 689次阅读

    HPC按需计费模式的优势

    当下,HPC按需计费模式不仅降低了用户的经济负担,提高了资源利用效率,还推动了科技创新的普及和发展。以下,是对HPC按需计费模式优势的梳理,由AI部落小编整理。
    的头像 发表于 01-24 09:55 635次阅读

    康佳特推出全新COM-HPC模块

    德国领先的嵌入式和边缘计算技术供应商康佳特,近日宣布扩展其高性能COM-HPC计算机模块产品线,推出了全新的conga-HPC/cBLS模块。该模块专为需要强大计算能力的边缘与基础设施应用而设计,采用了英特尔酷睿S系列处理器(代号为Bartlett Lake S)的性能混
    的头像 发表于 01-23 15:33 1201次阅读

    云计算HPC软件关键技术

    云计算HPC软件关键技术涉及系统架构、处理器技术、操作系统、计算加速、网络技术以及软件优化等多个方面。下面,AI部落小编带您探讨云计算HPC软件的关键技术。
    的头像 发表于 12-18 11:23 797次阅读

    云计算和HPC的关系

    尽管云计算和HPC在架构、应用场景和成本效益等方面存在显著差异,但云计算和HPC之间并非孤立存在,而是相互补充、协同发展的关系。下面,AI部落小编带您探讨云计算和HPC的关系。
    的头像 发表于 12-14 10:35 661次阅读

    ADC07D1520评估板的FMC接口是HPC的对吗?

    您好,ADC07D1520评估板的FMC接口是HPC的对吗?可以连接具有LPC接口的FPGA板子吗?
    发表于 12-13 14:56

    ADC的FMC接口协议支持VITA 57.1 FMC1 HPC CONNECTOR吗?

    ADC芯片评估板的FMC接口协议支持VITA 57.1 FMC1 HPC CONNECTOR吗?
    发表于 12-13 14:03