0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

基于人工智能辅助的立体观测技术

AI智胜未来 来源:AI智胜未来 2023-06-02 16:21 次阅读

海洋具有丰富的资源,不仅是人类赖以生存的物质基础,也是国际政治斗争的重要舞台。作为世界各国关注的重点区域,海洋具有重要的战略地位和极大的经济价值。争夺海洋资源、维护国家海洋权益、保护海洋环境、发展海洋科技已被世界各国列为重大发展战略。

海洋观测与探测是获取海洋信息的重要手段,是海洋经济发展、环境保护、科技创新等活动的基础。一直以来,海洋信息感知能力的缺乏是制约各国海洋科技发展的瓶颈。加强探测技术装备研发,发展创新感知技术,建设海洋立体观测体系,是发展“海洋强国”战略、实现海洋科技创新的重要方向。

当前,随着世界各国海洋事业的迅猛发展,卫星遥感、水下滑翔机(AUG)、水下自主航行器(AUV)、大型潜/浮标等观测技术和设备不断更新,世界各国的海洋观测网络逐步完善。特别是欧美等发达国家,已建立起全球范围的实时海洋观测系统,如ARGO、GOOS、ONC、IOOS、OOI、EMSO、GTMBA等。其中,地转海洋实时观测阵(ARGO)实现了历史上首个全球尺度的上层海洋水文要素的准实时观测。其测量数据的空间范围和精度达到了空前的高度,为全球大洋温盐场研究提供了历史性的难得机遇。另一个值得关注的是全球海洋观测系统(GOOS)。它是由国际组织联合发起的目前全球最大的、综合性最强的海洋观测系统,能为监测气候变化等研究提供全面高质量的观测资料。

相比发达国家,虽然我国的海洋观测体系起步较晚,但依托国家高技术研究发展计划(“863”计划)、国家重点基础研究发展计划(“973”计划),以及“十三五”国家重点研发计划等重点计划以及一系列专项,我国海洋工程与科学技术获得快速发展。我国已基本掌握温盐深剖面仪(CTD)、声学多普勒流速剖面仪(ADCP)、AUV、AUG等观测设备研制的核心技术;布置了各类海洋浮标、调查船、潜水器以及各类海洋观测阵列等固定或移动的观测平台;发射了以可见光探测为主荷载的HY-1A、HY-1B等海洋水色卫星。

目前,我国在南海和西太平洋等核心区域已经初步构建起完整的观测体系。表1总结了我国主要的海底观测网研究项目。图1展示了浙江大学信号空间与信息系统研究所(信号所)“十三五”期间在国家重点研发计划的支持下,牵头研制的南海深海大规模声学层析系统。

5a3bf254-f336-11ed-90ce-dac502259ad0.png 图1 浙江大学牵头研制的南海大规模声学层析系统

该系统包含深海声学层析潜标、倒置式压力回声仪(PIES)、滑翔机等固定与移动节点,于西沙、中沙以东海域约100km×100km×3km立体区域内开展声速场的观测与反演,进行了1个月的应用示范。图2展示了浙大信号所“十三五”期间在国家重点研发计划的支持下,研制的环境自适应采样、声场–动力协同测量及声学协同探测系统,包含8台以上AUV与10台以上滑翔机,观测范围超过10000km2,示范时间1个月以上。

表1 我国现有海底观测网 5a62bd3a-f336-11ed-90ce-dac502259ad0.png5a706b60-f336-11ed-90ce-dac502259ad0.png 图2 浙江大学牵头研制的无人无缆潜水器组网观测、探测系统

上述观测系统的建立,极大地提高了获取海洋数据、感知海洋信息的能力。然而,整体而言,目前的观测体系虽已初具规模,但存在着区域碎片化、信息单一化、时空分辨低质化等问题。另一方面,当前海洋立体观测网的信号处理能力尚不能充分开发观测数据的深层知识,支撑海洋环境的实时精准模拟预报,因此亟需发展面向海洋立体–观测感知体系的先进信号处理理论与技术。

近年来,人工智能AI)、机器学习(ML)的快速发展带来了各个领域技术的革新。值得特别关注的是近期提出的科学人工智能(AIforScience),旨在用AI辅助解决不同领域的科学难题。例如,在材料和化学领域,研究人员利用AI技术预测候选材料的性能,从而加快新材料的研发速度,降低研发成本;在生物领域,深度学习(DL)辅助研究人员进行蛋白质结构的预测,帮助开发全新的生物材料;在数学领域,Nature封面论文报道了深度强化学习方法(DRL)辅助发现降低矩阵乘法运算次数的新方法,具有深远理论意义。

在海洋大数据以及AI发展的驱动下,人工智能与海洋立体观测和探测的应用交叉融通,为未来的数字海洋与水下攻防技术提供了新的研究方向与技术路径。本文在梳理海洋立体观测与探测经典方法的基础上,着重介绍了近年来新发展的AI辅助方法;通过讨论和分析AI方法和传统方法的优缺点,指出发展AI辅助的海洋立体观测与探测方法中亟需解决的关键科学问题及潜在的解决思路,并展望了该领域的发展方向。

一、人工智能辅助的立体观测技术

海洋观测是获取海洋信息的第1步。如何基于已经建立的观测系统,实现对目标区域海洋的高分辨、高准确度信息的快速获取,是很有挑战的科学难题。针对海洋数据具有的空时变化特性,下面从空间和时间这2个角度来讨论现有的海洋观测技术。

⒈空间数据观测

虽然目前的海洋观测系统能够获取大量、准实时的数据,但面对广袤无垠的大海,测量数据依然十分稀疏,且测量的过程往往伴随着一定的噪声。如何根据有噪、稀疏的测量数据快速重建出整个空间的海洋物理场,是一个非常有挑战的逆问题。下面根据使用的不同原理介绍不同的空间物理场重建方法。

⑴利用空间相关性重建

根据地理学第一定律,相似区域的数据在数值上通常很接近。利用这一特性,许多利用空间相关性的插值方法被提出。根据使用的不同原理,这些方法可以分为确定性插值和地统计插值。表2列举了常用的空间插值方法。确定性插值方法通常假设未知点的值是观测值的线性加权组合,通过求解线性方程组或由空间相关性求出加权系数。它的优点是数学模型简单,计算复杂度低,适合应用于信噪比较高且侧重重建速度的场景。在海洋工程学方面,KITSIOUS等人使用反距离权重插值对海洋中不同生态指数的空间分布进行预测;RIDGWAY等人提出了一种基于局部加权最小二乘拟合的四维海洋插值方法,对不同海域的物理和化学参数进行了估计。

表2 常用的空间插值方法 5aa7f800-f336-11ed-90ce-dac502259ad0.png

地统计插值的代表方法为克里金方法。与确定性插值类似,克里金方法也假设未知点的值是观测值的线性加权组合;但不同的是,克里金方法的加权系数是基于空间统计学,结合优化方法求得。具体而言,克里金方法假设物理场是二阶平稳的高斯过程,通过确保估计无偏且误差的方差最小来确定加权系数。

理论分析表明,基于统计理论的克里金方法可以给出最佳线性无偏估计(BLUP),插值效果通常比确定性插值方法更好。另外,克里金方法给出的预测不确定性的定量描述也可以帮助下游任务的决策。但传统的克里金方法也存在一些缺点:没有考虑观测噪声,在信噪比低时效果较差;需要根据实际数据手动选择合适的变异模型,且模型中的参数由最小二乘确定,容易被异常值影响;计算复杂度为立方阶,不适合应用于大规模的场景。

同样,AI方法可以在一定程度上辅助解决传统插值方法遇到的问题。从机器学习的角度,克里金可以看成是机器学习中的高斯过程回归(GPR)的特殊形式。高斯过程回归不仅建模了噪声,而且建模空间相关性的核函数(KernelFunction)的参数可以通过最大化证据函数(EvidenceFunction)从数据中学习,因此性能比克里金方法更好,但计算复杂度一样高。

CAVIEDES等人利用GPR进行二维声速场的重建并提出了一种具有物理意义的核函数,达到了比传统基于线性回归的重建方法更优异的性能。近期也有一些工作通过近似方法降低了高斯过程回归的计算复杂度,使其能在大规模的场景应用。传统插值方法中线性以及平稳的假设在实际情况中不一定满足,而深度学习具有良好的建模非线性的能力,因此近期有研究工作将深度学习和克里金方法结合起来,在某些情况取得了更好的效果。另外,LI与HEAP分析了影响各类空间插值方法性能的因素,研究了机器学习与传统插值的结合方法,并为不同方法的应用提供了建议。

总的来说,海洋空间物理场重建的关键在于寻找高表示力与高泛化力的数学模型以精准刻画立体区域内的动态关系。未来的研究中,如何巧妙结合张量模型、高斯过程与神经网络分别在多维、数据自适应与非线性建模的优势,探索最优化的建模与重建,是重要的研究课题。

⑵利用表征模型重建

除了空间相关性,从历史或者模式数据中学习到的规律也能帮助重建。具体而言,可以利用表征模型从历史数据中学习出一组基函数,从而将重建问题转化为求解基函数系数的问题。数学上,引入表征模型可以使待求参数的数量大大减少,从而降低了求解欠定的重建问题的难度。从贝叶斯的角度理解,学习出的基函数可以为重建问题提供一定的先验信息,从而减少需要从观测数据中获得的信息量,使问题求解更加容易。因此,解决重建问题可以从获得良好的表征模型入手。

目前常用的表征学习方法为经验正交函数(EOF)方法。该方法的基函数是从数据中学习得到,因此相比通用的傅里叶基或小波基等基函数能更好地表示和训练集具有相似性质的数据,展现了数据驱动的表征学习方法的优异性能。

从机器学习的角度,EOF方法和机器学习中的主成分分析(PCA)具有相同的理论性质和数学表达。因此,可以进行非线性降维的PCA的变种例如核PCA(KPCA)等方法理论上表征能力更强。另外,有研究人员引入计算机视觉领域的字典学习(DL)方法来表征声速,相比EOF方法在相同重建误差下需要的系数更少。

传统的表征方法都假设数据是二维的,因此没有考虑海洋数据多维度的相关性。针对海洋声速场的多维特性,张量模型,作为向量/矩阵模型向多维表征的拓展,具有天然的建模优势。近期研究通过剖析经典声速表征基函数(如EOF等)的数学本质,首次发现几类经典基函数的推导可以统一在张量分解模型的框架下。张量建模的统一视角在理论上解释了几类经典基函数的作用机理与表征性能,并提供了更高性能的基函数学习框架。在此工作的启发下,CHEN等人提出了三维声速的张量字典学习方法,进一步提升了表征性能;JI等人探讨了机器学习中的基函数与海洋现象(中尺度涡)物理模型的关联,并发展中尺度涡定制化的高性能表征模型。

尽管张量建模的可行性与优越性得到了初步的验证,但是具有最优表示力与环境自适应的模型尚未开发。如何利用海洋数据多维的相关性,从现有表征模型中提取深层次的先验信息帮助重建,是未来重要的研究方向。

⒉时序数据观测

目前应用最广泛的获取大面积、长时序海洋数据的方法为数据同化(DA),下面介绍它的主要思想。从物理学的角度,海洋数据与海水的物理特性存在紧密的联系,例如海水中的声速是温度、盐度和深度的函数。而这些物理参数随时间的变化规律符合海洋动力学,可以用偏微分方程(PDE)来描述。随着超级计算机技术的不断发展,数值模式逐渐成为研究海洋动力过程的重要工具。

给定合适的初始条件和边界条件后,数值模式就能给出时空连续变化的海洋过程。然而,描述流体运动规律的方程本身具有强非线性,初始条件和边界条件的误差会在模式运行过程中不断累积,导致最终模拟的结果与实际观测产生较大的偏差。数据同化技术的核心思想就是将观测数据与数值模式有效结合,以观测数据校正模式误差,使数值模式能够更好地反应实际海洋动力过程。现有的模式包括混合坐标大洋环流模式(HYCOM)、有限体积海岸海洋模型(FVCOM)等,它们各自有适用的范围和计算方法。

根据不同的原理,目前的数据同化方法大致可分为基于统计理论的统计方法和基于控制论的变分方法。表3总结了常见的数据同化方法。

表3 常见的数据同化方法 5ab5ac3e-f336-11ed-90ce-dac502259ad0.png

总的来说,数据同化方法可以引入领域知识(DomainKnowledge)先验,包括海洋动力学中的物理定律和从历史数据中学习到的规律。因此同化方法具有直观的物理含义,通常只需要少量的实测数据就可以完成对数值模型的校正。但是,由于海洋动力学中的物理学定律比较复杂,除极个别的情况,很难求得描述海洋运动的流体力学偏微分方程的解析解。另外,统一、固定的动力学模型并不能较好地适应实际情况中复杂多变的海洋环境,导致即使结合了实际观测数据,模式预报的结果也可能存在较大的偏差。且由于受到观测精度和计算能力的限制,模式预报给出的结果通常是低分辨的,难以满足实际海战的需求。例如,虽然HYCOM可以达到全球1/10°的分辨率,但在很多军事应用中分辨率要求达到1/100°,甚至更低。

数据同化方法遇到的问题在一定程度上可以用AI方法辅助解决。例如,深度学习方法可以估计和修正传统同化方法的误差。WASTON使用神经网络来估计Lorenz'96系统中的模型误差趋势,并依此纠正短期和长期预报的错误。修正后的模型在预报和建模气候统计特性方面都有显著改进。

另一方面,神经网络可以高效求解偏微分方程,从而降低仿真物理场的计算量。TOMPSON等人提出了一种数据驱动的方法,结合卷积神经网络(CNN)的近似能力和标准求解器的高精度来高效求解不可压缩的欧拉方程。BRANDSTETTER等人基于神经消息传递(MP)构建了一个偏微分方程求解器,可以将有限差分法(FDM)、有限体积法(FVM)等传统方法纳入特殊情况,在类似流体的问题上展示出优于部分最先进的数值求解器的性能。

神经网络建模非线性相关性和学习序列数据特征的能力也能更好适应实际中复杂多变的海洋环境。YU等人结合张量方法和循环神经网络(RNN),提出了一类可以建模多变量非线性系统的模型,并在仿真数据和实际温度数据上验证了方法的有效性。结果表明,该方法在长期数据预测任务上达到了比一般的RNN和长短期记忆人工神经网络(LSTM)更好的效果。

虽然深度学习模型具有上述的优点,但也存在一些问题。例如,深度学习模型中的参数很多,需要大量的训练数据,且得到的结果没有可解释性,一般不符合物理规律,这也导致它们的泛化能力较差。因此,近期有许多研究人员试图将传统物理模型和AI方法的优点结合,提出能嵌入物理先验信息的AI模型。WANG等人提出了一种基于神经网络模型的元学习(MetaLearning)方法。该方法先用编码器提取与时间无关的隐特征,再用预测器结合提取到的特征和过去的状态做出预测,在预报温度、湍流等具有复杂非线性规律的数据中取得了良好的效果,且模型本身具有更好的泛化能力,一定程度上缓解了数值方法对环境信息的依赖。此外,也有学者尝试用高斯过程来建模动态规律。

高斯过程方法不需要大量的数据,比深度学习模型具有更好的可解释性,但建模与优化更加困难。另外,目前很少有研究工作通过神经网络的时序建模反向揭示海洋时间演化过程的物理机理。这将是未来有趣的研究课题。

二、人工智能辅助的海洋探测技术

海洋立体观测的一个重要目的是实现水下目标的探测。由于电磁波在水下衰减较快,目前水下信息的传递主要依赖声波这一载体。水声目标探测技术主要利用声学的手段,通过接收目标辐射噪声或者散射回波,在一定范围内实现对目标的检测、识别、定位与跟踪。水声目标探测技术是水声信号处理与声呐领域的重要研究方向,是环境感知、目标监测、资源勘探、情报收集等海洋应用领域的核心技术之一,一直是国内外研究学者重点关注的热点问题。探测的过程一般包括:①根据接收信号检测、识别目标;②对目标进行定位,下面分别进行讨论。

⒈水下目标检测与识别

根据工作方式,水下目标检测与识别技术可以分为主动和被动2种。

⑴主动目标检测与识别技术

主动目标检测与识别是指通过在航行中不断主动地发射声呐信号并接收目标的散射回波来实现目标检测与识别的技术。在执行信号检测与识别前,通常需要使用匹配滤波器(MF)滤除噪声。然而,水下环境错综复杂,一些粗糙表面或其他能散射声波的物质也可能散射出与目标信号相似的信号,即便使用匹配滤波器也难以去除。为了解决这个问题,传统方法例如恒虚警率(CFAR)通过将接收到的信号强度与设置的阈值进行比较来实现目标的检测与识别。然而,该算法的缺点是存在外界干扰时容易出现虚警或漏警,导致鲁棒性差和识别率低。且设定阈值后也可能存在剩余多个目标的情况,需要专家借助频谱等信息进行进一步的人工识别。另外,由于受海洋水体介质的非均匀性以及海洋独特的动力特性的影响,水声场呈现出复杂的时空随机起伏、环境不确定、信道不确实、参数不确知等特点,传统的主动目标检测与识别方法在水下很难取得较好的效果,难以满足现实需求,亟待发展水声目标检测与识别新概念、新原理、新方法。如何利用浅海信道、背景干扰和目标信号特征,提高主动检测与识别技术的稳健性和准确性是研究的重点。

近年来,深度学习等人工智能技术的快速发展,为主动检测与识别技术智能化发展提供了契机。具体而言,深度学习能充分利用数据的结构,从声呐图像中更好地提取非线性特征,从而实现更高的分类准确率。GORMAN等人首次将多层感知机(MLP)应用于水下目标分类,取得了比人工识别和基于最邻近分类器更好的效果。相比多层感知机,研究表明CNN在处理图像数据时具有独特的优势。基于CNN的水下目标识别算法实现了较高的识别准确度和可靠性。另外,还有学者在水下目标检测与识别任务中引入其他的深度学习模型。例如,SEOK等人利用多角度传感信息,结合傅里叶变换和深度信念网络(DBN),提出了一种可以利用三维高光分布的目标原型的声呐分类算法,并用实验证明了在用同样特征提取方法时DBN比传统的后向传播(BP)网络分类能力更好。TERAYAMA等人提出了一个基于生成对抗网络(GAN)的逼真的图像生成系统。该系统利用GAN学习声呐和光学图像之间的图像到图像的转换,成功地从声呐和夜间图像生成逼真的白天图像,帮助目标识别。

然而,训练神经网络通常需要大量的带标记的数据,但这在实际中是难以获得的。为了解决训练数据不足的问题,有许多学者从不同的角度给出了解决方法。例如,有学者尝试利用深度学习的方法结合仿真数据生成逼真的数据。LEE等人在训练图像准备阶段引入一种端到端的图像合成方法。该方法利用水下仿真器的深度相机中获取的基础图像,结合神经网络综合的水下噪声特性生成用于训练的数据集。也有学者使用在其他数据集上预训练的神经网络,并结合少量实测数据对网络进行微调。

另外,使用不同的降维方法对原始数据进行特征提取来降低输入维度,从而降低网络参数数量的方法也能缓解数据不足的问题,同时降低训练的难度。BYUN近期的研究工作探索了不同线性和非线性降维方法结合浅层神经网络在声呐目标分类任务的性能。BERNICE等人提出了一种基于二维Gabor小波的声呐频谱特征提取方法,并使用支持向量机(SVM)、随机森林(RF)和神经网络3种常用的机器学习方法对提取的特征进行分类,相比传统方法具有更高的分类准确性。

⑵被动目标检测与识别技术

虽然主动目标检测与识别技术可以获得更高的机动性,但考虑到设备成本与环境保护,以噪声检测为手段的被动检测与识别方式依然是重要的水声目标探测体制。被动目标检测与识别不主动发出声呐等探测信号,而只依据目标辐射的噪声信号进行目标的分辨,具有隐蔽性高、探测距离远等优点。随着现代船舶工程技术的快速发展,现代舰船的辐射噪声水平大幅降低,达到接近甚至低于海洋环境噪声的水平。图3展示了水下目标噪声性能的改善与目标探测性能提高的关系趋势。如何充分利用目标信号在产生、传播与接收过程的特征,排除环境噪声的干扰,是被动目标检测与识别亟待解决的关键科学难题。

5ae8d71c-f336-11ed-90ce-dac502259ad0.png 图3 水下目标噪声性能的改善与目标探测性能提高的关系趋势

现有被动目标检测与识别技术主要利用目标辐射噪声特性对目标进行区分。常见的被动目标检测与识别方法包括基于噪声能量积分的检测法,低频谱分析法(LOFAR)和基于噪声包络调制谱检测法(DEMON)等。能量积分检测常用于宽带信号检测,但该方法假设噪声能量是已知的,这在实际中不一定总是能做到。LOFAR谱是由短时傅里叶变换(STFT)获得的时–频功率谱处理获得,可以有效提取信号中的线谱分布特征。DEMON方法通过提取包络谱得到目标信息,具有提取特征稳定、物理意义明确的优点。然而,在降噪技术快速发展的背景下,这些传统方法越来越难以区分环境噪声和目标辐射的噪声,在信噪比较低时性能较差。

近年来,AI辅助的被动目标检测与识别成为一个活跃的研究课题。SHIN等人开发了一种目标识别器,定义并利用了目标信号的多方面特征,以提高目标检测的准确性。在处理步骤上,作者首先将原始数据投影到合适的低维特征空间,然后找出与判断目标是否存在最相关的特征向量,最后将这些特征向量输入包括神经网络在内的机器学习算法进行目标识别。该方法在低信噪比情况下性能比传统方法更好。WANG等人融合了从多个领域提取的特征来识别不同的海洋噪声源,例如船舶噪声、海洋哺乳动物的声音和环境背景噪声。他们的研究验证了Gammatone频率倒谱系数(GFCC)比Mel频率倒谱系数(MFCC)在海洋噪声源分类任务中更具优势。此外,他们利用修改后的经验模态分解来从时间序列信号中提取包含与复杂海洋噪声源相关的各种信息的特征向量,并与GFCC融合作为深度神经网络的输入向量。为了降低维度同时提升准确率,高斯混合模型(GMM)被用来修改网络的第1层以提取特征向量的统计特征。该方法与现有的通过使用简单的分类器将MFCC与有限信息相结合的噪声源分类方法相比,性能得到显著提高。

⒉水下目标定位

对目标信号进行检测和分类,是获取目标位置的前提。下面从不同的角度介绍水下目标定位的常用方法。

⑴波达方向估计

波达方向(DOA)问题广泛存在于无线通信、雷达等领域,也是水下目标探测的重要研究内容之一。传统DOA估计的代表方法包括多重信号分类法(MUSIC)和旋转不变子空间(ESPIRT)。这些传统方法在采样率或信噪比较低时性能表现较差。实际上,DOA估计可以看成是从传感器阵列获得的稀疏采样数据中重建信号的问题,因此可以用基于压缩感知(CS)理论的方法解决。

近期,有许多研究提出基于压缩感知的压缩波束成形方法来解决DOA估计问题。它们相比传统方法需要的观测数据更少,且具有更高的分辨率,同时对噪声有更强的鲁棒性。然而,这些方法中权衡解的稀疏性和数据拟合程度的超参数需要根据具体的问题手动调整到合适的值。为了避免超参数的调整,有许多研究引入机器学习中的稀疏贝叶斯学习(SBL)方法。例如,GERSTOFT等人基于SBL提出了一种用于求解多测量向量(MMV)问题的方法,同时结合最大后验估计(MAP)获得了高分辨的DOA估计。另外,GERSTOFT等人还讨论了如何用SBL方法来估计非平稳噪声情况下的源信号、噪声能量以及目标DOA。

水下方位估计面临的另一难点是如何对抗环境的不确实性。最近的研究工作通过鲁棒机器学习与阵列信号处理的交叉研究,创新性地提出基于最小统计距离(如Bhattacharyya距离)的方位估计器,通过理论分析与海试验证说明其在鲁棒性、分辨力与准确度上的显著优势。

⑵水下声源定位

另一种水下目标定位的方法为匹配场处理(MFP)。它根据在海洋波导中传播的信号场定位目标的范围、深度和方位。得益于近年来声传播模型仿真能力的提升,MFP方法发展迅速。然而,该方法要求准确的关于环境的先验信息,这在实际复杂多变的海洋环境中通常难以获取。数据驱动的机器学习方法可以直接从观测数据中学习特征,为解决这个问题提供了新的思路。

将机器学习方法应用于水下声源定位开始于20世纪90年代。最初的研究包括使用模拟或测量数据训练层数较少的前馈神经网络(FNN),来区分水下声源的范围和深度信息。随着机器学习的发展和算力的提升,更复杂的数据和更先进的方法被引入。NIU等人将海洋波导源定位看作监督学习中的回归以及分类问题,提出了用监督学习来进行目标探测的方法,用深度前馈神经网络、支持向量机和随机森林进行水下目标的定位。在此基础上,WANG等人提出一种广义的回归神经网络,缓解了前馈神经网络对参数和网络结构敏感的问题,相比传统的前馈神经网络和匹配场处理具有更优异的性能。

前面的方法可以判断一个目标信号是否存在于观察到的信号中,而实际可能存在多个需要探测的目标。针对多目标探测的问题,LIU等人使用具有门控循环单元(GRU)的神经网络,提出了一种可以自动估计源目标个数的多目标探测方法。OZANICH等人针对源数量未知的DOA估计问题提出了一种基于非线性FNN的方法。他们将传统波束形(CBF)重述为一个在参数空间的实值的线性逆问题,并用SVM或训练好的FNN求解,在更少的时间内达到了和SBL方法相似的性能。

三、结束语

随着海洋科技的不断发展,世界各国获取海洋数据的能力大幅提升,海洋信息领域逐步迈入大数据时代。

然而,传统海洋信息处理技术无法充分利用观测数据的深层知识,支持下游任务。如何面向日益先进的海洋立体观测体系,充分利用数量与质量显著提升的海洋观测数据,迈向“数据与模型双驱动”的海洋观测与探测新范式,具有重要的研究意义。为实现这一目标,AI的快速发展提供了新的研究思路。目前,AI辅助的海洋立体观测和探测受到国内外学者的广泛关注,取得了一定的研究成果,但也存在一定的问题。

该领域的关键问题及其发展趋势包括:

⑴当前观测体系获取的数据在深海立体区域内通常是稀疏、不确实的,且具有不同的分辨率。如何根据已有的观测数据快速、准确、高分辨地重建在时空上动态变化的海洋物理场,是海洋立体观测亟待解决的关键问题。寻找高表示力与高泛化力的数学模型,结合海洋动力学的物理规律和从历史或仿真数据中学习的深层知识,利用张量模型、高斯过程与神经网络等AI方法的优势,探索海洋物理场最优建模理论与重建方法,是重要的研究方向。

⑵在水下环境复杂多变,舰船等目标辐射噪声逐年降低的背景下,如何从接收信号中准确检测和识别目标信号一直是水下目标探测的难点问题。深度学习方法可以建模复杂的非线性和动态特性,能有效提取目标特征并进行分类,是解决上述问题的有效方法。但深度学习方法需要大量的训练数据,且得到的解一般不符合物理规律。结合传统方法和深度学习优点,在深度学习模型中嵌入物理知识,是重要的研究课题。另外,在水下目标探测中,有目标的样本量远小于没有目标的样本量,造成了训练集的极度不平衡,探索非平衡小样本数据集下高泛化能力的模型训练技术也是未来的重要研究内容。

⑶当前水下目标定位方法通常需要准确的关于环境的先验信息,但这在实际中通常是难以获取的。如何克服对环境信息的依赖,同时对抗环境的不确定性和噪声,是水下目标定位的重点难题。一种可行方法是将传统信号处理模型与鲁棒的AI方法结合起来,从而提升定位的鲁棒性和准确性。
责任编辑:彭菁

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 数据
    +关注

    关注

    8

    文章

    6511

    浏览量

    87599
  • 人工智能
    +关注

    关注

    1776

    文章

    43845

    浏览量

    230600
  • 信息系统
    +关注

    关注

    0

    文章

    186

    浏览量

    20109

原文标题:人工智能辅助的海洋立体观测与探测

文章出处:【微信号:AI智胜未来,微信公众号:AI智胜未来】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    人工智能是什么?

    ` 人工智能是什么?什么是人工智能人工智能是未来发展的必然趋势吗?以后人工智能技术真的能达到电影里机器人的智能水平吗?如果
    发表于 09-16 15:40

    人工智能技术—AI

      人工智能技术的概念从出来到现在已经有很多年的历史了,其实所谓的人工智能技术本身就是一种模拟人类大脑的思考方式的一种技术,它的英文简称是AI技术,在西方国家,
    发表于 10-21 12:03

    人工智能传感技术

    人工智能传感技术,希望有兴趣的人共享
    发表于 06-03 09:03

    百度人工智能大神离职,人工智能的出路在哪?

    发展规划,加快新材料、人工智能、集成电路、生物制药、第五代移动通信等技术研发和转化”,这是“人工智能”首次出现在***工作报告中。两会上,百度CEO李彦宏、小米董事长雷军、吉利控股集团董事长李书福等来自
    发表于 03-23 17:00

    人工智能就业前景

    据相关招聘机构数据显示,2018年AI领域仍然是大部分资深技术人才转岗的首选目标,在人才最紧缺的前十大职位中,时下最火的大数据、人工智能、算法类岗位占据半壁江山。据调查指出,2017年技术研发类岗位
    发表于 03-29 15:46

    解读人工智能的未来

    被称为狭义人工智能,因为它只能做一件特定的事情。狭义AI是构建AGI的第一步吗?许多对AGI感到困惑的人认为目前研发人员应该正在用同样的技术把这些分散的狭义AI拼凑起来。有趣的是,关于自动化
    发表于 11-14 10:43

    人工智能在城市发展的应用及场景

    2018年是人工智能的应用元年,未来将有更多城市场景落地,那么未来人工智能在城市发展会有哪些应用及场景呢?AI+安防:计算机视觉+深度学习技术智能化视频升级的必要条件上千万的摄像头和
    发表于 12-21 14:23

    人工智能技术及算法设计指南

    手把手教你设计人工智能芯片及系统(全阶设计教程+AI芯片FPGA实现+开发板)详情链接:http://url.elecfans.com/u/c422a4bd15人工智能各种技术与算法
    发表于 02-12 14:07

    人工智能医生未来或上线,人工智能医疗市场规模持续增长

    上岗?   能“读图”识别影像,还能“认字”读懂病历,甚至像医生一样“思考”,出具诊断报告,给出治疗建议……这不是科幻,人工智能医疗正从前沿技术转变为现实应用,“人工智能医生”离患者越来越近。   机构
    发表于 02-24 09:29

    人工智能:超越炒作

    如果有一个真正的指标可以衡量新技术的破坏性,那肯定是公众对恐惧和怀疑的滔滔不绝。如果我们以社会焦虑作为衡量标准,那么目前人工智能(AI)的复兴是开创性技术破坏的良好候选者。人工智能将改
    发表于 05-29 10:46

    路径规划用到的人工智能技术

    路径规划用到的人工智能技术人工智能编程语言/数据结构与算法三 人工智能基础原理四 智能信息获取(简称爬虫) 与数据分析1、发起请求3、解析内容4、保存数据二、Requests库介绍
    发表于 07-20 06:53

    人工智能芯片是人工智能发展的

    ......无形之中,人工智能正以前所未有的发展速度渗透我们的日常生活。而作为人工智能的核心技术之一,人工智能芯片也向来备受关注。近几年,谷歌、苹果、微软、Facebook、英特尔、高
    发表于 07-27 07:02

    物联网人工智能是什么?

    2.概率推理3.机器人技术4.计算机视觉5.自然语言处理等常见人工智能产品:语音识别,指纹识别,人脸识别,视网膜识别,智能搜索,无人驾驶,机器翻译,智能控制,专家答疑系统等。如何学习好
    发表于 09-09 14:12

    人工智能对汽车芯片设计的影响是什么

    点击上方“蓝字”,关注我们,感谢!人工智能(AI)以及利用神经网络的深度学习是实现高级驾驶辅助系统(ADAS)和更高程度车辆自主性的强大技术。随着人工智能研究的快速发展,设计人员正面临
    发表于 12-17 08:17

    《移动终端人工智能技术与应用开发》人工智能的发展与AI技术的进步

    人工智能的发展是随着人类生活需要,产业需求不断提升的,其中人工智能的发展很大程度上受到了计算机算力的影响,随着数据处理量的增大,人工智能算法对算力的要求逐年增加,而且没过两年算力上升一倍,因此往往
    发表于 02-17 11:00