0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

壳模型为未来开展更大规模壳模型计算提供了重要参考

lhl545545 来源:中科院长春光机所 作者:中科院长春光机所 2020-06-12 11:31 次阅读

近日,中国原子能科学研究院与北京航空航天大学、中山大学、意大利帕多瓦大学/莱尼亚罗利国家实验室、深圳大学、苏州大学有关科研人员合作,在意大利莱尼亚罗利国家实验室,利用重离子熔合蒸发反应对212Rn(氡212)的能级结构进行研究,并取得新进展。该研究结果在线发表于国际核物理研究领域著名学术期刊Physics Review C(《物理评论C》), 题目为《New level scheme and shell model description of 212Rn》(《212Rn的新能级结构研究及壳模型描绘》),文章第一作者为原子能院李聪博副研究员,通讯作者为北京航空航天大学教授张高龙。

原子核是由几个到几百个核子(包括质子、中子)组成的复杂体系。当质子数或中子数为2、8、20、28、50、82和中子数为126时,原子核最稳定,在自然界的丰度也最高。上世纪50年代,核物理理论学家建立了数学模型(即壳模型),用于解释上述类别原子核稳定的原因,带来了核结构研究的飞跃。该模型将原子核分为不同壳层,把每一个表示质子或中子的数字称为“幻数”。几十年来,尽管壳模型几经改进,但其中依然存在大量假设和近似,不能全面解释原子核性质,只能指出原子核内部运动的部分特点。

212Rn核由86个质子、126个中子组成,是最重的幻数核之一(N=126),实验上很难观察到其能级信息。研究人员利用6Li(锂6)重离子束轰击209Bi(铋209)靶,使212Rn处于能量较低状态,发现了29条新的γ跃迁和16条新的能级。中山大学利用大规模的壳模型对新发现的能级结构进行计算后,结果与实验观测值总体相符。此次研究的新结果对进一步认识大组态空间的壳模型提供了帮助,为未来开展更大规模壳模型计算提供了重要参考。

212Rn部分能级纲图,标红色为本工作新发现。

该工作获得了国家自然科学基金、中核集团和基金委的核技术创新联合基金、财政部稳定支持研究经费等项目的支持。
责任编辑:pj

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 模型
    +关注

    关注

    1

    文章

    2709

    浏览量

    47712
  • 质子
    +关注

    关注

    0

    文章

    11

    浏览量

    7655
收藏 人收藏

    评论

    相关推荐

    【大语言模型:原理与工程实践】探索《大语言模型原理与工程实践》

    未来发展方向进行了展望,包括跨领域、跨模态和自动提示生成能力方向,读者提供未来技术发展的深刻见解。《大语言
    发表于 04-30 15:35

    【书籍评测活动NO.30】大规模语言模型:从理论到实践

    更多的自然语言处理研究人员和对大语言模型感兴趣的读者能够快速了解大模型的理论基础,并开展模型实践,复旦大学张奇教授团队结合他们在自然语言处理领域的研究经验,以及分布式系统和并行
    发表于 03-11 15:16

    商汤科技与库醇科技达成合作 为垂域大模型构建高质量大规模的领域微调数据

    数字化转型,为垂域大模型构建高质量大规模的领域微调数据。   本次合作将基于商汤通用大模型进行二次开发,给模型注入领域知识, 训练一个专门根据葡萄酒爱好者问题生成关键词的大
    的头像 发表于 01-10 09:46 482次阅读
    商汤科技与库醇科技达成合作 为垂域大<b class='flag-5'>模型</b>构建高质量<b class='flag-5'>大规模</b>的领域微调数据

    1-2B参数规模模型的使用心得

    模型时代,根据大模型缩放定律,大家通常都在追求模型的参数规模更大、训练的数据更多,从而使得大模型
    的头像 发表于 12-28 11:47 530次阅读
    1-2B参数<b class='flag-5'>规模</b>大<b class='flag-5'>模型</b>的使用心得

    AGI时代的奠基石:Agent+算力+大模型是构建AI未来的三驾马车吗?

    AI Agent的训练离不开算力,服务器作为一个强大的计算中心,为AI Agent提供算力基础,支持其进行复杂计算和处理大规模数据的任务,包括模型
    的头像 发表于 12-21 13:34 522次阅读
    AGI时代的奠基石:Agent+算力+大<b class='flag-5'>模型</b>是构建AI<b class='flag-5'>未来</b>的三驾马车吗?

    大规模神经网络优化:超参最佳实践与规模

    从理论分析入手把握大规模神经网络优化的规律,可以指导实践中的超参数选择。反过来,实践中的超参数选择也可以指导理论分析。本篇文章聚焦于大语言模型,介绍从 GPT 以来大家普遍使用的训练超参数的变化
    的头像 发表于 12-10 21:45 601次阅读

    大规模语言模型的基本概念、发展历程和构建流程

    大规模语言模型(Large Language Models,LLM),也称大规模语言模型或大型语言模型,是一种由包含数百亿以上参数的深度神经
    的头像 发表于 12-07 11:40 1661次阅读
    <b class='flag-5'>大规模</b>语言<b class='flag-5'>模型</b>的基本概念、发展历程和构建流程

    OpenHarmony应用模型的构成要素与Stage优势

    一、应用模型的构成要素 应用模型是OpenHarmony开发者提供的应用程序所需能力的抽象提炼,它提供
    发表于 09-26 16:48

    华为盘古大模型与ChatGPT的技术优势

    大规模预训练:华为盘古大模型采用了大规模预训练的方法,通过对大量的中文语料进行预训练,使模型具有更强的泛化能力和适应能力。
    的头像 发表于 09-05 09:58 1647次阅读

    盘古大模型和GPT3有哪些不同

    几个方面来探讨盘古大模型和GPT-3的不同之处。 一、概念定义差异 盘古大模型,简称PGM,是中国科学院计算机网络信息中心所研发的一种大规模中文自然语言处理预训练
    的头像 发表于 08-30 18:28 1366次阅读

    AI大模型和小模型是什么?AI大模型和小模型的区别

      随着人工智能的不断发展和应用,机器学习模型的大小越来越成为一个重要的问题。在机器学习中,我们通常将模型分为两类:大模型和小模型。本文将介
    发表于 08-08 16:55 5666次阅读

    如何计算transformer模型的参数量

    参数规模大,训练数据规模大。以GPT3为例,GPT3的参数量为1750亿,训练数据量达到了570GB。进而,训练大规模语言模型面临两个主要挑战:显存效率和
    的头像 发表于 07-10 09:13 7458次阅读
    如何<b class='flag-5'>计算</b>transformer<b class='flag-5'>模型</b>的参数量

    计算模型SaaS是什么?有什么特点?

    计算模型中的SaaS(Software as a Service)是一种基于云计算架构的软件交付模型。在SaaS模型中,软件应用程序通过互
    的头像 发表于 06-25 15:36 668次阅读

    计算模型PaaS有哪些优势?

    平台即服务(Platform as a Service,PaaS)是一种云计算服务模型,为开发人员提供了一个完整的应用开发和部署平台。PaaS模型具有许多优势和广泛的应用场景。以下将详
    的头像 发表于 06-25 15:32 569次阅读

    营造人工智能大模型产业生态

     打造良好的人工智能大规模模型产业生态,需要着力解决目前中国人工智能大规模模型发展面临的尖端计算技术失控、
    的头像 发表于 06-14 09:19 537次阅读