据消息,北京智源人工智能研究院发布四个超大规模人工智能预训练模型,统称为“悟道1.0”,涵盖中文语言、多模态、认知、蛋白质预测四个领域,是帮助国内企业、机构开发人工智能应用的大型基础设施。
“悟道1.0”由智源研究院学术副院长、清华大学唐杰教授领衔,带领来自北京大学、清华大学、中国人民大学、中国科学院等单位的100余位AI科学家团队联合攻关,同时与快手、搜狗、360、阿里、新华社等龙头企业共同研发工业级示范性应用。
智源研究院院长黄铁军教授介绍,近几年这轮人工智能浪潮的基本特点是“数据+算力+算法=模型”,模型浓缩了训练数据的内部规律,是实现人工智能应用的载体。近年来人工智能的发展,已经从“大炼模型”逐步迈向了“炼大模型”的阶段,通过设计先进的算法,整合尽可能多的数据,汇聚大量算力,集约化地训练大模型,供大量企业使用,是必然趋势。
智源研究院2020年10月启动“悟道”项目,研发规模大(主要体现为参数量)、智商高、具备类人认知能力、统一对多模态数据的理解和建模、满足各种应用需要的预训练模型,特别是注重中文语料的采集和训练。
责任编辑:lq6
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。
举报投诉
-
搜狗
+关注
关注
0文章
90浏览量
13845 -
人工智能
+关注
关注
1776文章
43906浏览量
230647
发布评论请先 登录
相关推荐
【书籍评测活动NO.30】大规模语言模型:从理论到实践
多种形式和任务。这个阶段是从语言模型向对话模型转变的关键,其核心难点在于如何构建训练数据,包括训练数据内部多个任务之间的关系、训练数据与
发表于 03-11 15:16
晶晟微纳发布N800超大规模AI算力芯片测试探针卡
近日,上海韬盛科技旗下的苏州晶晟微纳宣布推出其最新研发的N800超大规模AI算力芯片测试探针卡。这款高性能探针卡采用了前沿的嵌入式合金纳米堆叠技术,旨在满足当前超大规模AI算力芯片的高
AI驱动的国产硬件仿真芯神鼎如何加速超大规模芯片设计
近年来,5G、自动驾驶、超大规模计算,以及工业物联网等领域呈现出强劲的发展势头。推动这些高速发展的产业是AI(人工智能)和ML(机器学习)的大规模应用。这种全新的技术布局不仅加速了更复杂的计算需求
模拟电子技术基础课件
一、电子技术的发展
很大程度上反映在元器件的发展上 :
• 1947年 贝尔实验室制成第一只晶体管
• 1958年 集成电路
• 1969年 大规模集成电路
• 1975年 超大规模集成电路
第一
发表于 09-22 07:58
利用超大规模GTH收发器实现SMPTE SDI接口应用说明
电子发烧友网站提供《利用超大规模GTH收发器实现SMPTE SDI接口应用说明.pdf》资料免费下载
发表于 09-13 11:09
•2次下载
超大规模数据中心的优势和面临的挑战
从本质上来说,数据中心是为大规模运行而设计的,通常容纳数十个(如果不是数百个)物理服务器和虚拟机。超大规模数据中心本质上是一个更高的级别,它可以支持数千台服务器和数百万个虚拟机。超大规模数据中心可以
城市AI大模型CityGPT创新应用平台发布
上海维智卓新信息科技有限公司(下称“维智科技”)研发的CityGPT旨在通过模型的巨量化和超大规模参数与训练数,提升智能城市建设中人工智能的通用性,通过L1-L5不同级别的细粒度,降低人工智能在城市治理、商业决策、智能营销等领域
适用于Kintex超大规模FPGA标准
该参考设计使用MAX10 InTune™负载点(PoL)控制器提供输入电压为8.13V至2.1V、输出电压为80.2V、输出电流为15303A的电源电路。该电路旨在为 Xilinx® Kintex 超大规模™ FPGA 上的 VCC1V8 电源轨供电。
评论