腾讯发布混元大语言模型
腾讯全球数字生态大会上腾讯正式发布了混元大语言模型,参数规模超千亿,预训练语料超2万亿tokens。
作为腾讯自研的通用大语言模型,混元大语言模型具有中文创作能力、任务执行能力和复杂语境下的逻辑推理能力;而且在时效性上比较强。
目前混元大语言模型已经在小程序、腾讯云、腾讯广告、腾讯游戏等开启内测。
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。
举报投诉
-
腾讯
+关注
关注
7文章
1687浏览量
51003 -
大模型
+关注
关注
2文章
3796浏览量
5275
发布评论请先 登录
相关推荐
热点推荐
腾讯Hy3 preview开源:重构AI大模型技术范式,开启智能计算新纪元
2026年4月23日,腾讯混元正式开源其最新语言模型Hy3 preview,这款被官方定义为“混
Arm率先适配腾讯混元HY-1.8B-2Bit模型
腾讯混元今日发布了 HY-1.8B-2Bit,这是一款等效参数量仅有 0.3B 的极低比特压缩模型,有助于移动设备厂商和开发者加速实现生成式
沐曦曦云C500/C550 GPU产品适配腾讯混元图像3.0图生图模型
近日,腾讯混元团队宣布开源混元图像3.0图生图版本(HunyuanImage 3.0-Instruct),沐曦股份曦云C500/C550 2
沐曦曦云C500/C550 GPU产品适配腾讯混元开源翻译模型1.5版本
12月30日,腾讯混元宣布推出并开源翻译模型1.5,共包含两个模型:Tencent-HY-MT1.5-1.8B 和 Tencent-HY-M
壁仞科技壁砺166M产品适配腾讯混元开源翻译模型1.5版本
12月30日,腾讯混元正式开源翻译模型1.5版本,该版本共包含两个模型:Tencent-HY-MT1.5-1.8B和Tencent-HY-M
发布元服务配置本地化基础信息(应用名称、图标)
您可以添加元服务支持的语言,并配置对应语言的本地化信息。
例如,当您设置简体中文为默认语言,并且只配置中文的本地化信息,那么元服务在所有设置的发布
发表于 10-24 17:42
3万字长文!深度解析大语言模型LLM原理
我们正在参加全球电子成就奖的评选,欢迎大家帮我们投票~~~谢谢支持本文转自:腾讯技术工程作者:royceshao大语言模型LLM的精妙之处在于很好地利用数学解决了工业场景的问题,笔者基于过往工程经验
Arm率先适配腾讯混元开源模型,助力端侧AI创新开发
本周初,腾讯混元宣布开源四款小尺寸模型(参数分别为 0.5B、1.8B、4B、7B),可无缝运行于消费级显卡上。作为全球应用范围最为广泛的计算平台,Arm 在开源首日就已率先实现适配,
摩尔线程率先支持腾讯混元-A13B模型
近日,腾讯正式开源基于专家混合(MoE)架构的大语言模型混元-A13B。同日,摩尔线程团队凭借技术前瞻性,率先完成该
腾讯发布混元大语言模型
评论