据了解,Mistral AI于近期发布了名为Mixtral 8x22B的开源模型,该模型拥有1760亿个参数, Context长度高达6.5万token,可通过Torrent下载获取。
作为一家备受瞩目的新兴AI企业,Mistral AI因其“6人团队,7页PPT,8亿融资”的传奇故事而声名远扬。尤其值得一提的是,该公司曾获得微软投资,使之顺利驶入高速发展轨道。
今日,Mistral AI正式发布了Mixtral 8x22B模型,并提供了Torrent种子链接供用户下载。该模型文件大小达到了惊人的281GB,用户既可通过磁力链接直接下载,也可选择Hugging Face和Perplexity AI Labs等平台进行下载。
尽管Mixtral 8x22B模型拥有庞大的1760亿个参数以及6.5万个token的Context长度,但为了提高使用灵活性,该模型还支持仅调用部分模型(440亿参数)来完成特定任务。
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。
举报投诉
-
AI
+关注
关注
91文章
41101浏览量
302582 -
开源
+关注
关注
3文章
4345浏览量
46442 -
模型
+关注
关注
1文章
3818浏览量
52265
发布评论请先 登录
相关推荐
热点推荐
腾讯Hy3 preview开源:重构AI大模型技术范式,开启智能计算新纪元
2026年4月23日,腾讯混元正式开源其最新语言模型Hy3 preview,这款被官方定义为“混元迄今最智能的模型”的产品,以2950亿总参数
NVIDIA Jetson模型赋能AI在边缘端落地
开源生成式 AI 模型不再局限于数据中心,而是开始深入到现实世界的各种机器中。从 Orin 到 Thor,NVIDIA Jetson 系列正在成为运行 NVIDIA Nemotron、Cosmos
Banana Pi 开源社区联合进迭时空发布最新RISC-V芯片K3开发套件:BPI-SM10(K3-CoM260)
BPI-SM10 (K3-CoM260) 产品介绍
[]()
香蕉派 BPI-SM10(K3-CoM260)可提供高达60 Tops的通用AI人工智能计算能力,可流畅运行300亿(30B)参数
发表于 01-30 18:38
NVIDIA携手Mistral AI发布全新开源大语言模型系列
全新 Mistral 3 系列涵盖从前沿级到紧凑型模型,针对 NVIDIA 平台进行了优化,助力 Mistral AI 实现云到边缘分布式智能愿景。
成都汇阳投资关于国产开源模型持续突破,国产AI 竞争力增强
、MiniMax-M2 分别位列全球开源榜单第一 、 第二 ,且榜单前五名中国产开源模型占据四席(Qwen3 235BA22B2507 和 DeepSeek V3.2 Exp 分别位列
NVIDIA ACE现已支持开源Qwen3-8B小语言模型
为助力打造实时、动态的 NPC 游戏角色,NVIDIA ACE 现已支持开源 Qwen3-8B 小语言模型(SLM),可实现 PC 游戏中的本地部署。
Qwen3-VL 4B/8B全面适配,BM1684X成边缘最佳部署平台!
算能BM1684X上完成Qwen3-VL4B/8B模型的适配,推理速度13.7/7.2tokens/s,使其成为边缘部署多模态大模型的最佳选
BPI-AIM7 RK3588 AI与 Nvidia Jetson Nano 生态系统兼容的低功耗 AI 模块
。它是开源硬件,我们已在线发布设计文档,包括原理图和接口定义。其异构计算架构兼容 NVIDIA Jetson Nano 接口标准,非常适合边缘计算、AI 推理、VR/AR、智能 NVR
发表于 10-11 09:08
OpenAI发布2款开源模型
OpenAI开源了两款高性能权重语言模型gpt-oss-120b和gpt-oss-20b,OpenAI CEO Sam Altman表示:「gpt-oss
华为宣布开源盘古7B稠密和72B混合专家模型
电子发烧友网综合报道 2025年6月30日,华为正式宣布开源盘古70亿参数的稠密模型、盘古Pro MoE 720亿
华为正式开源盘古7B稠密和72B混合专家模型
[中国,深圳,2025年6月30日] 今日,华为正式宣布开源盘古70亿参数的稠密模型、盘古Pro MoE 720亿
Mistral AI发布1760亿参数开源模型Mixtral 8x22B,兼容Torrent
评论