0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

Meta发布开源大模型Code Llama 70B

CHANBAEK 来源:网络整理 2024-01-31 09:24 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

近日,Meta宣布推出了一款新的开源大模型Code Llama 70B,这是其“Code Llama家族中体量最大、性能最好的模型版本”。这款新模型提供三种版本,并免费供学术界和商业界使用。

据Meta介绍,Code Llama 70B在基准测试中表现优异,其性能超过了专为编码设计的开源Llama模型,甚至超越了Llama2。这一成就无疑为Meta在人工智能领域的发展增添了重要的一笔。

Code Llama 70B的发布,不仅彰显了Meta在人工智能领域的领先地位,也为全球的研究者和企业提供了一个强大的新工具。我们期待看到Code Llama 70B在未来的更多应用场景中展现其强大的能力。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 开源
    +关注

    关注

    3

    文章

    4031

    浏览量

    45568
  • Meta
    +关注

    关注

    0

    文章

    316

    浏览量

    12334
  • 大模型
    +关注

    关注

    2

    文章

    3440

    浏览量

    4964
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    太强了!AI PC搭载70B模型,算力狂飙,内存开挂

    DeepSeek-R1不同模型。相对来说,DeepSeek-R1 70B模型或许是日常AI功能的顶格需求,它也是当前高性能AI PC的着力点之一。   AI PC跑大模型   Dee
    的头像 发表于 03-24 08:52 2978次阅读
    太强了!AI PC搭载<b class='flag-5'>70B</b>大<b class='flag-5'>模型</b>,算力狂飙,内存开挂

    华为宣布开源盘古7B稠密和72B混合专家模型

    电子发烧友网综合报道 2025年6月30日,华为正式宣布开源盘古70亿参数的稠密模型、盘古Pro MoE 720亿参数的混合专家模型及基于昇腾的模型
    的头像 发表于 07-06 05:51 7097次阅读

    华为正式开源盘古7B稠密和72B混合专家模型

    [中国,深圳,2025年6月30日] 今日,华为正式宣布开源盘古70亿参数的稠密模型、盘古Pro MoE 720亿参数的混合专家模型和基于昇腾的模型
    的头像 发表于 06-30 11:19 1112次阅读

    使用 NPU 插件对量化的 Llama 3.1 8b 模型进行推理时出现“从 __Int64 转换为无符号 int 的错误”,怎么解决?

    安装了 OpenVINO™ GenAI 2024.4。 使用以下命令量化 Llama 3.1 8B 模型: optimum-cli export openvino -m meta-llama
    发表于 06-25 07:20

    今日看点丨台积电、Intel合资运营代工业务;韩国计划向当地汽车行业注入3万亿韩元援助

    1. Meta 发布人工智能新模型系列 Llama 4 ,首次采用“混合专家”架构   当地时间周六(4月5日),美国科技巨头Meta推出了
    发表于 04-07 11:26 590次阅读

    摩尔线程支持阿里云通义千问QwQ-32B开源模型

    近日,阿里云团队正式开源全新推理模型——通义千问QwQ-32B。摩尔线程在该模型发布后2小时内,迅速且高效完成了对千问QwQ-32
    的头像 发表于 03-07 17:48 1114次阅读
    摩尔线程支持阿里云通义千问QwQ-32<b class='flag-5'>B</b><b class='flag-5'>开源</b><b class='flag-5'>模型</b>

    无法在OVMS上运行来自Meta的大型语言模型 (LLM),为什么?

    无法在 OVMS 上运行来自 Meta 的大型语言模型 (LLM),例如 LLaMa2。 从 OVMS GitHub* 存储库运行 llama_chat Python* Demo 时
    发表于 03-05 08:07

    IBM在watsonx.ai平台推出DeepSeek R1蒸馏模型

    IBM近日宣布了一项重要更新,为其企业级AI开发平台watsonx.ai引入了DeepSeek R1的Llama 3.1 8BLlama 3.3 70b蒸馏版本。这一举措旨在通过先进
    的头像 发表于 02-14 10:21 871次阅读

    IBM企业级AI开发平台watsonx.ai上线DeepSeek R1蒸馏模型

    IBM日前宣布,DeepSeek-R1 的 Llama 3.1 8BLlama 3.3 70b 蒸馏版本现已在 IBM 的企业级 AI 开发平台 watsonx.ai 上提供。
    的头像 发表于 02-12 10:02 820次阅读

    天数智芯加速DeepSeek全系列模型适配

    R1-Distill-Qwen系列模型,包括1.5B、7B、14B和32B等不同参数版本,以及DeepSeek R1-Distill-
    的头像 发表于 02-10 15:30 1408次阅读

    Meta组建四大专研小组,深入探索DeepSeek模型

    近日,据报道,脸书母公司Meta为了提升其大模型Llama的性能,专门成立了四个研究小组,深入探索量化巨头幻方量化旗下的国产大模型DeepSeek的工作原理。 据悉,
    的头像 发表于 02-05 14:02 705次阅读

    在算力魔方上本地部署Phi-4模型

    ​作者:算力魔方创始人/英特尔边缘计算创新大使 刘力 前面我们分享了《Meta重磅发布Llama 3.3 70B开源AI
    的头像 发表于 01-15 11:05 781次阅读
    在算力魔方上本地部署Phi-4<b class='flag-5'>模型</b>

    Meta重磅发布Llama 3.3 70B开源AI模型的新里程碑

    ​在人工智能领域,Meta的最新动作再次引起了全球的关注。今天,我们见证了Meta发布Llama 3.3 70B
    的头像 发表于 12-18 16:46 880次阅读
    <b class='flag-5'>Meta</b>重磅<b class='flag-5'>发布</b><b class='flag-5'>Llama</b> 3.3 <b class='flag-5'>70B</b>:<b class='flag-5'>开源</b>AI<b class='flag-5'>模型</b>的新里程碑

    Meta发布新AI模型Meta Motivo,旨在提升元宇宙体验

    Meta公司近日宣布,将推出一款名为Meta Motivo的全新人工智能模型。该模型具备控制类似人类的数字代理动作的能力,有望为元宇宙的用户体验带来显著提升。
    的头像 发表于 12-16 10:34 1349次阅读

    Meta推出Llama 3.3 70B,AI大模型竞争白热化

    在今年的AI领域,Meta也不甘落后,推出了其压轴之作——Llama 3.3 70B模型。与此同时,马斯克的xAI也宣布其Grok模型从今
    的头像 发表于 12-09 14:50 1015次阅读