0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

Meta Llama 3.1系列模型可在Google Cloud上使用

谷歌开发者 来源:谷歌云服务 2024-08-02 15:42 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

以下文章来源于谷歌云服务,作者 Google Cloud

Warren Barkley

Cloud AI 产品管理高级总监

我们很高兴宣布,Llama 3.1 系列模型已添加到 Vertex AI Model Garden,这包括全新的 405B,即 Meta 迄今为止功能最强大、用途最广泛的模型。这些模型的添加,表明 Google Cloud 一如既往地践行打造开放、灵活的 AI 生态系统的承诺,帮助您构建最能满足您需求的解决方案。

Vertex AI 提供一系列精选的第一方、开源和第三方模型,其中许多模型 (包括全新的 Llama 模型) 都能以全托管式模型即服务 (MaaS) 产品的形式提供。借助 MaaS,您可以选择符合自己需求的基础模型,通过 API 轻松访问它,使用强大的开发工具进行定制,并在我们的全托管基础设施上进行部署,而无需繁琐的基础设施管理。

Meta 的 Llama 3.1 标志着开放权重模型发生范式转变,与同类模型相比,它们拥有更为卓越的性能和广泛的用途。此次发布包含一系列针对不同应用场景定制的模型:

Llama 3.1 405B

Llama 3.1 405B 是迄今为止最大的公开可用的基础模型,在灵活性、控制力和创新方面为开放模型树立了新标杆。该模型开创了各种新的可能性,包括生成合成数据,为复杂的推理任务提供支持,以及通过极少的微调轻松处理直接推理场景。

Llama 3.1 8B 和 70B

Llama 3 模型的这两个新版本在理解语言细微差别、把握上下文以及执行翻译和对话生成等复杂任务方面表现出色。

只需点击几下,即可使用以模型即服务形式提供的全新预览版 405B 模型,没有任何设置或基础设施方面的烦扰。正式版将在未来几周内推出。8B 和 70B 模型也将在未来几周内以 MaaS 的形式提供。从现在开始,您可以在 Vertex AI Model Garden 中自助使用这三种模型,从而灵活地选择您偏好的基础设施。

这些模型是预训练和指令调优版本,可满足您的特定需求,它们包含长度为 128,000 个词元 (token) 的扩展上下文,与较早的几代模型相比,能更深入地理解更长、更复杂的文本。此外,Llama 3.1 模型支持多达八种语言,进一步扩大了其覆盖面和适用性。

在 Google Cloud 中使用 Llama 3.1

Google Cloud 的 Vertex AI 是一个全面的 AI 平台,可用于试验、自定义、部署和监控 Llama 3.1 等基础模型。Llama 3.1 加入了 Vertex AI Model Garden 上已有的 150 多个精选企业级模型,为您提供更大的选择范围和灵活性,使您可以根据自己的需求和预算选择最合适的模型,跟上飞跃式创新的步伐。

在 Vertex AI 上使用 Llama 3.1,您可以:

信心十足地进行实验

在我们的直观环境中,通过简单的 API 调用和全面的横向评估来探索 Llama 3.1 的功能,而无需担心复杂的部署流程。

根据您的确切需求定制 Llama 3.1

使用自己的数据微调模型,构建可满足您独特需求的定制解决方案。如果您在 Vertex AI Model Garden 中通过自助服务使用 8B 和 70B 模型,可以立即开始微调。微调 405B 模型的功能将在未来几周内推出。

让您的 AI 基于事实

使用 Vertex AI 的多种接地和 RAG 选项,确保您的 AI 输出可靠、相关且值得信赖。例如,您可以将模型连接到企业系统,使用 Vertex AI Search 检索企业信息,利用 Llama3 进行生成等等。

创建 agent

使用 Vertex AI 的全套工具,包括 Vertex AI 上的 LangChain,创建和编排由 Llama 3.1 提供支持的 agent。通过 Genkit 的 Vertex AI 插件将 Llama 3.1 集成到您的 AI 体验中。

无开销部署

支持灵活的自动扩缩,即使是 405B 模型,也能消除部署和扩缩的复杂性。当然,您还可以利用专为 AI 工作负载打造的一流基础设施。

为 Llama 3.1 提供安全的工作环境

不仅支持 Meta 的 Llama Guard,还有 Google Cloud 的内置安全、隐私和合规措施,让您可以放心部署。

开始在 Google Cloud 上使用 Llama 3.1

随着 AI 模型的不断创新,企业 AI 生态系统变得更加多样化。我们与 Meta 的合作,证明两家公司致力于提供由开放且易于使用的 AI 生态系统支持下的一流创新成果。我们将继续与 Meta 和其他合作伙伴密切合作,让我们的客户始终能够享用到前沿的 AI 功能。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • Google
    +关注

    关注

    5

    文章

    1817

    浏览量

    60659
  • 谷歌
    +关注

    关注

    27

    文章

    6260

    浏览量

    112049
  • Meta
    +关注

    关注

    0

    文章

    325

    浏览量

    12506
  • Cloud
    +关注

    关注

    0

    文章

    76

    浏览量

    6054

原文标题:Meta 发布的 Llama 3.1 现在可在 Google Cloud 上使用

文章出处:【微信号:Google_Developers,微信公众号:谷歌开发者】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    Arm携手Google Cloud推进代理式AI基础设施规模化落地

    Google Cloud 正通过多项升级举措,稳步推进代理式人工智能 (Agentic AI) 的规模化落地。此次更新包含全新 TPU 8t 和 TPU 8i 系统,同时在 Google
    的头像 发表于 05-06 09:41 301次阅读
    Arm携手<b class='flag-5'>Google</b> <b class='flag-5'>Cloud</b>推进代理式AI基础设施规模化落地

    NVIDIA与Google Cloud携手推进代理式与物理AI发展

    企业可以使用 NVIDIA Vera Rubin 驱动的 A5X 实例 (可扩展至近 100 万个 Rubin GPU)、Google Distributed Cloud 的 Gemini、机密
    的头像 发表于 04-27 15:35 456次阅读

    NetApp与Google Cloud深化合作:重构分布式云数据基础设施的“安全主权”新范式

    NetApp与Google Cloud签署四年期企业级协议,通过NetApp存储解决方案与Google Distributed Cloud(GDC)的深度集成,为全球企业构建“全栈物理
    的头像 发表于 04-27 11:04 997次阅读

    Cadence 与 Google 合作,利用 ChipStack AI Super Agent 在 Google Cloud 扩展 AI 驱动的芯片设计

    合作,利用 Google Cloud 的 Gemini 模型优化 Cadence® ChipStack™ AI Super Agent。此次合作使 Cadence 站在向代理式设计自
    的头像 发表于 04-24 13:22 170次阅读

    Cadence与Google合作,利用ChipStack AI Super Agent在Google Cloud扩展AI驱动的芯片设计

    设计 AI 计算软件领域的行业领导者楷登电子(美国 Cadence 公司,NASDAQ:CDNS)近日宣布与 Google Cloud 达成战略合作 ,利用 Google Cloud
    的头像 发表于 04-24 10:36 1475次阅读

    借助Google MedGemma系列模型打造下一代医疗应用

    人工智能在医疗保健领域的应用正在急速增长,其行业的 AI 采用率已达到整体经济领域的两倍。为了助力这一变革,Google 于去年通过 Health AI Developer Foundations (HAI-DEF) 计划发布了 MedGemma 系列开放医疗生成式 AI
    的头像 发表于 02-25 10:52 692次阅读

    昆仑天工Skywork与Google Cloud深度合作发布桌面级Agent

    天工 Skywork 如何通过 Google 的 Gemini 3 模型家族,并结合 Google Distributed Cloud (GDC) 混合云架构,成功构建面向 Windo
    的头像 发表于 02-25 10:17 807次阅读

    如何在Arm Neoverse N2平台提升llama.cpp扩展性能

    跨 NUMA 内存访问可能会限制 llama.cpp 在 Arm Neoverse 平台上的扩展能力。本文将为你详细分析这一问题,并通过引入原型验证补丁来加以解决。测试结果表明,在基于 Neoverse N2 平台的系统运行 llam
    的头像 发表于 02-11 10:06 343次阅读

    【CIE全国RISC-V创新应用大赛】基于 K1 AI CPU 的大模型部署落地

    量化” 策略。我们必须使用 Q2_K (2-bit) 量化格式,将模型体积压缩到 5.5GB 左右,从而在 8GB 内存给 KV Cache(上下文)留出空间。 以下是按照官方工具链针对 14B 模型定制
    发表于 11-27 14:43

    vivo携手Google Cloud推动智能手机迈入AI新时代

    在人们期待更智能、更前瞻手机的时代,vivo 携手 Google Cloud,迅速推出更安全、更前沿的 AI 功能,共同加速创新,推动智能手机迈入智能、无缝、以人为本的 AI 新时代。
    的头像 发表于 09-23 16:54 1768次阅读

    亚马逊云科技宣布推出Qwen3与DeepSeek-V3.1模型的完全托管服务

    亚马逊云科技致力于成为运行开放权重模型的最佳平台,在Amazon Bedrock新增五个模型选项,持续丰富模型选择,进一步满足客户需求。 主要亮点: · Qwen3
    的头像 发表于 09-19 10:11 1076次阅读

    如何在TPU使用JAX训练GPT-2模型

    如果您对如何使用 JAX 从头开始构建语言模型感到好奇,那么本文非常适合您。我们在 2025 年 Google Cloud Next 大会上举办了一场关于此主题的研讨会,并获得了一些很好的反馈,我们也为所有无法参会的开发者编写了
    的头像 发表于 09-03 11:39 1849次阅读
    如何在TPU<b class='flag-5'>上</b>使用JAX训练GPT-2<b class='flag-5'>模型</b>

    Google Cloud展示一系列前沿技术更新

    在 2025 Google 谷歌开发者大会上,Google Cloud 展示了一系列前沿技术更新——不仅是模型升级,更是智能体、创意、行业应
    的头像 发表于 08-29 09:38 1349次阅读

    使用 NPU 插件对量化的 Llama 3.1 8b 模型进行推理时出现“从 __Int64 转换为无符号 int 的错误”,怎么解决?

    安装了 OpenVINO™ GenAI 2024.4。 使用以下命令量化 Llama 3.1 8B 模型: optimum-cli export openvino -m meta-llama
    发表于 06-25 07:20

    Google推出全新Cloud WAN解决方案

    超过 25 年来,Google 一直在推动网络技术的边界,其创新连接了全球数十亿用户使用 Gmail、YouTube 和 Search 等核心服务。这一切的基础是 Google 庞大的骨干网络。凭借
    的头像 发表于 05-14 16:48 1612次阅读