0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

摩根大通分析:苹果AI发展战略:主攻小模型,引入LLM技术

微云疏影 来源:综合整理 作者:综合整理 2024-03-20 13:46 次阅读

据了解,摩根大通近期发布了针对苹果人工智能AI)发展策略的投资备忘录。该公司倾向于认为,苹果除了积极开发iPhone本地应用的小型模型外,还与其他机构共同推进大型语言模型(LLM)技术的研发和应用。

摩根大通认为,虽然苹果在大语言模型领域略逊于OpenAI的ChatGPT和谷歌的Gemini,但苹果已经意识到并确定了自身的优势定位,即主攻更易于本地运行且专注于保护用户隐私权的小型模型。

此外,尽管目前尚不清楚苹果是否计划在iOS/iPadOS系统中引入Gemini模型实现AI赋能,但摩根大通预测,苹果可能会通过与谷歌达成类似于“默认网络索引擎由谷歌提供,苹果则以Spotlight作为本土搜索工具”这种模式的协议,以进一步推动其AI发展战略。

同时,多方信息显示,苹果似乎在研发一款名为Ask的本地知识库训练工具,其适应性优于大型语言模型,能够快速响应数据库变动,而MM1模型将很可能符合此类性能需求。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 摩根大通
    +关注

    关注

    0

    文章

    39

    浏览量

    7810
  • OpenAI
    +关注

    关注

    8

    文章

    760

    浏览量

    5914
  • ChatGPT
    +关注

    关注

    27

    文章

    1409

    浏览量

    4747
收藏 人收藏

    评论

    相关推荐

    苹果研发设备端大语言模型,提升AI性能与隐私保护

    古尔曼在“Power On”通讯中称,这款苹果LLM有望作为未来生成式AI功能的基石,并与现有云端AI服务明显区别开来,该模型将会完全依赖于
    的头像 发表于 04-22 11:04 61次阅读

    自然语言处理应用LLM推理优化综述

    当前,业界在将传统优化技术引入 LLM 推理的同时,同时也在探索从大模型自回归解码特点出发,通过调整推理过程和引入新的
    发表于 04-10 11:48 80次阅读
    自然语言处理应用<b class='flag-5'>LLM</b>推理优化综述

    苹果与谷歌洽谈合作,Gemini AI模型有望嵌入iPhone

    在人工智能领域日益升温的竞争格局中,苹果公司再次展现出其敏锐的战略眼光。据可靠消息人士透露,苹果正积极与谷歌展开谈判,旨在将谷歌最新的生成式人工智能模型Gemini植入其iPhone系
    的头像 发表于 03-20 10:05 170次阅读

    使用cube-AI分析模型时报错的原因有哪些?

    使用cube-AI分析模型时报错,该模型是pytorch的cnn转化成onnx ``` Neural Network Tools for STM32
    发表于 03-14 07:09

    NanoEdge AI技术原理、应用场景及优势

    NanoEdge AI 是一种基于边缘计算的人工智能技术,旨在将人工智能算法应用于物联网(IoT)设备和传感器。这种技术的核心思想是将数据处理和分析从云端转移到设备本身,从而减少数据传
    发表于 03-12 08:09

    安霸发布N1系列生成式AI芯片支持前端设备运行本地LLM应用

    单颗 SoC 支持 1 至 340 亿参数的多模态大模型(Multi-Modal LLM)推理,实现前端低功耗生成式 AI
    的头像 发表于 01-09 15:19 626次阅读

    低比特量化技术如何帮助LLM提升性能

    针对大语言模型 (LLM) 在部署过程中的性能需求,低比特量化技术一直是优化效果最佳的方案之一,本文将探讨低比特量化技术如何帮助 LLM
    的头像 发表于 12-08 15:26 638次阅读
    低比特量化<b class='flag-5'>技术</b>如何帮助<b class='flag-5'>LLM</b>提升性能

    Long-Context下LLM模型架构全面介绍

    随着ChatGPT的快速发展,基于Transformer的大型语言模型(LLM)为人工通用智能(AGI)铺平了一条革命性的道路,并已应用于知识库、人机界面和动态代理等不同领域。然而,存在一个普遍
    的头像 发表于 11-27 17:37 557次阅读
    Long-Context下<b class='flag-5'>LLM</b><b class='flag-5'>模型</b>架构全面介绍

    周四研讨会预告 | 注册报名 NVIDIA AI Inference Day - 大模型推理线上研讨会

    由 CSDN 举办的 NVIDIA AI Inference Day - 大模型推理线上研讨会,将帮助您了解 NVIDIA 开源大型语言模型LLM)推理加速库 TensorRT-
    的头像 发表于 10-26 09:05 193次阅读

    mlc-llm对大模型推理的流程及优化方案

    在 MLC-LLM 部署RWKV World系列模型实战(3B模型Mac M2解码可达26tokens/s) 中提到要使用mlc-llm部署模型
    发表于 09-26 12:25 448次阅读
    mlc-<b class='flag-5'>llm</b>对大<b class='flag-5'>模型</b>推理的流程及优化方案

    大语言模型LLM)预训练数据集调研分析

    model 训练完成后,使用 instruction 以及其他高质量的私域数据集来提升 LLM 在特定领域的性能;而 rlhf 是 openAI 用来让model 对齐人类价值观的一种强大技术;pre-training dataset 是大
    的头像 发表于 09-19 10:00 570次阅读
    大语言<b class='flag-5'>模型</b>(<b class='flag-5'>LLM</b>)预训练数据集调研<b class='flag-5'>分析</b>

    AI模型和小模型是什么?AI模型和小模型的区别

      随着人工智能的不断发展和应用,机器学习模型的大小越来越成为一个重要的问题。在机器学习中,我们通常将模型分为两类:大模型和小模型。本文将介
    发表于 08-08 16:55 5566次阅读

    最新综述!当大型语言模型LLM)遇上知识图谱:两大技术优势互补

    LLM 是黑箱模型,缺乏可解释性,因此备受批评。LLM 通过参数隐含地表示知识。因此,我们难以解释和验证 LLM 获得的知识。此外,LLM
    的头像 发表于 07-10 11:35 1465次阅读
    最新综述!当大型语言<b class='flag-5'>模型</b>(<b class='flag-5'>LLM</b>)遇上知识图谱:两大<b class='flag-5'>技术</b>优势互补

    基于Transformer的大型语言模型LLM)的内部机制

    本文旨在更好地理解基于 Transformer 的大型语言模型LLM)的内部机制,以提高它们的可靠性和可解释性。 随着大型语言模型LLM)在使用和部署方面的不断增加,打开黑箱并了解
    的头像 发表于 06-25 15:08 1040次阅读
    基于Transformer的大型语言<b class='flag-5'>模型</b>(<b class='flag-5'>LLM</b>)的内部机制

    突破边界:高性能计算引领LLM驶向通用人工智能AGI的创新纪元

    ChatGPT的成功带动整个AIGC产业的发展,尤其是LLM(大型语言模型,大语言模型)、NLP、高性能计算和深度学习等领域。LLM
    的头像 发表于 06-25 14:31 615次阅读
    突破边界:高性能计算引领<b class='flag-5'>LLM</b>驶向通用人工智能AGI的创新纪元