据了解,摩根大通近期发布了针对苹果人工智能(AI)发展策略的投资备忘录。该公司倾向于认为,苹果除了积极开发iPhone本地应用的小型模型外,还与其他机构共同推进大型语言模型(LLM)技术的研发和应用。
摩根大通认为,虽然苹果在大语言模型领域略逊于OpenAI的ChatGPT和谷歌的Gemini,但苹果已经意识到并确定了自身的优势定位,即主攻更易于本地运行且专注于保护用户隐私权的小型模型。
此外,尽管目前尚不清楚苹果是否计划在iOS/iPadOS系统中引入Gemini模型实现AI赋能,但摩根大通预测,苹果可能会通过与谷歌达成类似于“默认网络搜索引擎由谷歌提供,苹果则以Spotlight作为本土搜索工具”这种模式的协议,以进一步推动其AI发展战略。
同时,多方信息显示,苹果似乎在研发一款名为Ask的本地知识库训练工具,其适应性优于大型语言模型,能够快速响应数据库变动,而MM1模型将很可能符合此类性能需求。
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。
举报投诉
-
摩根大通
+关注
关注
0文章
39浏览量
7810 -
OpenAI
+关注
关注
8文章
760浏览量
5914 -
ChatGPT
+关注
关注
27文章
1409浏览量
4747
发布评论请先 登录
相关推荐
苹果研发设备端大语言模型,提升AI性能与隐私保护
古尔曼在“Power On”通讯中称,这款苹果LLM有望作为未来生成式AI功能的基石,并与现有云端AI服务明显区别开来,该模型将会完全依赖于
自然语言处理应用LLM推理优化综述
当前,业界在将传统优化技术引入 LLM 推理的同时,同时也在探索从大模型自回归解码特点出发,通过调整推理过程和引入新的
发表于 04-10 11:48
•80次阅读
苹果与谷歌洽谈合作,Gemini AI模型有望嵌入iPhone
在人工智能领域日益升温的竞争格局中,苹果公司再次展现出其敏锐的战略眼光。据可靠消息人士透露,苹果正积极与谷歌展开谈判,旨在将谷歌最新的生成式人工智能模型Gemini植入其iPhone系
使用cube-AI分析模型时报错的原因有哪些?
使用cube-AI分析模型时报错,该模型是pytorch的cnn转化成onnx
```
Neural Network Tools for STM32
发表于 03-14 07:09
NanoEdge AI的技术原理、应用场景及优势
NanoEdge AI 是一种基于边缘计算的人工智能技术,旨在将人工智能算法应用于物联网(IoT)设备和传感器。这种技术的核心思想是将数据处理和分析从云端转移到设备本身,从而减少数据传
发表于 03-12 08:09
安霸发布N1系列生成式AI芯片支持前端设备运行本地LLM应用
单颗 SoC 支持 1 至 340 亿参数的多模态大模型(Multi-Modal LLM)推理,实现前端低功耗生成式 AI。
Long-Context下LLM模型架构全面介绍
随着ChatGPT的快速发展,基于Transformer的大型语言模型(LLM)为人工通用智能(AGI)铺平了一条革命性的道路,并已应用于知识库、人机界面和动态代理等不同领域。然而,存在一个普遍
周四研讨会预告 | 注册报名 NVIDIA AI Inference Day - 大模型推理线上研讨会
由 CSDN 举办的 NVIDIA AI Inference Day - 大模型推理线上研讨会,将帮助您了解 NVIDIA 开源大型语言模型(LLM)推理加速库 TensorRT-
mlc-llm对大模型推理的流程及优化方案
在 MLC-LLM 部署RWKV World系列模型实战(3B模型Mac M2解码可达26tokens/s) 中提到要使用mlc-llm部署模型
发表于 09-26 12:25
•448次阅读
大语言模型(LLM)预训练数据集调研分析
model 训练完成后,使用 instruction 以及其他高质量的私域数据集来提升 LLM 在特定领域的性能;而 rlhf 是 openAI 用来让model 对齐人类价值观的一种强大技术;pre-training dataset 是大
AI大模型和小模型是什么?AI大模型和小模型的区别
随着人工智能的不断发展和应用,机器学习模型的大小越来越成为一个重要的问题。在机器学习中,我们通常将模型分为两类:大模型和小模型。本文将介
发表于 08-08 16:55
•5566次阅读
最新综述!当大型语言模型(LLM)遇上知识图谱:两大技术优势互补
LLM 是黑箱模型,缺乏可解释性,因此备受批评。LLM 通过参数隐含地表示知识。因此,我们难以解释和验证 LLM 获得的知识。此外,LLM
基于Transformer的大型语言模型(LLM)的内部机制
本文旨在更好地理解基于 Transformer 的大型语言模型(LLM)的内部机制,以提高它们的可靠性和可解释性。 随着大型语言模型(LLM)在使用和部署方面的不断增加,打开黑箱并了解
评论