0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

ChatGPT→LLaMA→Apple GPT:盘点国外大模型产业发展之路

通信世界 来源:《通信世界》 2023-09-19 18:00 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

大模型是“大算力+强算法”的产物,是人工智能发展的趋势和未来。大模型助力AI实现从“手工作坊”到“工厂模式”的转变,从而使得AI从实验室走向规模化的产业应用。大模型通常基于大规模无标注数据进行训练,掌握某种特征和规则;基于大模型进行应用开发时,将大模型进行微调,或者不进行微调,就可以完成多个应用场景的任务。与此同时,大模型具有自监督学习能力,不需要或很少需要通过人工标注的数据进行训练,降低了训练成本,因而能够加快AI的产业化进程,降低AI应用的门槛。通过不断迭代,大模型能够具有更强的通用性以及更高的智能程度,从而使得AI更广泛地赋能各行业应用。

ChatGPT掀起通用人工智能浪潮

2019年,OpenAI推出参数量高达15亿的通用语言模型GPT-2,能够生成连贯的文本段落,实现初步的阅读理解、机器翻译等。2020年,OpenAI推出超大规模语言训练模型GPT-3,参数量达到了1750亿,用两年左右的时间实现了模型规模从亿级到千亿级的突破,并能够实现作诗、聊天、生成代码等功能。2021年1月,谷歌推出的Switch Transformer模型以高达1.6万亿的参数量成为史上首个万亿级语言模型。同年12月,谷歌还推出了1.2万亿参数量的通用稀疏语言模型GLaM。可以看到,大型语言模型的参数量保持着指数级增长的势头。2022年,OpenAI推出的ChatGPT是由比GPT-3更强大的GPT-3.5系列模型提供支持,并且这些模型使用微软AzureAI超级计算基础设施上的文本和代码数据进行训练。

2022年,ChatGPT突然走红,这是人工智能大规模展示通用应用场景的开始。在此基础上,生成式人工智能(AIGC)成为了推动行业领域发展的重要力量。AIGC既是内容的分类方式和生产方式,又是用于内容自动生成的一类技术集合,AIGC带动了LLM、GPT等大模型的发展应用,为人工智能产业带来了新的变革机会。

大模型与AIGC为人工智能领域带来了新变化。从当前大模型的发展趋势看,大模型企业更倾向于搭建平台,对传统企业进行赋能。具体而言,大模型企业凭借对组织型用户“痛点”的了解,搭建大模型平台,而组织型用户只需加入自己独有的场景数据,即可快速生成解决自身问题的“专属模型”。不过,这种提供定制解决方案的模式也面临开源模式带来的挑战。

LLaMA2开源改变大模型游戏规则

ChatGPT发布后,Meta紧跟着推出了类GPT大语言模型LLaMA。模型公布后不久,LLaMA因为源码泄露引来了大量开发者的关注,在ChatGPT热度下降的情况下,LLaMA成为产业关注的“新宠”。

2023年前5个月,ChatGPT全球访问量增长幅度明显下降,6月的访问量更是环比下滑9.7%,为其自推出以来首次大幅度下滑。7月,Meta发布首个开源人工智能模型LLaMA的商业版本LLaMA2,该商用大模型可为企业提供OpenAI和谷歌的替代方案,该模型也因此被视为“最强平替”。需要特别说明的是,LLaMA2运行在Windows操作系统之上,整合了Azure云,原本与OpenAI长期深入合作的微软已成为LLaMA2的“首选合作伙伴”。

Meta针对LLaMA2的开源模式做了如下表述:“我们相信,开源的方法是当今人工智能模型发展的正确途径,尤其是在技术进步日新月异的生成式人工智能领域。”通过开源的方式吸引足够的参与者,从而搭建一套完善的生态系统,是Meta这类互联网企业的一贯作风,但对于已投入大量成本而期望采用定制化解决方案的玩家而言,却不是什么好消息。

Meta的操作让人联想到Facebook的开源计算项目OCP,该项目被用于改变服务器硬件的制造方式,以更好地适应互联网时代。OCP除了对应的机架规范Open Rack,还包括服务器、网络、存储,乃至数据中心的设计。OCP被视为Facebook最为重要的科技项目之一,旨在把“开源”概念引入数据中心硬件,为数据中心提供更快、更便宜、用材更少的硬件。

OCP的开放性体现在免费提供设计,任何企业都可以使用它,并对其进行调整,这意味着,惠普、戴尔和思科这类传统硬件供应商将不再控制产品设计,取而代之是由用户自己控制。这给思科等硬件制造市场的老玩家带来了很大威胁,因为OCP很有可能为企业提供更便宜、更灵活的替代方案,从而淘汰传统的昂贵方案。微软、苹果等科技巨头都加入了OCP阵营,开始把OCP的一些概念整合到自身的数据中心,形成新的生态。Facebook也通过构建在OCP基础上的各种技术,大大减少了对“思科们”的依赖。

LLaMA2的开源模式可能会影响OpenAI等公司在生成式人工智能软件市场中取得的早期主导地位。因为Meta意在借助LLaMA2构建人工智能开源生态系统,快速扩大其市场规模并建立口碑,同时阻碍竞争对手从其专有技术中赚取收入。

Apple GPT入局,前路未知

在Meta、微软、OpenAI等公司各出奇招的同时,以封闭系统作为竞争优势的Apple等公司也在借助Siri等人机交互触点的优势向上游拓展。近期,业内传出Apple秘密研发Apple GPT的消息。

据了解,Apple GPT是一款基于苹果自研Ajax框架开发的人工智能工具,这一产品已在苹果内部小范围内投入使用。与其他解决方案不同的是,目前Apple尚未决定Apple GPT未来的开发方向,甚至严格规定了Apple GPT的使用场景,禁止将其输出用于开发面向用户的功能。这体现了不同企业对大模型市场发展的不同理解和判断,同时也体现了“利用大模型做未来物联网入口的可能性和交互能力的升级”这种定位和发展方向的选择。

大模型时代的人工智能伦理风险

开源大模型将加速人工智能市场的应用拓展,但与此同时,人工智能哲学尤其是科技伦理方面的争议甚嚣尘上,大模型的可靠性、安全性、知识产权等也成为了产业亟待解决的新课题。大模型目前还面临较大的挑战,包括大模型“幻觉”、“一本正经地胡说八道”、政企私有数据的保密性要求、大模型存在封闭性等,同时信息垄断、知识产权等问题也不容忽视。

知识可靠性及信息误导等问题

ChatGPT不能保证回答问题的可靠性和准确性,对于“如果相同的问题在不同时间问你有不同的结果,我怎么知道哪一个比较可信,或者哪一个更为接近真相”这个问题时,ChatGPT给出了如下答复:“作为一种人工智能系统,我是基于一组固定的算法和数据运行的,并且在回答问题时会遵循程序化的逻辑。因此,如果对同一个问题多次询问,答案应该是一致的,除非模型的数据或算法发生了更改。不过,即使我的回答是一致的,也不能完全保证答案的正确性和可靠性,因为我的训练数据和算法可能存在偏见或错误,我并不能独立判断我回答的问题是否符合真实情况。”

ChatGPT要学习大量的文本数据,并以特定的算法处理数据,因此可通过提供误导性训练数据或者改变算法,操控处理结果。也就是说,我们不能准确理解作为“黑盒”的数据处理模型,以及信任ChatGPT采用的训练数据集的“权威性”,即便在一个我们熟悉的领域,细微的差别也可能导致巨大的结论偏差。

从知识可靠性的角度看,知识应用的场景需要非常谨慎,尤其是在学术研究领域,必须严格限制ChatGPT信息的引用。

信息垄断问题

如果模型的使用和控制都是不透明的,就有可能出现信息垄断。信息垄断是指一个或一些组织及个人控制着信息的生产、流通和使用,从而有效地排除竞争。因此,如果行业不采用透明公开的方式去评估和监督使用信息,那么就可能存在信息垄断的风险。

知识产权问题

ChatGPT由OpenAI训练,数据集是从互联网上收集来的大量文本数据,包含新闻报道、维基百科条目、小说、博客、论坛帖子、技术文档、社交媒体内容等信息,这些数据可能存在著作权侵权的风险。

具体而言,OpenAI尝试遵循合法、道德的原则来获取数据,但并不能保证所有数据的著作权拥有者都同意OpenAI将其数据用来训练语言模型。风险在于数据的处理结果是构建在未经授权的第三方经验之上,而通过这些经验获得的价值并没有与第三方共享,或者说他们甚至都没有意识到自己的数据被使用。在现实世界中肖像权被侵犯是比较明显的,在数字世界中经过多重加工以后,这样的侵权行为就不是那么明显。

在现实世界中可能会出现这样的情况:ChatGPT的回答可能无意之间引用了作者声明需要分享商业收益的内容,在不知情的情况下侵犯了作者的知识产权。此外,经过复杂的模型处理之后,文本的所有者可能很难知道ChatGPT对他的资产进行了处理,也就是说,尽管理论上文本的所有者可以去维权,但实践成本会非常高。

针对这个问题,ChatGPT是这样回应的:“确实存在难以识别使用者行为的问题。不过我是一个由OpenAI制作并管理的计算机程序,并且OpenAI是一个认真对待知识产权和隐私的公司,他们遵循相关法律法规,努力确保这些法律法规在用户使用我的过程中得到遵循。当然,如果您发现有任何违反知识产权的情况,建议您及时联系OpenAI,以帮助他们解决问题。”

能否用于解决具有创造性的问题

这个问题看起来更像是一个人工智能的哲学问题。科学发展的传统看法是:科学知识是不断增加的,发展是一个直线的、知识积累的过程。这是为大多数人所接受的科学发展观,也是ChatGPT体现出来的知识“归纳”,其文字编码的概率让结果体现出这样的特征。波普证伪主义强调的不是知识的积累,而是科学理论的更替,旧理论不断被推翻,新理论取而代之。

大模型带来了强大的智能,能够推动人工智能向更高级的智能应用迈进,例如AIGC、更智能的对话客服等。GPT-3等大模型在新闻文本生成、商业文本分析、法律文本分析等领域具有较高的产业应用价值。除问答以外,ChatGPT能够完成编程、写稿等众多超出人们想象的任务。谷歌公司曾表示:“如果ChatGPT参加谷歌的面试,理论上会得到入门级程序员的聘任。因此,更为关键的是我们怎么理解‘创造性’这个词的含义。”

结语

无论如何,大模型仅仅是生成式人工智能大规模商用的前奏,许多领域的企业都在尝试将大模型能力与自身的优势、定位和战略发展方向结合起来。无论是从打造难以被模仿的技术优势、大模型能力与复杂场景结合构建更强的解决方案能力、借助开源模式降低大模型使用门槛形成规模化垄断,还是借助传统的触点优势进一步提升终端用户的体验,市场上不同的玩家都在根据自身的理解尝试定义大模型的未来。而在通向未来的道路上,大模型将比其他领域面临更多的伦理、法律、道德方面的难题,这也是大模型企业在打造市场竞争力的同时,面临的新课题。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 人工智能
    +关注

    关注

    1820

    文章

    50314

    浏览量

    266868
  • ChatGPT
    +关注

    关注

    31

    文章

    1600

    浏览量

    10391
  • 大模型
    +关注

    关注

    2

    文章

    3765

    浏览量

    5269

原文标题:ChatGPT→LLaMA→Apple GPT:盘点国外大模型产业发展之路

文章出处:【微信号:txshj123,微信公众号:通信世界】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    GPT-5震撼发布:AI领域的重大飞跃

    跃升重新定义了人工智能的能力边界。OpenAI首席执行官山姆·奥特曼在发布会上直言:“这不仅是模型的升级,更是通往通用人工智能(AGI)的关键里程碑。”     GPT-5:集成模型,能力跃升  
    的头像 发表于 08-09 07:44 1w次阅读
    <b class='flag-5'>GPT</b>-5震撼发布:AI领域的重大飞跃

    请教RTD GPT 配置问题

    ) RTD版本如下图: 我在我的项目中包含一个 GPT。我希望它从 0 到 5000 计数并重新开始。我面临的问题是似乎没有办法配置这个上限。这是一个 16 位计数器,SDK 配置器似乎不喜欢
    发表于 04-15 08:32

    如何在Arm Neoverse N2平台上提升llama.cpp扩展性能

    跨 NUMA 内存访问可能会限制 llama.cpp 在 Arm Neoverse 平台上的扩展能力。本文将为你详细分析这一问题,并通过引入原型验证补丁来加以解决。测试结果表明,在基于 Neoverse N2 平台的系统上运行 llama3_Q4_0
    的头像 发表于 02-11 10:06 303次阅读

    上海交大发布国产光学大模型Optics GPT

    电子发烧友网综合报道 1月25日,上海交通大学正式推出光学领域垂直大语言模型——Optics GPT(光学大模型),这是一款完全自主研发的国产模型。该
    的头像 发表于 01-26 09:59 2202次阅读
    上海交大发布国产光学大<b class='flag-5'>模型</b>Optics <b class='flag-5'>GPT</b>

    【「芯片设计基石——EDA产业全景与未来展望」阅读体验】跟着本书来看国内波诡云谲的EDA发展之路

    从细分市场突破。 第六章,继续介绍了国内EDA的高速发展产业,人才回流,科创板资本支持,技术从细分转全面,产业链生态完善等方方面面,国内EDA迎来了高速发展。随着本书的介绍,读者的心
    发表于 01-21 23:00

    【「芯片设计基石——EDA产业全景与未来展望」阅读体验】--中国EDA的发展

    不断完善,体现在企业数量与规模增长、技术创新能力提升、产业链上下游协同发展、市场认可度提高等方面。 通过阅读了解到中国EDA发展之路,现在也是在变好,迎头赶上。
    发表于 01-20 23:22

    【「芯片设计基石——EDA产业全景与未来展望」阅读体验】+ 全书概览

    的创新之路;序三中国科学院院士郝跃筑梦“芯”程:中国EDA产业的精进之路。各有侧重,层层递进,从不同阶段回顾和分析了中国EDA产业发展历程
    发表于 01-20 19:27

    【CIE全国RISC-V创新应用大赛】基于 K1 AI CPU 的大模型部署落地

    的 落地方案 : 1. 系统部署方案书 (System Proposal) 方案要点 部署工具 :使用官方提供的 spacemit-llama.cpp (v0.0.4) 二进制包。 模型策略 :采用
    发表于 11-27 14:43

    GPT-5.1发布 OpenAI开始拼情商

    问题。 Sam Altman 发文称GPT-5.1是一次不错的模型升级。 GPT-5.1 Instant:ChatGPT 最常用的模型,更温
    的头像 发表于 11-13 15:49 812次阅读

    NVIDIA从云到边缘加速OpenAI gpt-oss模型部署,实现150万TPS推理

      自 2016 年推出 NVIDIA DGX 以来,NVIDIA 与 OpenAI 便开始共同推动 AI 技术的边界。此次 OpenAI gpt-oss-20b 和 gpt-oss-120b 模型
    的头像 发表于 08-15 20:34 2486次阅读
    NVIDIA从云到边缘加速OpenAI <b class='flag-5'>gpt</b>-oss<b class='flag-5'>模型</b>部署,实现150万TPS推理

    OpenAI或在周五凌晨发布GPT-5 OpenAI以低价向美国政府提供ChatGPT

    外界一直在期待的OpenAI新一代大语言模型GPT-5或将发布。据外媒的报道,GPT-5很可能在周五凌晨发布。这是OpenAI在2023年的3月份推出自然语言处理模型
    的头像 发表于 08-07 14:13 1.5w次阅读

    【VisionFive 2单板计算机试用体验】3、开源大语言模型部署

    1、ollama平台搭建 ollama可以快速地部署开源大模型,网址为https://ollama.com, 试用该平台,可以在多平台上部署 Deepseek-R1, Qwen3, Llama
    发表于 07-19 15:45

    使用 NPU 插件对量化的 Llama 3.1 8b 模型进行推理时出现“从 __Int64 转换为无符号 int 的错误”,怎么解决?

    安装了 OpenVINO™ GenAI 2024.4。 使用以下命令量化 Llama 3.1 8B 模型: optimum-cli export openvino -m meta-llama
    发表于 06-25 07:20

    AI真会人格分裂!OpenAI最新发现,ChatGPT善恶开关已开启

    AI现在就像一个小朋友,很容易就学坏了!OpenAI刚刚发现,如果用错误的数据微调自家的模型的一个领域,ChatGPT就会把在这个领域学到的「恶」和「坏」泛化到其他领域。比如「刻意」用错误数据在汽车
    的头像 发表于 06-20 12:41 1.7w次阅读
    AI真会人格分裂!OpenAI最新发现,<b class='flag-5'>ChatGPT</b>善恶开关已开启

    探索在Arm平台运行的Llama 4 Scout模型

    人工智能 (AI) 正在加速发展,也越来越智能化。当今的开源大语言模型不仅功能强大,而且在设计时充分考虑了实际部署的需求,因而具有轻量化和经济高效的特点,可大规模部署到数十亿台设备上。简而言之,对于开发者可能想到的各种情形,当今的开源大语言
    的头像 发表于 05-20 09:54 856次阅读