4 月 16 日,据报道,百度公司首席执行官李彦宏在其举办的Create 2024 AI 开发者大会上指出,开源模型正在逐渐过时。
李彦宏解释道,百度自研的基础模型——文心 4.0,能够根据需求塑造出适应各类场景的微型版模型,并支持精细调整以及后预训练。相较于直接使用开源模型,这种经过降维处理的模型在同等尺寸下表现更为出色,且在相同效果下成本更低,因此,“开源模型将逐步被淘汰”。
此外,李彦宏还推出了文心大模型 4.0 的工具版本,该模型的算法训练效率已提高至原有的 5.1 倍,每周训练有效率高达 98.8%,推理性能提升了 105 倍,而推理成本则降低至原先的 1%。
值得关注的是,360 集团创始人周鸿祎在哈佛大学的一场演讲中提出了不同观点。他认为“没有开源便无Linux、无互联网,甚至包括我们自身的发展也离不开开源技术”。同时,他预测在未来一至两年内,开源技术的影响力或将超越闭源技术。
周鸿祎表示:“尽管目前开源模型的能力尚未达到GPT 4水平,但若专注于某一领域,利用企业内部的专属数据及专业训练进行强化,便有望在专业能力上超越GPT 4。”
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。
举报投诉
-
算法
+关注
关注
23文章
4458浏览量
90766 -
开源
+关注
关注
3文章
2991浏览量
41723 -
模型
+关注
关注
1文章
2707浏览量
47707
发布评论请先 登录
相关推荐
潞晨科技Colossal-AI + 浪潮信息AIStation,大模型开发效率提升10倍
的潞晨科技Colossal-AI系统,用户可实现在本地算力平台一键训练、微调、推理、部署大模型,将大模型开发效率
混合专家模型 (MoE)核心组件和训练方法介绍
) 的 Transformer 模型在开源人工智能社区引起了广泛关注。在本篇博文中,我们将深入探讨 MoEs 的核心组件、训练方法,以及在推理过程中需要考量的各种因素。 让我们开始吧!
HarmonyOS:使用MindSpore Lite引擎进行模型推理
场景介绍
MindSpore Lite 是一款 AI 引擎,它提供了面向不同硬件设备 AI 模型推理的功能,目前已经在图像分类、目标识别、人脸识别、文字识别等应用中广泛使用。
本文介绍
发表于 12-14 11:41
中国计算机大会现场王海峰揭秘文心大模型4.0
王海峰表示,基于更强平台、更优数据、更好算法,我们训练出规模更大、效果更好的文心大模型4.0。通过飞桨与文心的协同优化,模型周均训练有效率超
TPU-MLIR量化敏感层分析,提升模型推理精度
背景介绍TPU-MLIR编译器可以将机器学习模型转换成算能芯片上运行的bmodel模型。由于浮点数的计算需要消耗更多的计算资源和存储空间,实际应用中往往采用量化后的模型(也称定点模型)
如何提高YOLOv4模型的推理性能?
使用 PyTorch 对具有非方形图像的 YOLOv4 模型进行了训练。
将 权重转换为 ONNX 文件,然后转换为中间表示 (IR)。
无法确定如何获得更好的推理性能。
发表于 08-15 06:58
如何将Pytorch自训练模型变成OpenVINO IR模型形式
本文章将依次介绍如何将Pytorch自训练模型经过一系列变换变成OpenVINO IR模型形式,而后使用OpenVINO Python API 对IR模型进行
自训练Pytorch模型使用OpenVINO™优化并部署在AI爱克斯开发板
本文章将依次介绍如何将 Pytorch 自训练模型经过一系列变换变成 OpenVINO IR 模型形式,而后使用 OpenVINO Python API 对 IR 模型进行
评论