华为诺亚提出新型Prompting (PHP),GPT-4拿下最难数学推理数据集新SOTA
结果表明,GP-T-4+PHP 在多个数据集上取得了 SOTA 结果,包括 SVAMP (91.9%....
为什么ChatGPT模型大了就有上下文联系能力?
神经网络在训练的时候,采用的随机梯度下降算法,一定程度上等效于物种的基因突变,本质是有一定方向的随机....
In-context learning介绍
随着大规模预训练语言模型(LLM)能力的不断提升,in-context learning(ICL)逐....
各种大语言模型是彻底被解封了
基础 LLM 基本信息表,GPT-style 表示 decoder-only 的自回归语言模型,T5....
后ChatGPT时代NLP的下一个方向:增强式大规模语言模型
Visual ChatGPT 是一种智能交互系统,它将不同的视觉基础模型与 ChatGPT 相结合,....
使用LoRA和Hugging Face高效训练大语言模型
在本文中,我们将展示如何使用 大语言模型低秩适配 (Low-Rank Adaptation of L....
在视觉语言表示学习中建立编码器间的桥梁
提出了一个简单有效的视觉语言模型架构,BridgeTower,通过在顶层单模态层和每个跨模态层之间建....
中文对话式大语言模型Firefly-2b6开源,使用210万训练数据
在本文中,我们将对该模型进行分享和介绍。与firefly-1b4相比,firefly-2b6的代码生....