0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

深度学习自然语言处理

文章:836 被阅读:172.7w 粉丝数:40 关注数:0 点赞数:5

广告

LLM的幻觉问题最新综述

幻觉被描述为无意义或不忠实于所提供源内容的生成内容。根据与源内容的矛盾,这些幻觉又进一步分为内在幻觉....
的头像 深度学习自然语言处理 发表于 11-22 17:40 562次阅读
LLM的幻觉问题最新综述

Scaling Law大模型设计实操案例

纵轴是"Bits for words", 这也是交叉熵的一个单位。在计算交叉熵时,如果使用以 2 为....
的头像 深度学习自然语言处理 发表于 11-22 16:08 412次阅读
Scaling Law大模型设计实操案例

基于大语言模型的共情回复生成:实证研究和改进

对以ChatGPT为代表的LLMs在共情回复生成上的表现进行了全面的实证研究,LLMs在现有的基准数....
的头像 深度学习自然语言处理 发表于 11-21 09:25 559次阅读
基于大语言模型的共情回复生成:实证研究和改进

基于显式证据推理的few-shot关系抽取CoT

最近,上下文学习策略已被证明在没有训练的情况下显示出显著的结果。很少有研究利用上下文学习进行zero....
的头像 深度学习自然语言处理 发表于 11-20 17:44 394次阅读
基于显式证据推理的few-shot关系抽取CoT

LLMs实际上在假对齐!

LLM的训练分为预训练和安全训练。预训练是指在大规模语料库上进行训练,因此LLM获得了各种强大的能力....
的头像 深度学习自然语言处理 发表于 11-20 17:41 612次阅读
LLMs实际上在假对齐!

500篇论文!最全代码大模型综述

经典 Transformer 使用不可学习的余弦编码,加在模型底层的词向量输入上。GPT、BERT将....
的头像 深度学习自然语言处理 发表于 11-17 17:31 649次阅读

RLHF平替工作,探索如何更稳定地拿到效果

没得商量,不做RL了,选择性保留RM:比如RRHF、DPO,这类方法可以直接在RM数据上优化语言模型....
的头像 深度学习自然语言处理 发表于 11-17 17:29 386次阅读
RLHF平替工作,探索如何更稳定地拿到效果

多任务微调框架MFTCoder详细技术解读

MFTCoder具备高效训练特征,包括提供高效的数据Tokenization模式和支持PEFT微调,....
的头像 深度学习自然语言处理 发表于 11-17 17:17 638次阅读
多任务微调框架MFTCoder详细技术解读

用LLM生成反驳:首先洞察审稿人的心理,再巧妙回应!

同行评审对于确保科学的高质量至关重要:作者提交研究成果,而审稿人则辩论应不应该接受其发表。通常评审后....
的头像 深度学习自然语言处理 发表于 11-16 11:54 459次阅读
用LLM生成反驳:首先洞察审稿人的心理,再巧妙回应!

怎样让PPO训练更稳定?早期人类征服RLHF的驯化经验

尽管鲁迅先生曾言:真的强化敢于直面惨淡的结果,敢于正视崩坏的曲线。但日复一复地开盲盒难免会让人心脏承....
的头像 深度学习自然语言处理 发表于 11-16 11:41 499次阅读
怎样让PPO训练更稳定?早期人类征服RLHF的驯化经验

基于检索的大语言模型简介

简介章节讲的是比较基础的,主要介绍了本次要介绍的概念,即检索(Retrieval)和大语言模型(LL....
的头像 深度学习自然语言处理 发表于 11-15 14:50 369次阅读
基于检索的大语言模型简介

如何解决LLMs的规则遵循问题呢?

传统的计算系统是围绕计算机程序中表达的指令的执行来设计的。相反,语言模型可以遵循用自然语言表达的指令....
的头像 深度学习自然语言处理 发表于 11-15 09:33 297次阅读
如何解决LLMs的规则遵循问题呢?

MixFormerV2:基于Transformer的高效跟踪器

我们通过简洁有效的模型结构设计和高效的基于知识蒸馏的模型压缩,对于现有的 MixFormer 模型进....
的头像 深度学习自然语言处理 发表于 11-14 16:54 446次阅读
MixFormerV2:基于Transformer的高效跟踪器

LLM作用下的成分句法分析基础研究

采用伯克利神经解析器(Berkeley Neural Parser)作为方法的基础。该解析器是一种基....
的头像 深度学习自然语言处理 发表于 11-10 10:47 228次阅读
LLM作用下的成分句法分析基础研究

跨语言提示:改进跨语言零样本思维推理

进一步地,提出了Cross-Lingual Self-consistent Prompting (C....
的头像 深度学习自然语言处理 发表于 11-08 16:59 312次阅读
跨语言提示:改进跨语言零样本思维推理

认知扭曲类别

可以看出认知扭曲本身虽然往往和负面情绪相关,但其更多是强调不合理的负面情绪,这些负面情绪的形成和加强....
的头像 深度学习自然语言处理 发表于 11-03 16:53 368次阅读
认知扭曲类别

全球首款支持 8K(8192)输入长度的开源向量模型发布

在大模型时代,向量模型的重要性进一步增强。尤其是在检索增强生成(RAG)场景中,它成为了一个核心组件....
的头像 深度学习自然语言处理 发表于 11-02 14:53 415次阅读
全球首款支持 8K(8192)输入长度的开源向量模型发布

基于主观知识的任务型对话建模

我们参加了 DSTC11-track5 并在所有 14 个参赛队伍中排名第三(客观指标),其中 Tu....
的头像 深度学习自然语言处理 发表于 10-31 16:48 276次阅读
基于主观知识的任务型对话建模

探索SFT训练策略对性能的影响

大模型混合多种能力项数据进行微调时,会呈现高资源冲突,低资源增益的现象。我们提出的DMT策略通过在第....
的头像 深度学习自然语言处理 发表于 10-26 14:14 593次阅读
探索SFT训练策略对性能的影响

开源LLEMMA发布:超越未公开的顶尖模型,可直接应用于工具和定理证明

但LLEMMA的出现改变了这一局面。它不仅在MATH基准测试上创下了新高,甚至超越了某些还未对外公开....
的头像 深度学习自然语言处理 发表于 10-22 10:24 469次阅读
开源LLEMMA发布:超越未公开的顶尖模型,可直接应用于工具和定理证明

在RTX 4090被限制的时代下,让大模型使用RLHF更高效的方法来了

今年,以 ChatGPT 为首的大语言模型(Large Language Models, LLMs)....
的头像 深度学习自然语言处理 发表于 10-22 10:22 267次阅读
在RTX 4090被限制的时代下,让大模型使用RLHF更高效的方法来了

LLaMA2上下文长度暴涨至100万tokens,只需调整1个超参数

目前的Transformer位置编码方法,有绝对位置编码(将位置信息融入到输入)、相对位置编码(将位....
的头像 深度学习自然语言处理 发表于 10-22 10:20 264次阅读
LLaMA2上下文长度暴涨至100万tokens,只需调整1个超参数

DISC-LawLLM:复旦大学团队发布中文智慧法律系统,构建司法评测基准,开源30万微调数据

DISC-LawLLM是基于我们构建的高质量数据集DISC-Law-SFT在通用领域中文大模型Bai....
的头像 深度学习自然语言处理 发表于 09-28 17:34 502次阅读
DISC-LawLLM:复旦大学团队发布中文智慧法律系统,构建司法评测基准,开源30万微调数据

大模型压缩首篇综述来啦

模型压缩涉及将大型资源密集型模型转化为适合在受限移动设备上存储的紧凑版本。此外,它还可以优化模型以实....
的头像 深度学习自然语言处理 发表于 09-26 17:12 642次阅读
大模型压缩首篇综述来啦

重磅!OpenAI在ChatGPT内推出语言和图像功能

语音和图像为用户在生活中使用 ChatGPT 提供了更多方式。旅行时,拍下地标性建筑的照片,然后就它....
的头像 深度学习自然语言处理 发表于 09-26 17:05 427次阅读
重磅!OpenAI在ChatGPT内推出语言和图像功能

多模态大模型最全综述来了!

其中最后一个表示监督信号是从图像本身中挖掘出来的,流行的方法包括对比学习、非对比学习和masked ....
的头像 深度学习自然语言处理 发表于 09-26 16:42 1478次阅读
多模态大模型最全综述来了!

华为提出Sorted LLaMA:SoFT代替SFT,训练多合一大语言模型

而这一切的背后,是一项名为Sorted Fine-Tuning(SoFT)的新训练技术。SoFT让我....
的头像 深度学习自然语言处理 发表于 09-26 16:26 506次阅读
华为提出Sorted LLaMA:SoFT代替SFT,训练多合一大语言模型

AIGC移动端也有机会

a16z是硅谷一家有名的投资机构,近期发布了他们根据月浏览量统计的TOP50 GenAI产品,并给出....
的头像 深度学习自然语言处理 发表于 09-26 16:22 569次阅读
AIGC移动端也有机会

DreamLLM:多功能多模态大型语言模型,你的DreamLLM~

由于固有的模态缺口,如CLIP语义主要关注模态共享信息,往往忽略了可以增强多模态理解的模态特定知识。....
的头像 深度学习自然语言处理 发表于 09-25 17:26 415次阅读
DreamLLM:多功能多模态大型语言模型,你的DreamLLM~

这篇究极讽刺的文章一出,NLP无了

一个在推上测试Phi-1.5的例子引发了众多讨论。例如,如果你截断下图这个问题并输入给Phi-1.5....
的头像 深度学习自然语言处理 发表于 09-25 17:08 183次阅读
这篇究极讽刺的文章一出,NLP无了