0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

纽约大学与 NVIDIA 携手开发能够预测患者再入院概率的大型语言模型

NVIDIA英伟达 来源:未知 2023-06-14 18:35 次阅读

刊登在《自然》(Nature)上的 AI 模型 NYUTron 已被部署到纽约大学朗格尼健康中心

从医院出院对病人来说是一座重要的里程碑,但有时这并不代表着他们已完全康复。在美国,有近 15% 的住院病人在首次出院后 30 天内再次入院,并且往往伴随着病情恶化与对患者及院方来说都更高的住院费用。

纽约大学学术医疗中心——纽约大学朗格尼健康中心(NYU Langone Health)的研究人员与 NVIDIA 专家携手开发了一个可预测病人 30 天内再入院风险以及其他临床结果的大型语言模型(LLM)。

这个刊登在科学期刊《自然》(Nature)上的 NYUTron 模型被部署在该医疗系统的六座住院楼中。它能够为医生提供 AI 所驱动的洞察,帮助他们识别需要通过临床干预的病人,以减少患者再入院概率。

纽约大学格罗斯曼医学院放射学和神经外科助理教授、NYUTron 的主要合作者 Eric Oermann 博士表示:“当你让病人出院时,肯定不希望他们需要再回来,或者其实在当时就应该延长病人的住院时间。借助 AI 模型的分析,我们很快就能帮助临床医生预防或解决那些使病人面临更高再入院风险的情况。”

到目前为止,该模型已被应用于纽约大学医疗系统中的 5 万多名出院患者。它会通过电子邮件告知医生再入院风险的预测。Oermann 的团队接下来正计划通过一项临床试验,测试依据 NYUTron 的分析所采取的干预措施是否能够降低再入院率。

应对短期再入院等风险

美国政府追踪 30 日再入院率并以此作为医院的护理质量指标。再入院率高的医疗机构会被处以罚款,这项制度能够激励医院改进其出院流程。

新出院的病人可能会因为感染、过度使用抗生素、过早移除手术引流管等原因而需要再入院。如果这些风险因素能够被更早地发现,医生就可以通过调整治疗计划或延长病人留院观察时间来进行干预。

Oermann 表示:“虽然自 20 世纪 80 年代以来就有了预测病人再入院的计算模型,但我们把它看作一项需要卫生系统规模临床文本语料库的自然语言处理任务。我们使用电子健康记录的非结构化数据训练我们的 LLM,检查它是否能够捕捉到人们之前没有考虑过的洞察。”

NYUTron 使用纽约大学朗格尼健康中心的 10 年健康记录进行了预训练。这些记录由近 40 万名病人超过 40 亿字的临床笔记组成。相比最先进的机器学习模型,该模型预测再入院的准确率提高了 10% 以上。

一旦该 LLM 为 30 天再入院的初始用例进行了训练,该团队就能在一周左右的时间里推出了其他四种预测算法,包括预测病人的住院时间、院内死亡的可能性以及病人保险理赔被拒的几率。

Oermann 表示:“经营一家医院在某些方面就像管理一家酒店。能够帮助医院更高效运营的洞察意味着医院能够腾出更多床位并为更多病人提供更高质量的照护。”

从训练到部署一个 LLM

NYUTron 是一个拥有数亿参数的 LLM。它在一个由NVIDIA A100 Tensor Core GPU 组成的大型集群上使用 NVIDIA NeMo Megatron 框架训练而成。

Oermann 表示:“如今,大部分关于语言模型的讨论都围绕着具有数十亿参数的超大型通用模型,这些模型使用数百乃至数千个 GPU 在混乱的数据集上训练而成。我们反其道而行之,使用在高度精炼的数据上训练的中等规模的模型来完成特定医疗任务。”

为了优化模型以便在现实医院进行推理,该团队开发了一个修改版的NVIDIA Triton 开源软件,以便利用NVIDIA TensorRT 软件开发工具套件简化 AI 模型部署。

Oermann 表示:“像这样的模型必须要高效运行才能被部署到实时医疗环境中。Triton 提供了你在一个推理框架中想要的一切,让我们的模型能够飞速运行。”

Oermann 的团队发现,在对他们的 LLM 进行预训练后,只需使用特定医院的数据在现场进行微调就能大幅提高准确率,这个特点可以帮助其他医疗机构部署类似的模型。

他表示:“并不是所有医院都拥有完全自主训练一个大型语言模型所需要的资源,但他们可以采用像 NYUTron 这样的预训练模型,然后通过云端的 GPU 使用少量本地数据样本对模型进行微调。这对于许多医疗机构来说都是可以做到的。”

如要进一步了解 NYUTron,请阅读《自然》期刊中的论文。点击“阅读原文”,点播观看 NVIDIA 与纽约大学的相关讲座。

扫描下方海报二维码观看 NVIDIA 创始人兼 CEO 黄仁勋在 COMPUTEX 2023 的主题演讲直播回放,主题演讲中文字幕版已上线,了解 AI、图形及其他领域的最新进展!


原文标题:纽约大学与 NVIDIA 携手开发能够预测患者再入院概率的大型语言模型

文章出处:【微信公众号:NVIDIA英伟达】欢迎添加关注!文章转载请注明出处。


声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 英伟达
    +关注

    关注

    22

    文章

    3332

    浏览量

    87802

原文标题:纽约大学与 NVIDIA 携手开发能够预测患者再入院概率的大型语言模型

文章出处:【微信号:NVIDIA_China,微信公众号:NVIDIA英伟达】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    NVIDIA加速微软最新的Phi-3 Mini开源语言模型

    NVIDIA 宣布使用 NVIDIA TensorRT-LLM 加速微软最新的 Phi-3 Mini 开源语言模型。TensorRT-LLM 是一个开源库,用于优化从 PC 到云端的
    的头像 发表于 04-28 10:36 101次阅读

    韩国Kakao宣布开发多模态大语言模型“蜜蜂”

    韩国互联网巨头Kakao最近宣布开发了一种名为“蜜蜂”(Honeybee)的多模态大型语言模型。这种创新模型
    的头像 发表于 01-19 16:11 284次阅读

    不要错过!NVIDIA “大模型没那么泛!”主题活动

    2024 新年首发! NVIDIA模型日系列活动 将于 2024 年 1 月 正式启动,由 NVIDIA 和业界专家携手分享大模型应用
    的头像 发表于 12-20 19:35 355次阅读
    不要错过!<b class='flag-5'>NVIDIA</b> “大<b class='flag-5'>模型</b>没那么泛!”主题活动

    LabVIEW进行癌症预测模型研究

    ,然后将得到的特征向量输入到SVM中进行分类。 LabVIEW是一种视觉编程语言,与传统的文本编程语言不同,更适合于进行复杂数据分析和预测模型开发
    发表于 12-13 19:04

    NVIDIA 为部分大型亚马逊 Titan 基础模型提供训练支持

    本文将介绍亚马逊如何使用 NVIDIA NeMo 框架、GPU 以及亚马逊云科技的 EFA 来训练其 最大的新一代大语言模型(LLM)。 大语言模型
    的头像 发表于 11-29 21:15 323次阅读
    <b class='flag-5'>NVIDIA</b> 为部分<b class='flag-5'>大型</b>亚马逊 Titan 基础<b class='flag-5'>模型</b>提供训练支持

    研讨会回顾:NVIDIA 助力汽车行业大语言模型创新与发展

    10 月 28 日,汽车行业大语言模型研讨会正式结束。 NVIDIA 解决方案架构师陈文恺 在研讨会中讲解了 汽车行业如何开发企业级大语言
    的头像 发表于 11-03 19:10 386次阅读

    现已公开发布!欢迎使用 NVIDIA TensorRT-LLM 优化大语言模型推理

    NVIDIA 于 2023 年 10 月 19 日公开发布 TensorRT-LLM ,可在 NVIDIA GPU 上加速和优化最新的大语言模型
    的头像 发表于 10-27 20:05 540次阅读
    现已公<b class='flag-5'>开发</b>布!欢迎使用 <b class='flag-5'>NVIDIA</b> TensorRT-LLM 优化大<b class='flag-5'>语言</b><b class='flag-5'>模型</b>推理

    大型语言模型在关键任务和实际应用中的挑战

    大型语言模型的出现极大地推动了自然语言处理领域的进步,但同时也存在一些局限性,比如模型可能会产生看似合理但实际上是错误或虚假的内容,这一现象
    的头像 发表于 08-15 09:33 1141次阅读
    <b class='flag-5'>大型</b><b class='flag-5'>语言</b><b class='flag-5'>模型</b>在关键任务和实际应用中的挑战

    清华大学语言模型综合性能评估报告发布!哪个模型更优秀?

    近日,清华大学新闻与传播学院发布了《大语言模型综合性能评估报告》,该报告对目前市场上的7个大型语言模型
    的头像 发表于 08-10 08:32 685次阅读
    清华<b class='flag-5'>大学</b>大<b class='flag-5'>语言</b><b class='flag-5'>模型</b>综合性能评估报告发布!哪个<b class='flag-5'>模型</b>更优秀?

    ChatGPT等大型语言模型的出现会带来哪些风险

    近日,美智库兰德公司高级工程师克里斯托弗·莫顿(Christopher Mouton)在C4ISRNET网站撰文,分析ChatGPT等大型语言模型的出现给国家安全带来的新风险。主要观点如下:
    发表于 08-04 11:44 329次阅读

    NVIDIA DLI 实战培训 | 加速大语言模型开发的核心技能

    实战开发技能 | 实时讲师授课 实验用 GPU 环境 | 实名 NVIDIA 证书 大语言模型的发展宛如一场风潮席卷全球,激发了企业、学术界和科研机构的无限热情。其庞大且复杂的规模和计
    的头像 发表于 07-14 19:40 273次阅读
    <b class='flag-5'>NVIDIA</b> DLI 实战培训 | 加速大<b class='flag-5'>语言</b><b class='flag-5'>模型</b><b class='flag-5'>开发</b>的核心技能

    大型语言模型的应用

       大型语言模型(LLM) 是一种深度学习算法,可以通过大规模数据集训练来学习识别、总结、翻译、预测和生成文本及其他内容。大语言
    的头像 发表于 07-05 10:27 1629次阅读

    Snowflake 携手 NVIDIA 助力企业在数据云端利用数据实现生成式 AI

    NVIDIA NeMo 与 Snowflake 的结合,使企业能够在 Snowflake 数据云中使用自己的专有数据来安全地构建定制化大语言模型 Snowflake 峰会—2023 年
    的头像 发表于 06-27 21:10 270次阅读
    Snowflake <b class='flag-5'>携手</b> <b class='flag-5'>NVIDIA</b> 助力企业在数据云端利用数据实现生成式 AI

    基于Transformer的大型语言模型(LLM)的内部机制

    本文旨在更好地理解基于 Transformer 的大型语言模型(LLM)的内部机制,以提高它们的可靠性和可解释性。 随着大型语言
    的头像 发表于 06-25 15:08 1042次阅读
    基于Transformer的<b class='flag-5'>大型</b><b class='flag-5'>语言</b><b class='flag-5'>模型</b>(LLM)的内部机制

    浅析AI大型语言模型研究的发展历程

    大型语言模型研究的发展有三条技术路线:Bert 模式、GPT 模式、混合模式。其中国内大多采用混合模式, 多数主流大型语言
    发表于 06-09 12:34 3800次阅读
    浅析AI<b class='flag-5'>大型</b><b class='flag-5'>语言</b><b class='flag-5'>模型</b>研究的发展历程