0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

OpenAI确保不利用API获取的客户数据进行大规模语言模型训练

微云疏影 来源:综合整理 作者:综合整理 2024-04-13 10:15 次阅读

四月十三日透露,OpenAI近期举行数场推介会,CEO山姆·阿尔特曼分别于旧金山、纽约及伦敦向财富五百强企业的高层决策者们承诺,OpenAI决不使用API所收集之客户数据进行大规模语言模型(LLM)训练。

此项活动针对金融、医疗保健以及能源等行业的高层领导。阿尔特曼亲自主持,联合首席运营官Brad Lightcap等多名OpenAI高管共同介绍了ChatGPT Enterprise、文本转视频模型等多项产品

阿尔特曼向参会者保证,通过ChatGPT Enterprise获取的客户数据将不会用于未来模型迭代。

IT之家补充道:微软已通过Azure云平台和Microsoft 365套件提供类似的人工智能工具。部分与会者因考虑到与微软现有合作关系,对OpenAI是否有必要独立推出产品提出疑问。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • API
    API
    +关注

    关注

    2

    文章

    1384

    浏览量

    61001
  • OpenAI
    +关注

    关注

    8

    文章

    763

    浏览量

    5918
  • ChatGPT
    +关注

    关注

    27

    文章

    1411

    浏览量

    4780
收藏 人收藏

    评论

    相关推荐

    OpenAI API Key获取与充值教程:助开发者解锁GPT-4.0 API

    在人工智能的浪潮中,OpenAI 的 GPT-4.0 模型以其卓越的语言理解和生成能力引领了技术的新高潮。为开发者提供了强大的工具来创建更智能、更互动的应用。本文将详细介绍如何获取并充
    的头像 发表于 04-28 16:35 147次阅读
    <b class='flag-5'>OpenAI</b> <b class='flag-5'>API</b> Key<b class='flag-5'>获取</b>与充值教程:助开发者解锁GPT-4.0 <b class='flag-5'>API</b>

    OpenAI寻求新收入来源,与世界500强公司高管会晤

    在活动现场,阿尔特曼亲自向参会者展示了其产品,包括ChatGPT企业版。他承诺,ChatGPT企业版将不会利用客户数据进行模型训练。此外,
    的头像 发表于 04-15 10:37 259次阅读

    盘点一下史上最全大语言模型训练中的网络技术

    人工智能的基础设施在大语言模型训练和推理过程中发挥了关键的作用。随着大语言模型规模不断增大,其对
    的头像 发表于 03-27 17:24 395次阅读
    盘点一下史上最全大<b class='flag-5'>语言</b><b class='flag-5'>模型</b><b class='flag-5'>训练</b>中的网络技术

    【书籍评测活动NO.30】大规模语言模型:从理论到实践

    多种形式和任务。这个阶段是从语言模型向对话模型转变的关键,其核心难点在于如何构建训练数据,包括训练
    发表于 03-11 15:16

    字节跳动否认借助OpenAI技术研发大模型,已删除GPT生成数据

    据悉,有媒体曝光,字节跳动可能涉足未公开地使用OpenAI技术来开发自家的大规模语言模型,这与OpenAI的服务条款相悖。因此,该公司的账户
    的头像 发表于 12-18 10:39 227次阅读

    大规模语言模型的基本概念、发展历程和构建流程

    文本进行训练。自 2018 年以来,Google、OpenAI、Meta、百度、华为等公司和研究机构都相继发布了包括 BERT,GPT 等在内多种模型,并在几乎所有自然
    的头像 发表于 12-07 11:40 1652次阅读
    <b class='flag-5'>大规模</b><b class='flag-5'>语言</b><b class='flag-5'>模型</b>的基本概念、发展历程和构建流程

    语言模型(LLM)预训练数据集调研分析

    model 训练完成后,使用 instruction 以及其他高质量的私域数据集来提升 LLM 在特定领域的性能;而 rlhf 是 openAI 用来让model 对齐人类价值观的一种强大技术;pre-training dat
    的头像 发表于 09-19 10:00 573次阅读
    大<b class='flag-5'>语言</b><b class='flag-5'>模型</b>(LLM)预<b class='flag-5'>训练</b><b class='flag-5'>数据</b>集调研分析

    如何构建高质量的大语言模型数据

    以包括从互联网上抓取文本、购买已有的数据集、与合作伙伴合作获取数据等。确保数据集的规模足够大,以
    的头像 发表于 09-11 17:00 637次阅读

    OpenAI宣布GPT-4 API全面开放使用!

    OpenAI 在博客文章中写道:“自 3 月份以来,数百万开发者请求访问 GPT-4 API,并且利用 GPT-4 的创新产品范围每天都在增长。” “我们设想基于对话的模型未来可以支持
    的头像 发表于 07-12 14:55 883次阅读

    如何计算transformer模型的参数量

    参数规模大,训练数据规模大。以GPT3为例,GPT3的参数量为1750亿,训练数据量达到了570
    的头像 发表于 07-10 09:13 7442次阅读
    如何计算transformer<b class='flag-5'>模型</b>的参数量

    客户360度系统与GPT API集成:技术架构视角

    Customer 360 是跨多个接触点了解和管理客户数据的综合方法。组织必须全面了解客户的交互、偏好和需求,以便提供个性化的体验和服务。集成 GPT API 等 AI 驱动的语言
    发表于 06-09 09:20 340次阅读
    将<b class='flag-5'>客户</b>360度系统与GPT <b class='flag-5'>API</b>集成:技术架构视角

    微软将向美国政府客户提供OpenAI的GPT模型

    微软增加了对大型语言模型(llm)的支持。openai推出chatgpt后,llm的使用大幅增加,微软持有openai的股份,许多类型的公司争相在llm上构建功能。
    的头像 发表于 06-08 10:35 799次阅读

    PyTorch教程-11.9. 使用 Transformer 进行大规模训练

    11.9. 使用 Transformer 进行大规模训练¶ Colab [火炬]在 Colab 中打开笔记本 Colab [mxnet] Open the notebook
    的头像 发表于 06-05 15:44 987次阅读
    PyTorch教程-11.9. 使用 Transformer <b class='flag-5'>进行</b><b class='flag-5'>大规模</b>预<b class='flag-5'>训练</b>

    PyTorch教程11.9之使用Transformer进行大规模训练

    电子发烧友网站提供《PyTorch教程11.9之使用Transformer进行大规模训练.pdf》资料免费下载
    发表于 06-05 15:07 0次下载
    PyTorch教程11.9之使用Transformer<b class='flag-5'>进行</b><b class='flag-5'>大规模</b>预<b class='flag-5'>训练</b>

    “伶荔”(Linly) 开源大规模中文语言模型

    Linly-Chinese-LLaMA:中文基础模型,基于 LLaMA 在高质量中文语料上增量训练强化中文语言能力,现已开放 7B、13B 和 33B 量级,65B 正在训练中。
    的头像 发表于 05-04 10:29 759次阅读
    “伶荔”(Linly) 开源<b class='flag-5'>大规模</b>中文<b class='flag-5'>语言</b><b class='flag-5'>模型</b>