0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

从混沌到清晰:大语言模型如何化繁为简,开创数据清洗新时代!

AI智胜未来 来源:软件定义世界 2023-07-11 15:29 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

在数字时代,准确可靠的数据对企业来说至关重要。这些数据为企业提供个性化的体验,并帮助他们做出明智的决策[1]。然而,由于庞大的数据量和复杂度,处理数据常常面临重大挑战,需要进行大量枯燥且手动的工作。在这种情况下,大语言模型(LLM)应运而生,这项变革性技术具备了自然语言处理和模式识别的能力,有望彻底改变数据清洗的过程,使数据更具可用性。

在数据科学家的工具箱中,LLM就像是扳手和螺丝刀,能够重塑活动并发挥作用,以提升数据质量。就像谚语中说的一锤定音,LLM将揭示出可行的洞见,最终为创造更好的客户体验铺平道路。

现在,让我们直接进入今天的案例。

案例

当对学生进行调查问卷时,将事实字段设为自由形式的文本是最糟糕的选择!你可以想象我们收到的一些回答。

开个玩笑,我们的客户之一是Study Fetch,这是一个AI驱动的平台,利用课程材料为学生创建个性化的全方位学习套件。他们在大学生中进行了一项调查,收到了超过10,000个反馈。然而,他们的首席执行官兼联合创始人Esan Durrani遇到了一个小问题。原来,在调查中,"主修"字段是一个自由形式的文本框,这意味着回答者可以输入任何内容。作为数据科学家,我们知道这对于进行统计计算来说绝对不是一个明智的选择。所以,从调查中获得的原始数据看起来像这样...

76d67ad0-1f2b-11ee-962d-dac502259ad0.png

天了噜,让你的Excel准备好吧!准备好花上一个小时,甚至三个小时的冒险来对付这些数据异类。

但是,别担心,我们有一把大语言模型(LLM)的锤子。

正如一位长者所言,假如你只有一把锤子,那么所有的问题都会像是钉子。而数据清洗工作难道不正是最适合这把锤子的任务吗?

我们只需要简单地使用我们友好的大语言模型将它们归类到已知的类别中。特别是,OpenAI的生成式预训练Transformer(GPT)模型,正是当下流行的聊天机器人应用ChatGPT背后的LLM。GPT模型使用了高达1750亿个参数,并且已经通过对来自公开数据集Common Crawl的26亿个存储网页进行训练。此外,通过一种称为从人类反馈中的强化学习(RLHF)的技术,训练者可以推动并激励模型提供更准确和有用的回答[2]。

对于我们的目标来说,我相信超过1750亿个参数应该足够了,只要我们能给出正确的提示(prompt)。

图片由Kelly Sikkema上传至Unsplash

关键在于提示语

来自某AI公司的Ryan和Esan,他们的主要业务是编写出色的提示语。他们提供了我们的提示语的第一个版本。这个版本很棒,使用语言推断[3]效果非常好,但有两个可以改进的地方:

首先,它仅适用于单个记录。

其次,它使用了达芬奇模型的'Completion'方法(一提到它,我的银行账户就开始恐慌)。

这导致了过高的成本,这是我们无法接受的。因此,Ryan和我分别使用'gpt-3.5-turbo'重新编写了提示语,以便进行批量操作。对我来说,OpenAI的提示语最佳实践和ChatGPT Prompt Engineering for Developers课程非常有帮助。经过一系列思考、实施、分析和改进的迭代,我们最终获得了一个出色的工作版本。

现在,让我们马上展示经过第二次修订后的提示语:

772f7298-1f2b-11ee-962d-dac502259ad0.png

对这个提示语,LLM给的回应是:

774d52ea-1f2b-11ee-962d-dac502259ad0.png

这个方法或多或少会有些效果。但我并不太喜欢那些重复的、长篇大论的项目名称。在LLM中,文本就是tokens,tokens就是真金白银啊。你知道,我的编程技能是在互联网泡沫破裂的火热深渊中锻炼出来的。让我告诉你,我从不放过任何一次节省成本的机会。

因此,我在“期望的格式”部分略微修改了提示语。我要求模型只输出调查反馈的序数(例如,上面的戏剧为1)和项目的序数(例如,文学为1)。然后Ryan建议我应该要求输出JSON格式而不是CSV,以便更简单地解析。他还建议我添加一个“示例输出”部分,这是一个极好的建议。

最终的提示语如下(为清晰起见,已简化):

775f1cc8-1f2b-11ee-962d-dac502259ad0.png

模型的输出结果是:

7782d118-1f2b-11ee-962d-dac502259ad0.png

所以,正如我们之前讨论的,模型的输出是我们定义的类别与调查响应的序数之间的映射。以第一行为例:1,1。这意味着1是响应编号,1是相应的映射程序编号。调查响应1是“戏剧”,映射的程序1是“文学与人文”。这看起来很正确!戏剧在它应有的#1位置,成为了所有人的焦点。

虽然输出结果乍看之下像是嵌入的输出(用于聚类和降维),但它们只是相同的映射信息,只不过是序数位置。除了在token使用上提供一些成本优势外,这些数字还更容易解析。

我们现在可以把原始的调查反馈文件转换为有意义的专业,做聚合,获得有价值的可操作的洞察。

但等等,我不打算坐在电脑前,把每一块调查反馈输入浏览器并计算映射。这除了令人头脑麻木,错误率也是无法接受的。

我们需要的是一些好的自动化工具。让我们来看看API...

API救世主

可能你已经知道,应用程序接口(API)使我们的程序能够高效地与第三方服务进行交互。尽管许多人通过使用ChatGPT实现了令人印象深刻的成果,但语言模型的真正潜力在于利用API将自然语言能力无缝地集成到应用程序中,使用户感觉不到它的存在。就像你正在用来阅读这篇文章的手机或电脑背后的令人难以置信的科学技术。

我们将使用REST来调用chat completion API。调用的示例如下:

77d327f8-1f2b-11ee-962d-dac502259ad0.png

我们快速看一下参数及其效果。

模型

到目前为止,对公众开放的聊天完成模型只有gpt-3.5-turbo。Esan可以使用GPT 4模型,我对此非常嫉妒。虽然gpt-4更准确,且出现错误的可能性更小[2],但它的成本大约是gpt-3.5-turbo的20倍,对于我们的需求来说,gpt-3.5-turbo完全足够了,谢谢。

温度(temperature)

temperature是我们可以传递给模型的最重要的设置之一,仅次于提示。根据API文档,它可以设置在0和2之间的值。它有着显著的影响[6],因为它控制输出中的随机性,有点像你开始写作前体内的咖啡因含量。你可以在这里找到一个对于每个应用可以使用的值的指南[7]。

对于我们的用例,我们只想要没有变化的输出。我们希望引擎给我们原封不动的映射,每次都是相同的。所以,我们使用了0的值。

N值

生成多少个聊天完成选择?如果我们是为了创造性写作并希望有多个选择,我们可以使用2或者3。对于我们的情况,n=1(默认)会很好。

角色

角色可以是system(系统)、user(用户)或assistant(助手)。系统角色提供指令和设定环境。用户角色代表来自最终用户的提示。助手角色是基于对话历史的响应。这些角色帮助构造对话,并使用户和AI助手能够有效地互动。

模型最大Token

这不一定是我们在请求中传递的参数,尽管另一个参数max_tokens限制了从聊天中获取的响应的总长度。

首先,token可以被认为是一个词的一部分。一个token大约是英语中的4个字符。例如,被归于亚伯拉罕·林肯(Abraham Lincoln)和其他人的引语“The best way to predict the future is to create it”包含了11个token。

785506ba-1f2b-11ee-962d-dac502259ad0.jpg

如果你认为一个token就是一个词,那么这里有一个64个token的例子,可以显示它并非那么简单。

78699db4-1f2b-11ee-962d-dac502259ad0.jpg

做好准备,因为现在要揭示一个令人震惊的事实:每个你在消息中使用的表情符号都会额外增加高达6个重要令牌的成本。没错,你喜爱的笑脸和眨眼都是偷偷摸摸的小令牌窃贼!

模型的最大token窗口是一种技术限制。你的提示(包括其中的任何额外数据)和答案必须适应模型的最大限制。在对话完成的情况下,内容、角色和之前的所有消息都会占用token。如果你从输入或输出(助手消息)中删除一条消息,模型将完全失去对它的了解[8]。就像多丽在寻找奇科时,没有法比奥,没有宾果,没有哈波,没有艾尔莫?... 尼莫!

对于gpt-3.5-turbo,模型的最大限制是4096个token,或大约16000个字符。对于我们的示例来说,提示大约占用2000个字符,每个调查反馈平均约20个字符,映射反馈约为7个字符。因此,如果我们在每个提示中放入N个调查反馈,最大字符数应为:

2000 + 20N + 7N应小于16000。

解这个等式后,我们得到一个小于518或大约500的N值。从技术角度来说,我们可以在每个请求中放入500个调查反馈,并处理我们的数据20次。然而,我们选择在每个反馈中放入50个反馈,并进行200次处理,因为如果我们在单个请求中放入超过50个调查反馈,我们会偶尔收到异常响应。有时候,服务可能会出现问题!我们不确定这是一个系统的长期问题,还是我们碰巧遇到了不幸的情况。

那么,我们该如何使用我们拥有的API呢?让我们进入精彩部分,代码。

代码的方法

Node.js是一个JavaScript运行环境[9]。我们将编写一个Node.js/JavaScript程序,它将按照这个流程图所描述的动作执行操作:

78e37ac6-1f2b-11ee-962d-dac502259ad0.png

程序的流程图,由作者绘制

我的Javascript技能并不是那么出色。我可以写更好的Java,PHP,Julia,Go,C#,甚至Python。但是Esan坚持使用Node,所以就用Javascript吧。

完整的代码,提示和样本输入可以在这个GitHub链接(https://github.com/aaxis-nram/data-cleanser-llm-node)中找到。然而,让我们先看一下最吸引人的部分:

首先,让我们看看我们如何使用“csv-parser” Node库来读取CSV文件。

78ff7d34-1f2b-11ee-962d-dac502259ad0.png

接下来,我们调用分类器来生成映射。

792151f2-1f2b-11ee-962d-dac502259ad0.png

然后,我们从类别、主提示文本以及CSV中的数据构造出提示。接着,我们使用他们的 OpenAI Node 库将提示发送给服务。

793af9c2-1f2b-11ee-962d-dac502259ad0.png

最后,当所有迭代都完成后,我们可以将 srcCol 文本(即调查反馈)转换为 targetCol(即标准化的项目名称),并写出CSV。

796271f0-1f2b-11ee-962d-dac502259ad0.png

这点 JavaScript 并没有我预期的那么复杂,而且在2到3小时内就完成了。我想,任何事情在你开始做之前总是看起来令人生畏的。

所以,现在我们已经准备好了代码,是时候进行最终的执行了…

执行过程

现在,我们需要一个地方来运行这个代码。在争论是否应该在云实例上运行负载之后,我做了一些快速的计算,意识到我可以在我的笔记本电脑上在不到一个小时内跑完。这还不算太糟糕。

我们开始进行一轮测试,并注意到该服务在10次请求中有1次会返回提供给它的数据,而不是映射数据。因此,我们只会收到调查反馈的列表。由于没有找到映射,CSV文件中的这些反馈将被映射为空字符串。

为了避免在代码中检测并重试,我决定重新运行脚本,但只处理目标列为空的记录。

脚本会先将所有行的目标列设为空,并填入规范化的程序名称。由于响应中的错误,一些行的目标列不会被映射,保持为空。当脚本第二次运行时,它只会为第一次运行中未处理的响应构建提示。我们运行了几次程序,并将所有内容都映射出来。

多次运行大约花费了30分钟左右,并且不需要太多监督。以下是模型中一些更有趣的映射的精选:

79cbac7e-1f2b-11ee-962d-dac502259ad0.png

输入与程序名称之间的样例映射,图表由作者绘制

大多数看起来都对。不确定组织行为(Organizational Behavior)是否属于社会科学(Social Sciences)或商业(Business)?我想任何一个都可以。

每个大约50条记录的请求总共需要大约800个token。整个练习的成本是40美分。我们可能在测试、重新运行等方面花费了10美分。所以,总成本大约是50美分,大约2.5小时的编码/测试时间,半小时的运行时间,我们完成了任务。

总成本:大约不到1美元

总时间:大约3小时

或许手动使用Excel进行转换,排序,正则表达式,和拖拽复制,我们可能在相同的时间内完成它,并节省了一点小钱。但是,这样做更有趣,我们学到了东西,我们有了可以重复的脚本/流程,并且还产出了一篇文章。而且,我觉得StudyFetch可以负担得起50美分。

这是我们以高效率,高收益的方式实现的一个很好的应用,但LLM还可以用于哪些其他用途呢?

探索更多的用例

将语言功能添加到你的应用程序中可能有比我上面所示更多的用例。以下是与我们刚刚查看的评论数据相关的更多用例:

数据解析和标准化:LLM可以通过识别和提取非结构化或半结构化数据源(如我们刚刚看到的数据源)中的相关信息,帮助解析和标准化数据。

数据去重:LLM可以通过比较各种数据点来帮助识别重复记录。例如,我们可以在评论数据中比较姓名、专业和大学,以标记潜在的重复记录。

数据摘要:LLM可以对不同的记录进行摘要,以了解回答的概况。例如,对于问题“在学习过程中你面临的最大挑战是什么?”,一个大语言模型可以对来自同一专业和大学的多个回答进行摘要,以查看是否存在任何模式。然后,我们可以将所有的摘要放入一个请求中,得到一个整体的列表。但我猜每个客户细分的摘要可能会更有用。

情感分析:LLM可以分析评论以确定情感,并提取有价值的见解。对于问题“你愿意为帮助你学习的服务付费吗?”,LLM可以将情感分类为0(非常负面)到5(非常正面)。然后,我们可以利用这一点通过细分分析学生对付费服务的兴趣。

尽管学生评论只是一个微小的示例,但这项技术在更广泛的领域中有着多种应用。在我所在的AAXIS公司,我们专注于企业和消费者数字商务解决方案。我们的工作包括将大量数据从现有的旧系统迁移到具有不同数据结构的新系统。为了确保数据的一致性,我们使用各种数据工具对源数据进行分析。这篇文章中介绍的技术对于这个目标非常有帮助。

其他数字商务用例包括检查产品目录中的错误、编写产品说明、扫描评论回复和生成产品评论摘要等等。相比询问学生的专业,编写这些用例的代码要简单得多。

然而,需要注意的是,尽管LLM在数据清洗方面是强大的工具,但它们应与其他技术和人工监督相结合使用。数据清洗过程通常需要领域专业知识、上下文理解和人工审核,以做出明智的决策并保持数据的完整性。LLM并不是推理引擎[10],它们只是下一个词的预测器。它们往往以极大的自信和说服力提供错误的信息(幻觉)[2][11]。在我们的测试中,由于我们主要涉及分类,我们没有遇到任何幻觉的情况。

如果您谨慎行事并了解其中的陷阱,LLM可以成为您工具箱中强大的工具。

尾声

在这篇文章中,我们首先研究了数据清洗的一个具体应用案例:将调查问卷反馈规范化为一组特定的值。这样做可以将反馈进行分组并获得有价值的见解。为了对这些反馈进行分类,我们使用了OpenAI的GPT 3.5 Turbo,一个强大的LLM。我们详细介绍了使用的提示、如何利用API调用来处理提示以及实现自动化的代码。最终,我们成功地将所有组件整合在一起,以不到一美元的成本完成了任务。

我们是不是像拿着一把传说中的LLM锤子,找到了在自由文本形式的调查反馈中那颗完美闪亮的钉子?也许吧。更可能的是,我们拿出了一把瑞士军刀,用它剥皮并享用了一些美味的鱼肉。虽然LLM不是专门为此而设计的工具,但仍然非常实用。而且,Esan真的非常喜欢寿司。

那么,你有什么LLM的用例呢?我们非常乐意听听你的想法!

鸣谢

本文的主要工作由我、Esan Durrani和Ryan Trattner完成,我们是StudyFetch的联合创始人。StudyFetch是一个基于人工智能的平台,利用课程资料为学生创建个性化的一站式学习集。

我要感谢AAXIS Digital的同事Prashant Mishra、Rajeev Hans、Israel Moura和Andy Wagner对本文的审查和建议。

我还要感谢我30年的朋友、TRM Labs的工程副总裁Kiran Bondalapati,感谢他在生成式人工智能领域的初期引导以及对本文的审阅。

同时,我要特别感谢我的编辑Megan Polstra,她一如既往地为文章增添了专业和精致的风格。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 人工智能
    +关注

    关注

    1820

    文章

    50318

    浏览量

    266897
  • 语言模型
    +关注

    关注

    0

    文章

    575

    浏览量

    11341
  • AI驱动
    +关注

    关注

    0

    文章

    92

    浏览量

    4661

原文标题:从混沌到清晰:大语言模型如何化繁为简,开创数据清洗新时代!

文章出处:【微信号:AI智胜未来,微信公众号:AI智胜未来】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    人工智能多模态与视觉大模型开发实战 - 2026必会

    ,学员们将亲自动手操作,数据收集与预处理开始,逐步深入模型训练与优化。 数据收集是视觉大模型
    发表于 04-15 16:06

    光缆:开启高速通信新时代的钥匙

    数据传输保障,开启了高速通信的新时代。 光缆的技术优势 光缆的核心优势在于其利用光波作为信息载体,通过光纤进行传输。相比传统的电缆,光缆具有以下几个显著特点: 高速传输:光信号的频率远高于电信号,因此光缆能
    的头像 发表于 03-31 09:58 363次阅读

    端侧大模型上车:“语音助手”“车内 AI 智能体”的跃迁革命

    2025年,智能汽车的座舱不再只是“语音助手”的舞台,而是一个搭载生成式AI和大语言模型(LLM)的智能体。云端示范车内落地,这一跨越不仅改变了人机交互的边界,更重构了汽车作为“第
    的头像 发表于 01-13 09:10 693次阅读

    数据模型:如何预测细节距键合的剪切力?

    预估其剪切力?行业内的研究数据为我们揭示了可能性。今天,科准测控小编将带您了解如何基于实验数据建立并应用预测模型,实现从“测量”“预估”的关键跨越。 一、
    发表于 01-08 09:45

    AI赋能微电网规划,开启智能新时代

    ,为微电网规划注入了“智慧基因”,推动规划过程“静态估算”转向“动态预判”,“单点优化”迈向“全局协同”,开启了微电网智能规划的全新时代
    的头像 发表于 01-05 14:36 500次阅读
    AI赋能微电网规划,开启智能<b class='flag-5'>新时代</b>

    AI赋能6G与卫星通信:开启智能天网新时代

    学习,AI可以智能识别和纠正信号错误。在2024年欧洲卫星通信展上,展示的AI信号处理系统使卫星通信的误码率0.01%降至0.0001%,相当于每1000万比特数据中,错误比特数1000个减少
    发表于 10-11 16:01

    适应边缘AI全新时代的GPU架构

    电子发烧友网站提供《适应边缘AI全新时代的GPU架构.pdf》资料免费下载
    发表于 09-15 16:42 47次下载

    超声波清洗设备厂家,如何根据清洗物体的大小来定制设备?

    在今天的制造业中,清洗被视为电子制造业的重要部分。超声波清洗设备是清洗技术中的重要设备,可以用于几乎任何材料的清洗金属
    的头像 发表于 07-24 16:39 794次阅读
    超声波<b class='flag-5'>清洗</b>设备厂家,如何根据<b class='flag-5'>清洗</b>物体的大小来定制设备?

    MT6701磁编芯片:开创机器人运动控制新时代

    在科技的浩瀚星空中,机器人领域无疑是一颗璀璨的明星。而在机器人的关键技术中,运动控制宛如机器人的“神经系统”,直接影响着机器人的性能表现。今天,我们要聚焦的主角——MT6701磁编芯片,正以其卓越的性能,开创着机器人运动控制的新时代
    的头像 发表于 07-23 18:18 1067次阅读

    MT6701磁编芯片:运动控制新时代

    科技飞速发展的今天,机器人已经逐渐走进我们生活的方方面面,工业生产线上不知疲倦的机械臂,到家庭中智能扫地的小精灵,机器人正以前所未有的速度改变着我们的生活和工作方式。而在机器人的核心技术——运动控制领域,MT6701磁编芯片犹如一颗耀眼的新星,正开创着属于机器人运动控制
    的头像 发表于 07-22 16:47 1023次阅读

    MT6701磁编芯片:控制新时代

    在科技飞速发展的今天,机器人已经逐渐走进了我们生活的方方面面,工业制造到家庭服务,机器人的应用场景越来越广泛。而机器人的精准运动控制则是其能够高效完成各种任务的关键所在。MT6701磁编芯片的出现,为机器人运动控制带来了新的突破,开创了机器人运动控制的
    的头像 发表于 07-21 17:03 820次阅读

    最新人工智能硬件培训AI 基础入门学习课程参考2025版(大模型篇)

    在人工智能大模型重塑教育与社会发展的当下,无论是探索未来职业方向,还是更新技术储备,掌握大模型知识都已成为新时代的必修课。职场上辅助工作的智能助手,
    发表于 07-04 11:10

    FA模型切换到Stage模型时:module的切换说明

    module的切换 FA模型切换到Stage模型时,开发者需要将config.json文件module标签下的配置迁移到module.json5配置文件module标签下,具体差异
    发表于 06-05 08:16

    高速 IO 通信原理及应用解析:开启高效数据交互新时代

    在当今数字化飞速发展的时代数据如同汹涌的浪潮,不断冲击着各个领域。我们日常使用的智能手机、电脑,工业生产中的自动化设备,再到航空航天等高端科技领域,
    的头像 发表于 05-06 13:55 1435次阅读
    高速 IO 通信原理及应用解析:开启高效<b class='flag-5'>数据</b>交互<b class='flag-5'>新时代</b>!

    小白学大模型零实现 LLM语言模型

    在当今人工智能领域,大型语言模型(LLM)的开发已经成为一个热门话题。这些模型通过学习大量的文本数据,能够生成自然语言文本,完成各种复杂的任
    的头像 发表于 04-30 18:34 1446次阅读
    小白学大<b class='flag-5'>模型</b>:<b class='flag-5'>从</b>零实现 LLM<b class='flag-5'>语言</b><b class='flag-5'>模型</b>