AI 模型:数据收集和清洗

本文涉及的产品
实时数仓Hologres,5000CU*H 100GB 3个月
智能开放搜索 OpenSearch行业算法版,1GB 20LCU 1个月
检索分析服务 Elasticsearch 版,2核4GB开发者规格 1个月
简介: AI 模型:数据收集和清洗

为了训练AI模型,需要收集和准备足够的数据。数据应该涵盖各种情况和场景,以确保系统在各种情况下都能准确地运行。数据原始来源应该是真实的,并且应该涵盖系统预计的使用情况。数据应该根据特定的需求进行采样和处理,可以来自各种来源,例如公共数据集、第三方数据提供商、内部数据集和模拟数据集等。很多大模型训练的数据从广义上可以分成两大类,其一是通用文本数据,包含了网页、书籍、网络留言以及网络对话,这类主要是因为获取容易、数据规模大而被广泛的大模型利用,通用文本数据更容易提高大模型的泛化能力;其二是专用文本数据,主要是一些多语言类别的数据、科学相关的产出数据以及代码,这类数据可以提高大模型的专项任务的能力。在准备数据时,还应该注意数据的质量,例如数据的准确性、完整性和一致性。另外,还应该考虑隐私和安全问题,如果数据包含敏感信息,例如用户的个人身份信息,应该采取脱敏措施确保数据的安全性和隐私性。数据收集和准备是测试AI系统的重要步骤之一,需要充分的计划和准备,以确保测试的准确性和全面性。

数据收集完成后,通常是要对数据进行清洗,这里的清洗说的是对数据一些“不好”的内容的处理,这里的不好指的是数据的噪音、冗余、有毒等内容,从而确保数据集的质量和一致性。
image.png

无论收集到的数据集是通用文本数据、还是专用文本数据都要经过一系列的数据清洗才能用于 LLM 模型的训练,在面对初始收集的数据集需要首先通过质量过滤提高数据集的数据质量,常规的做法是设计一组过滤规则,消除低质量的数据,从而实现数据质量的提高。那么常用的规则有基于语言的过滤规则、基于度量的过滤规则、基于关键词的过滤规则。

  • 基于语言的过滤规则:如果LLM主要用于某一类语言的任务处理,那么就可以建立清除其他语言的数据的过滤规则,从而剩下目标语言的数据。
  • 基于度量的过滤规则:可以利用生成文本的评估度量,也就是 LLM 生成的问题进行度量从而检测并删除一些不自然的数据。
  • 基于统计的过滤规则:利用数据集中统计特征来评价数据集中的数据的质量过滤低质量的数据,这里的统计特征可以是标点的分布、符号与单词比率,句子长度等。
  • 基于关键词的过滤规则:基于特定的关键词集合,可以识别和删除文本中的噪音或无用元素,例如 HTML 标签、有毒词语等。

在数据清洗中一个重要的工作就是去重和补缺,在收集到的数据集中可能有很多重复的样本,那么在数据集可以投入使用之前通过对数据各个字段的检测删除重复内容,确保数据集中的样本都是唯一的。在去重的过程中,我们同样也会关注数据是否有缺失,这里的缺失是指某些字段或者特征缺少信息,而不是说少了某一方面的数据,对于缺失值的数据我们可以选择删除该条记录,也可以使用插补方法填充缺失内容。目前常用的插补方法有均值填补、中位数填补、众数填补以及用其他一些模型进行预测填补,均值填补就是使用数据集中缺失字段其他记录中其他数据的算术平均数进行填补(算术平均数是一组数据之和,除以这组数据个数的结果值);中位数填补和均值填补的思路类似(中位数是按顺序排列的一组数据中居于中间位置的数),就是填补进去的值不再是算数平均数而是对应缺失字段的中位数;众数填补(众数是在一组数据中,出现次数最多的数据。)也是同样的道理,就是用众数替换了上面的算术平均数。用模型进行预测填补是一个目前还说相对较新的方向,利用一些模型的预判能力补充数据的缺失。无论是哪一种,都会面临一些填补后数据出现重复样本的可能,因此去重和数据缺失填补是一个交替的工作。
由于数据集的来源不唯一,因此数据除去重复、缺失值意外还有可能很多不一致的问题,这些问题有些是因为原系统的数据是人工输入的、也有可能是不通系统的设计差异导致的,例如在日期的存储中,不同的系统设计差异性非常大,有的采用了日、月、年的方式存储,有的是月、日、年的顺序存储,有的采用了/作为分割线(20/02/2022,是 2022 年的 02 月 20 日),有的采用-作为分割线(02-20-2022,是 2022 年的 02 月 20 日),因此需要将其含义一样,但是表现不一致的数据统一格式,将文本数据转换为小写或大写形式,统一单位等。在处理数据一致性的过程中同时也会关注数据的异常值,这里说的异常值不是数据缺失,而是数据有明显的问题,数据很多原始来源都是人工输入的,往往很多原始系统的设计就会导致数据出现问题。异常值可能是由于测量错误、数据录入错误或真实且重要的异常情况引起的,例如我们在人口统计的数据中,年龄的字段看到了 300 ,那么这个数据就明显违反了常规逻辑,因此我们可以选择删除异常记录,或者按照前面缺失值填补方法中的均值填补、中位数填补、众数填补等方法进行填补。

隐私去除也是必不可少的数据清洗的流程,用于训练大模型的数据绝大部分都是来自网络的,这里面包含了大量的敏感信息和个人隐私信息,如果这样的数据用于大模型的训练那么对于大模型的伦理道德的会形成潜在的风险,增加隐私泄露的可能性。因此,必须从数据集中删除这方面的内容。在隐私去除过程中我们比较常用的就是基于规则的方法,例如建立删除规则的关键字,通过关键字规则删除姓名、电话、地址、银行账号等等的隐私数据。

在完成如上的数据逻辑方面的清洗后,就要进行数据可用方面的清洗,将数据类型进行正确的转换,确保数据的类型与任务的要求相匹配。例如,将文本字段转换为分类变量、将数字字段转换为连续变量或离散变量。在完成转换后,要对数据进行验证,验证数据的格式、结构是否满足了预期,例如日期字段是不是要求的格式、数据精度是否符合模型需求等等。对于跨多个数据表、数据源的数据集,对齐数据之间的关联性也需要进行分析,提出由于数据来源的不通而引起的数据偏差和错误。如果数据集过大,可以采用随机或其他采样方法来减少数据量,以加快处理和分析的速度。但要注意,采样可能会引入采样偏差,因此需要权衡和考虑采样策略。如上全部的清洗过程,都需要记录、留痕,也为了能够在后续的模型训练过程中出现一些非预期的结果的时候,反向追溯可以浮现数据清洗过程,帮助查找问题。

目录
相关文章
|
2月前
|
机器学习/深度学习 人工智能 并行计算
"震撼!CLIP模型:OpenAI的跨模态奇迹,让图像与文字共舞,解锁AI理解新纪元!"
【10月更文挑战第14天】CLIP是由OpenAI在2021年推出的一种图像和文本联合表示学习模型,通过对比学习方法预训练,能有效理解图像与文本的关系。该模型由图像编码器和文本编码器组成,分别处理图像和文本数据,通过共享向量空间实现信息融合。CLIP利用大规模图像-文本对数据集进行训练,能够实现zero-shot图像分类、文本-图像检索等多种任务,展现出强大的跨模态理解能力。
122 2
|
2月前
|
机器学习/深度学习 人工智能 自然语言处理
当语言遇见智慧火花:GPT家族历代模型大起底,带你见证从平凡到卓越的AI进化奇迹!
【10月更文挑战第6天】随着自然语言处理技术的进步,GPT系列模型(Generative Pre-trained Transformers)成为该领域的明星。从GPT-1的开创性工作,到GPT-2在规模与性能上的突破,再到拥有1750亿参数的GPT-3及其无需微调即可执行多种NLP任务的能力,以及社区驱动的GPT-NeoX,这些模型不断进化。虽然它们展现出强大的语言理解和生成能力,但也存在如生成错误信息或偏见等问题。本文将对比分析各代GPT模型的特点,并通过示例代码展示其部分功能。
122 2
|
3月前
|
人工智能 测试技术 API
AI计算机视觉笔记二十 九:yolov10竹签模型,自动数竹签
本文介绍了如何在AutoDL平台上搭建YOLOv10环境并进行竹签检测与计数。首先从官网下载YOLOv10源码并创建虚拟环境,安装依赖库。接着通过官方模型测试环境是否正常工作。然后下载自定义数据集并配置`mycoco128.yaml`文件,使用`yolo detect train`命令或Python代码进行训练。最后,通过命令行或API调用测试训练结果,并展示竹签计数功能。如需转载,请注明原文出处。
|
4天前
|
机器学习/深度学习 人工智能 语音技术
Fugatto:英伟达推出的多功能AI音频生成模型
Fugatto是由英伟达推出的多功能AI音频生成模型,能够根据文本提示生成音频或视频,并修改现有音频文件。该模型基于增强型的Transformer模型,支持复杂的组合指令,具有强大的音频生成与转换能力,广泛应用于音乐创作、声音设计、语音合成等领域。
41 1
Fugatto:英伟达推出的多功能AI音频生成模型
|
3月前
|
机器学习/深度学习 人工智能 UED
OpenAI o1模型:AI通用复杂推理的新篇章
OpenAI发布了其最新的AI模型——o1,这款模型以其独特的复杂推理能力和全新的训练方式,引起了业界的广泛关注。今天,我们就来深入剖析o1模型的特点、背后的原理,以及一些有趣的八卦信息。
340 73
|
1月前
|
人工智能
AI科学家太多,谁靠谱一试便知!普林斯顿新基准CORE-Bench:最强模型仅有21%准确率
【10月更文挑战第21天】普林斯顿大学研究人员提出了CORE-Bench,一个基于计算可重复性的AI代理基准,涵盖计算机科学、社会科学和医学领域的270个任务。该基准旨在评估AI代理在科学研究中的准确性,具有多样性、难度级别和现实相关性等特点,有助于推动AI代理的发展并提高计算可重复性。
48 4
|
2月前
|
人工智能 自然语言处理
从迷茫到精通:揭秘模型微调如何助你轻松驾驭AI新热点,解锁预训练模型的无限潜能!
【10月更文挑战第13天】本文通过简单的问题解答形式,结合示例代码,详细介绍了模型微调的全流程。从选择预训练模型、准备新任务数据集、设置微调参数,到进行微调训练和评估调优,帮助读者全面理解模型微调的技术细节和应用场景。
74 6
|
2月前
|
人工智能 自然语言处理 安全
【通义】AI视界|Adobe推出文生视频AI模型,迎战OpenAI和Meta
本文精选了过去24小时内的重要科技新闻,包括微软人工智能副总裁跳槽至OpenAI、Adobe推出文本生成视频的AI模型、Meta取消高端头显转而开发超轻量设备、谷歌与核能公司合作为数据中心供电,以及英伟达股价创下新高,市值接近3.4万亿美元。这些动态展示了科技行业的快速发展和激烈竞争。点击链接或扫描二维码获取更多资讯。
|
2月前
|
机器学习/深度学习 人工智能 TensorFlow
解锁AI潜力:让开源模型在私有环境绽放——手把手教你搭建专属智能服务,保障数据安全与性能优化的秘密攻略
【10月更文挑战第8天】本文介绍了如何将开源的机器学习模型(如TensorFlow下的MobileNet)进行私有化部署,包括环境准备、模型获取与转换、启动TensorFlow Serving服务及验证部署效果等步骤,适用于希望保护用户数据并优化服务性能的企业。
60 4
|
2月前
|
机器学习/深度学习 人工智能 自然语言处理
揭开模型微调Fine-Tuning的神秘面纱:如何在预训练基础上巧妙调整,解锁定制AI解决方案的秘密武器
【10月更文挑战第8天】模型微调是在预训练模型基础上,利用特定领域数据进一步训练,以优化模型在特定任务上的表现。此方法广泛应用于自然语言处理和计算机视觉等领域,通过调整预训练模型的部分或全部参数,结合适当的正则化手段,有效提升模型性能。例如,使用Hugging Face的Transformers库对BERT模型进行微调,以改善文本匹配任务的准确率。
61 1