全新HuggingFace数据集库发布!带来467种语言的611个文本数据集

简介: NLP初创公司 HuggingFace 近日发布新版其Datasets库 v1.2,包括611 个文本数据集,可以下载以准备在一行 python 中使用;涵盖 467 种语言,其中 99 种包含至少 10 个数据集;当使用非常大的数据集时(默认情况下是内存映射),高效的预处理可以使用户摆脱内存限制。

微信图片_20220112100255.png


谈到 Hugging Face,熟悉NLP的朋友们可能无人不知。


Hugging Face是一家领先的 NLP 创业公司,有超过一千家公司使用他们的产品库,其中包括必应,苹果,Monzo等。 


微信图片_20220112100257.png


它拥有一个大型的开源社区,尤其是transformers库。


transformers 是一个基于 python 的库,它公开了一个 API 来使用许多著名的transformer架构,如 BERT、 RoBERTa、 GPT-2或 DistilBERT等,这些架构可以获得各种 NLP 任务的SOTA结果,如文本分类、信息抽取、问答和文本生成。

 微信图片_20220112100259.png


这些架构都通过预训练得到了权重。通过pip命令即可安装: 


微信图片_20220112100301.png

而本次更新的datasets是一个提供两个主要特性的轻量级库:


 一行程序处理: 这是用于下载和预处理任何主要公共数据集的一行程序(使用467种语言和方言),在HuggingFace Datasets Hub提供。 


使用一个简单的命令,比如: 


squad _ dataset = load _ datasets (“ squad”) 


即可获得这些数据集中的任何一个,以便在数据采集器中用于训练/评估 ML 模型(Numpy/Pandas/PyTorch/TensorFlow/JAX) 。 


高效的数据预处理:简单、快速、可复制的数据数据预处理,可用于上述公共数据集以及用 CSV/JSON/text 编写的本地数据集。


使用简单的命令,比如:tokenized_dataset = dataset.map(tokenize_exemple),  ,可以有效地准备数据集进行检验和 ML 模型评估和训练。 


Datasets还提供了15个以上的评价指标,旨在让社区容易地添加和共享新的数据集和评价指标。 

Datasets还有许多其他有趣的特性:

将用户从 RAM 内存限制中释放出来,所有数据集都使用一个有效的零序列化开销后端(Apache Arrow)进行内存映射;  智能缓存: 永远无需等待数据被多次处理;  使用透明和 pythonic API (多处理/缓存/内存映射)实现轻量级和快速;  与 NumPy、 pandas、 PyTorch、 Tensorflow 2和 JAX 的内置互操作性。 


安装和用法


datasets可以从 PyPi 安装,而且必须在虚拟环境中安装(例如 venv 或 conda): 


pip install datasets 


如果想要将Datasets与 PyTorch (1.0 +)、 TensorFlow (2.2 +)或Pandas等一起使用,还应该安装对应版本的框架和库。 


Datasets使用起来非常简单,其中主要的方法有:


1.datasets.list_datasets() 列出可用的数据集 


2.datasets.load_dataset(dataset_name, **kwargs)  实例化一个数据集 


3.datasets.list_metrics()  列出可用的指标 


4.datasets.load_metric(metric_name, **kwargs)实例化一个指标 


举一个简单的例子:


微信图片_20220112100303.png


更多详细信息,可以查看文档中的快速浏览页面:https://huggingface.co/docs/datasets/quicktour.html

相关文章
|
2月前
|
机器学习/深度学习 Python
9-3|使用Python的scikit-learn库来训练一个逻辑回归模型,检测句子是否含有侮辱性内容:
9-3|使用Python的scikit-learn库来训练一个逻辑回归模型,检测句子是否含有侮辱性内容:
|
3月前
|
人工智能 自然语言处理 NoSQL
LangChain 构建问题之LangChain 中生成文本的嵌入向量如何解决
LangChain 构建问题之LangChain 中生成文本的嵌入向量如何解决
39 0
|
3月前
|
API C#
SemanticKernel/C#:使用Ollama中的对话模型与嵌入模型用于本地离线场景
SemanticKernel/C#:使用Ollama中的对话模型与嵌入模型用于本地离线场景
98 0
|
4月前
|
自然语言处理 PyTorch API
`transformers`库是Hugging Face提供的一个开源库,它包含了大量的预训练模型和方便的API,用于自然语言处理(NLP)任务。在文本生成任务中,`transformers`库提供了许多预训练的生成模型,如GPT系列、T5、BART等。这些模型可以通过`pipeline()`函数方便地加载和使用,而`generate()`函数则是用于生成文本的核心函数。
`transformers`库是Hugging Face提供的一个开源库,它包含了大量的预训练模型和方便的API,用于自然语言处理(NLP)任务。在文本生成任务中,`transformers`库提供了许多预训练的生成模型,如GPT系列、T5、BART等。这些模型可以通过`pipeline()`函数方便地加载和使用,而`generate()`函数则是用于生成文本的核心函数。
|
6月前
|
机器学习/深度学习 人工智能 自然语言处理
LLM资料大全:文本多模态大模型、垂直领域微调模型、STF数据集、训练微调部署框架、提示词工程等
LLM资料大全:文本多模态大模型、垂直领域微调模型、STF数据集、训练微调部署框架、提示词工程等
LLM资料大全:文本多模态大模型、垂直领域微调模型、STF数据集、训练微调部署框架、提示词工程等
|
6月前
|
存储 人工智能 自然语言处理
选择最适合数据的嵌入模型:OpenAI 和开源多语言嵌入的对比测试
OpenAI最近发布了他们的新一代嵌入模型*embedding v3*,他们将其描述为性能最好的嵌入模型,具有更高的多语言性能。这些模型分为两类:较小的称为text- embeddings -3-small,较大且功能更强大的称为text- embeddings -3-large。
320 0
|
算法 数据可视化 数据挖掘
知识图谱入门:使用Python创建知识图,分析并训练嵌入模型
本文中我们将解释如何构建KG、分析它以及创建嵌入模型。
544 2
|
数据采集 自然语言处理 PyTorch
全套解决方案:基于pytorch、transformers的中文NLP训练框架,支持大模型训练和文本生成,快速上手,海量训练数据!
全套解决方案:基于pytorch、transformers的中文NLP训练框架,支持大模型训练和文本生成,快速上手,海量训练数据!
全套解决方案:基于pytorch、transformers的中文NLP训练框架,支持大模型训练和文本生成,快速上手,海量训练数据!
|
机器学习/深度学习 XML 算法
机器学习模型保存为PMML格式
PMML模型文件可以实现跨平台迁移,python和java都可以生成PMML文件,python和java都可以读取PMML文件
509 0
|
存储 数据采集 自然语言处理
【BERT-多标签文本分类实战】之四——数据集预处理
【BERT-多标签文本分类实战】之四——数据集预处理
810 1
【BERT-多标签文本分类实战】之四——数据集预处理