【AI大模型】Transformers大模型库(三):特殊标记(special tokens)

简介: 【AI大模型】Transformers大模型库(三):特殊标记(special tokens)

一、引言

这里的Transformers指的是huggingface开发的大模型库,为huggingface上数以万计的预训练大模型提供预测、训练等服务。

🤗 Transformers 提供了数以千计的预训练模型,支持 100 多种语言的文本分类、信息抽取、问答、摘要、翻译、文本生成。它的宗旨是让最先进的 NLP 技术人人易用。

🤗 Transformers 提供了便于快速下载和使用的API,让你可以把预训练模型用在给定文本、在你的数据集上微调然后通过 model hub 与社区共享。同时,每个定义的 Python 模块均完全独立,方便修改和快速研究实验。

🤗 Transformers 支持三个最热门的深度学习库: Jax, PyTorch 以及 TensorFlow — 并与之无缝整合。你可以直接使用一个框架训练你的模型然后用另一个加载和推理。

本文重点介绍特殊标记(special tokens)。

二、特殊标记(special tokens)

2.1 概述

在Hugging Face的transformers库中,不同的模型预训练时可能会使用特定的特殊标记(special tokens),这些标记用于帮助模型理解输入序列的结构,尤其是在处理序列分类、问答、文本生成等任务时。以下是一些常见的特殊标记及其用途:

2.2 主要功能

  •  [CLS] (Classification Token),编码101:通常用于序列分类任务的开始。模型会基于这个标记的输出来进行分类决策。
  • [SEP] (Separator Token),编码102:用于分隔序列中的不同部分,比如在问答任务中分隔问题和文本,在多句子输入中分隔句子。对应编码102
  • [PAD] (Padding Token),编码0:用于填充,确保所有批次的输入序列长度一致。它在模型计算时通常会被忽略。对应编码
  • [MASK],编码103:主要用于BERT的掩码语言模型任务,模型会预测这个标记所遮掩的单词是什么。
  • [UNK] (Unknown Token),编码100:代表词汇表中未包含的单词。
  • [BOS] (Beginning of Sentence) 和 [EOS] (End of Sentence):在某些模型中使用,分别表示句子的开始和结束 。

2.3 代码示例

使用这些特殊标记的例子,比如在BERT模型中准备输入:

from transformers import BertTokenizer
 
tokenizer = BertTokenizer.from_pretrained('bert-base-uncased')
text = "Hello, I'm a text."
text_pair = "And this is another text."
inputs1 = tokenizer.encode_plus(text, text_pair, add_special_tokens=True)
print(inputs1) 
"""
{'input_ids': [101, 7592, 1010, 1045, 1005, 1049, 1037, 3793, 1012, 102, 1998, 2023, 2003, 2178, 3793, 1012, 102], 'token_type_ids': [0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 1], 'attention_mask': [1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1]}
"""
print(tokenizer.decode(inputs1['input_ids']))
"""
[CLS] hello, i'm a text. [SEP] and this is another text. [SEP]
"""
inputs2 = tokenizer.encode(text,add_special_tokens=True)
print(inputs2)  
"""
[101, 7592, 1010, 1045, 1005, 1049, 1037, 3793, 1012, 102]
"""
 
print(tokenizer.encode(['[UNK]','[SEP]','[PAD]', '[CLS]', '[MASK]','BOS','EOS']))
 
#[101, 100, 102, 0, 101, 103, 100, 100, 102],去掉头部101和尾部102即为特殊标记的编码ID

将句子Hello, I'm a text进行encode时,会自动在开头和结尾加上[CLS]和[SEP],如果采用encode_plus对两个句子进行拼接,会加入[SEP]进行句子语义切割。告诉计算机这是两句话。

add_special_tokens=True为默认值,默认在encode编码的时候加入特殊标识,如果为False则可以不加入,但可能会丢失断句的信息。

三、总结

本文对使用transformers的特殊标记(special tokens)进行说明,特殊标记主要用于分割句子,在模型训练中引入“断句”、“开头”、“结尾”相关的信息。

目录
相关文章
|
10天前
|
存储 人工智能 监控
如何用RAG增强的动态能力与大模型结合打造企业AI产品?
客户的问题往往涉及最新的政策变化、复杂的业务规则,数据量越来越多,而大模型对这些私有知识和上下文信息的理解总是差强人意。
41 2
|
11天前
|
人工智能 IDE 开发工具
CodeGPT AI代码狂潮来袭!个人完全免费使用谷歌Gemini大模型 超越DeepSeek几乎是地表最强
CodeGPT是一款基于AI的编程辅助插件,支持代码生成、优化、错误分析和单元测试,兼容多种大模型如Gemini 2.0和Qwen2.5 Coder。免费开放,适配PyCharm等IDE,助力开发者提升效率,新手友好,老手提效利器。(238字)
109 1
CodeGPT AI代码狂潮来袭!个人完全免费使用谷歌Gemini大模型 超越DeepSeek几乎是地表最强
|
11天前
|
人工智能 自然语言处理 算法
现代AI工具深度解析:从GPT到多模态的技术革命与实战应用
蒋星熠Jaxonic,AI技术探索者,深耕代码生成、多模态AI与提示词工程。分享AI工具架构、实战应用与优化策略,助力开发者提升效率,共赴智能编程新纪元。
|
13天前
|
机器学习/深度学习 人工智能 机器人
AI Compass前沿速览:Nano Bananary、MCP Registry、通义DeepResearch 、VoxCPM、InternVLA·M1具身机器人
AI Compass前沿速览:Nano Bananary、MCP Registry、通义DeepResearch 、VoxCPM、InternVLA·M1具身机器人
|
14天前
|
人工智能 数据可视化 前端开发
AI Ping:精准可靠的大模型服务性能评测平台
AI Ping是清华系团队推出的“大模型服务评测平台”,被誉为“AI界的大众点评”。汇聚230+模型服务,7×24小时监测性能数据,以吞吐量、延迟等硬指标助力开发者科学选型。界面简洁,数据可视化强,支持多模型对比,横向对标国内外主流平台,为AI应用落地提供权威参考。
173 3
|
8天前
|
边缘计算 人工智能 算法
AI在智慧能源管理中的边缘计算应用
AI在智慧能源管理中的边缘计算应用
72 13
|
8天前
|
人工智能 Cloud Native 中间件
划重点|云栖大会「AI 原生应用架构论坛」看点梳理
本场论坛将系统性阐述 AI 原生应用架构的新范式、演进趋势与技术突破,并分享来自真实生产环境下的一线实践经验与思考。
|
8天前
|
存储 人工智能 Serverless
函数计算进化之路:AI 应用运行时的状态剖析
AI应用正从“请求-响应”迈向“对话式智能体”,推动Serverless架构向“会话原生”演进。阿里云函数计算引领云上 AI 应用 Serverless 运行时技术创新,实现性能、隔离与成本平衡,开启Serverless AI新范式。
171 12
|
9天前
|
机器学习/深度学习 人工智能 自然语言处理
AIGC技术深度解析:生成式AI的革命性突破与产业应用实战
蒋星熠Jaxonic,AI技术探索者,深耕生成式AI领域。本文系统解析AIGC核心技术,涵盖Transformer架构、主流模型对比与实战应用,分享文本生成、图像创作等场景的实践经验,展望技术趋势与产业前景,助力开发者构建完整认知体系,共赴AI原生时代。

热门文章

最新文章