理解分词器:深入研究带有拥抱面孔的分词器
时间:2025-01-10 14:03:41 460浏览 收藏
小伙伴们有没有觉得学习文章很有意思?有意思就对了!今天就给大家带来《理解分词器:深入研究带有拥抱面孔的分词器》,以下内容将会涉及到,若是在学习中对其中部分知识点有疑问,或许看了本文就能帮到你!
自然语言处理 (NLP) 中的核心概念之一是标记化,尤其在处理语言模型时尤为重要。本文将深入探讨分词器的功能、工作机制,并演示如何借助 Hugging Face 的 Transformers 库 (https://huggingface.co/docs/transformers/index) 实现各种应用。
分词器详解
分词器的核心任务是将原始文本分解成更小的单元,即标记。这些标记可以是单词、子词或字符,具体取决于所用分词器的类型。标记化的目标是将人类可读的文本转换为更易于机器学习模型理解的形式。
大多数模型无法直接理解文本,它们需要数字输入才能进行预测,而分词器正是扮演着这个桥梁的角色。它接收文本,进行处理,并输出模型可用的数学表示。
本文将介绍如何利用 Hugging Face 的预训练模型理解标记化的工作原理,探索 Transformers 库中提供的各种方法,并了解标记化如何影响情感分析等下游任务。
模型和分词器的配置
首先,从 Transformers 包导入必要的库并加载预训练模型。我们将使用经过微调的“distilbert”模型进行情感分析。
from transformers import pipeline
from transformers import AutoTokenizer, AutoModelForSequenceClassification
# 加载预训练模型和分词器
model_name = "distilbert-base-uncased-finetuned-sst-2-english"
model = AutoModelForSequenceClassification.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)
# 创建分类器管道
classifier = pipeline("sentiment-analysis", model=model, tokenizer=tokenizer)
文本标记化
配置好模型和分词器后,我们可以开始对一个简单的句子进行分词。示例句子如下:
sentence = "i love you! i love you! i love you!"
让我们逐步分析标记化过程:
1. 分词器输出:输入 ID 和注意力掩码
直接调用分词器时,它会处理文本并输出几个关键组件:
- input_ids: 表示标记的整数 ID 列表。每个标记对应于模型词汇表中的一个条目。
- attention_mask: 由 1 和 0 组成的列表,指示模型应关注哪些标记。在处理填充时特别有用。
res = tokenizer(sentence)
print(res)
输出类似:
{
'input_ids': [101, 1045, 2293, 2017, 999, 1045, 2293, 2017, 999, 1045, 2293, 2017, 999, 102],
'attention_mask': [1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1]
}
input_ids
中的整数代表标记。例如,1045 对应 "i",2293 对应 "love",2017 对应 "you",999 对应 "!"。attention_mask
表示应关注所有标记。如果存在填充标记,则列表中会出现 0,指示模型忽略它们。
2. 标记化
如果想知道分词器如何将句子分割成单独的标记,可以使用 tokenize()
方法。这将返回不包含底层 ID 的标记列表:
tokens = tokenizer.tokenize(sentence)
print(tokens)
输出:
['i', 'love', 'you', '!', 'i', 'love', 'you', '!', 'i', 'love', 'you', '!']
注意,标记化会将句子分解成更小的有意义的单元。由于我们使用的是 distilbert-base-uncased
模型(不区分大小写),分词器会将所有字符转换为小写。
3. 将标记转换为 ID
获得标记后,下一步是使用 convert_tokens_to_ids()
方法将它们转换为相应的整数 ID:
ids = tokenizer.convert_tokens_to_ids(tokens)
print(ids)
输出:
[1045, 2293, 2017, 999, 1045, 2293, 2017, 999, 1045, 2293, 2017, 999]
每个标记都有一个唯一的整数 ID,在模型的词汇表中表示它。这些 ID 是模型处理的实际输入。
4. 将 ID 解码回文本
最后,可以使用 decode()
方法将标记 ID 解码回人类可读的字符串:
decoded_string = tokenizer.decode(ids)
print(decoded_string)
输出:
i love you! i love you! i love you!
解码后的字符串与原始输入非常接近,只是去除了大写字母,这是“无大小写”模型的标准行为。
5. 特殊标记
在 input_ids
输出中,可以看到两个特殊标记:101 和 102。许多模型使用这些特殊标记来表示句子的开头和结尾。
- 101: 标记句子的开头。
- 102: 标记句子的结尾。
这些特殊标记帮助模型理解输入文本的边界。
6. 注意力掩码
如前所述,attention_mask
帮助模型区分真实标记和填充标记。在本例中,attention_mask
表示应关注所有标记。
分词器总结
总而言之,标记化是将文本转换为机器学习模型可处理形式的关键步骤。Hugging Face 的分词器可以处理各种任务,例如:
- 将文本转换为标记。
- 将标记映射到唯一的整数 ID。
- 为模型生成注意力掩码以指示哪些标记很重要。
结论
理解分词器的运行机制对于有效利用预训练模型至关重要。通过将文本分解成更小的标记,使模型能够以结构化、高效的方式处理输入。无论您使用模型进行情感分析、文本生成还是任何其他 NLP 任务,分词器都是流程中的重要工具。
今天带大家了解了的相关知识,希望对你有所帮助;关于文章的技术知识我们会一点点深入介绍,欢迎大家关注golang学习网公众号,一起学习编程~
-
501 收藏
-
501 收藏
-
501 收藏
-
501 收藏
-
501 收藏
-
436 收藏
-
387 收藏
-
151 收藏
-
435 收藏
-
185 收藏
-
112 收藏
-
- 前端进阶之JavaScript设计模式
- 设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
- 立即学习 542次学习
-
- GO语言核心编程课程
- 本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
- 立即学习 507次学习
-
- 简单聊聊mysql8与网络通信
- 如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
- 立即学习 497次学习
-
- JavaScript正则表达式基础与实战
- 在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
- 立即学习 487次学习
-
- 从零制作响应式网站—Grid布局
- 本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
- 立即学习 484次学习