登录
首页 >  文章 >  python教程

Spacy分词与词性标注实战教程

时间:2026-05-10 09:58:42 326浏览 收藏

本文深入解析了使用 spaCy 进行中文分词与词性标注的核心要点与常见陷阱:强调必须通过 `spacy.load()` 显式加载语言模型(如 `"zh_core_web_sm"`)才能调用 `nlp` 对象,指出中文环境下词形还原(`lemma_`)基本无效,应聚焦 `token.text`、`token.pos_` 和 `token.tag_`;澄清切片操作返回的是 `Span` 而非 `Token`,需注意类型差异以避免属性访问错误;揭示默认 pipeline 中 parser、NER 等组件会干扰词性标注结果,推荐通过 `disable` 参数精简组件以提升稳定性;同时提醒用户正视 spaCy 中文模型的统计本质——精度受限于训练语料,优化方向应优先落在模型配置、输入规范和合理预期上,而非盲目依赖规则修补。

Python自然语言处理基础_使用Spacy进行分词与词性标注

spaCy 的 nlp 对象必须先调用才能分词

很多人写完 import spacy 就直接对字符串调 nlp("hello"),结果报错 NameError: name 'nlp' is not defined。这不是语法问题,是漏了模型加载步骤。

spaCy 不像 NLTK 那样自带轻量分词器,它必须显式加载语言模型——哪怕只是基础分词和词性标注,也得走一遍 spacy.load()

  • nlp = spacy.load("zh_core_web_sm")(中文)或 nlp = spacy.load("en_core_web_sm")(英文),模型名必须准确,大小写、下划线都不能错
  • 首次运行会自动下载模型,如果网络受限,可提前用 python -m spacy download zh_core_web_sm 安装
  • 别用 spacy.blank("zh") 代替——它没内置词汇表和词性规则,token.pos_ 全是 ""

分词结果里 token.texttoken.lemma_ 别混用

中文场景下 token.lemma_ 基本无效,但很多人仍习惯性打印它,结果全是原词或空字符串。spaCy 的词形还原(lemmatization)严重依赖词性标注,而中文缺乏屈折变化,官方模型对中文的 lemma_ 支持极弱。

真正该关注的是 token.text(原始切分结果)、token.pos_(粗粒度词性,如 NOUNVERB)、token.tag_(细粒度标签,如 NNVV)。

  • 中文分词质量取决于模型训练语料,zh_core_web_sm 在短句、专有名词上容易切错,比如把“微信支付”拆成“微信”“支付”而非整体识别为 PROPN
  • 若需更高精度,可加规则:用 nlp.add_pipe() 插入自定义组件,匹配常见词组后设 token._.is_sentinel = True 并跳过后续处理
  • token.is_puncttoken.is_space 这类布尔属性比正则判断更可靠,避免手动过滤标点时漏掉全角符号

doc 对象不是 list,但支持索引和切片

拿到 doc = nlp("今天天气不错") 后,想取前两个词,别写 doc[0:2].text 报错说 'Span' object has no attribute 'text'——因为切片返回的是 Span,不是 Token

Span.text,但没有 .pos_;单个 Token 才有完整词性信息。这个类型混淆在循环处理时特别容易踩坑。

  • 遍历每个词用 for token in doc:,安全获取 token.texttoken.pos_
  • 要取子句(比如主谓宾结构),用 doc[1:4] 得到 Span,再用 span.text 拿文本,但词性得单独从每个 token
  • 别对 doc 直接用 len() 判断是否为空——空字符串返回空 Doclen(doc) 是 0,但 doc 本身不为 None,判空请用 if doc:

中文词性标注不准?先关掉 disable 以外的 pipeline 组件

默认加载的模型带 parser、ner 等组件,它们会互相影响中文的 pos_ 输出。比如开启命名实体识别(NER)后,“苹果”在“吃苹果”里可能被强行标成 PROPN(因同时出现在“苹果公司”语境中)。

如果只要分词+词性,启动时显式禁用无关组件能提升稳定性:

import spacy
nlp = spacy.load("zh_core_web_sm", disable=["parser", "ner", "textcat"])

注意:disable 参数必须传列表,不能传字符串;禁用 parsertoken.dep_ 会变空,但 pos_ 反而更贴近分词本意。

  • 如果后续还要做依存分析,就别禁用 parser,但得接受词性偶尔妥协于句法结构
  • zh_core_web_sm 的词性体系基于 UD(Universal Dependencies),和传统汉语语法术语不完全对应,比如“了”标为 AUX 而非“助词”
  • 调试时打印 [(t.text, t.pos_, t.tag_) for t in doc] 比只看 doc 字符串更直观
事情说清了就结束。spaCy 的中文支持本质是统计驱动,模型没看到过的搭配,规则再补也有限;与其纠结单个词的 pos_ 是否“正确”,不如先确认 pipeline 配置和输入文本的规范性。

以上就是本文的全部内容了,是否有顺利帮助你解决问题?若是能给你带来学习上的帮助,请大家多多支持golang学习网!更多关于文章的相关知识,也可关注golang学习网公众号。

资料下载
相关阅读
更多>
最新阅读
更多>
课程推荐
更多>