登录
首页 >  文章 >  python教程

Python3提取汉字的三种方法详解

时间:2026-02-01 17:58:36 367浏览 收藏

IT行业相对于一般传统行业,发展更新速度更快,一旦停止了学习,很快就会被行业所淘汰。所以我们需要踏踏实实的不断学习,精进自己的技术,尤其是初学者。今天golang学习网给大家整理了《Python3提取汉字的常用方法有以下几种:✅ 方法一:使用正则表达式(推荐)import re text = "你好,世界!Hello, World! 123" chinese_chars = re.findall(r'[\u4e00-\u9fff]', text) print(chinese_chars)说明:\u4e00-\u9fff 是 Unicode 中汉字的范围。re.findall() 会返回所有匹配的汉字。✅ 方法二:使用 unicodedata 模块import unicodedata text = "你好,世界!Hello, World! 123" chinese_chars = [c for c in text if unicodedata.name(c).startswith('CJK')] print(chinese_chars)说明:unicodedata.name(c) 返回字符的 Unicode 名称。CJK(Chinese, Japanese, Korean)是汉字的 Unicode 范围。✅ 方法三:自定义判断函数def is_chinese_char(char): return '\u4e00'

最常用方式是正则匹配Unicode汉字区间:[\u4e00-\u9fff]覆盖常用字,[\u3400-\u4dbf]含扩展A区生僻字,[\u3000-\u303f]含中文标点;可组合使用,如re.findall(r'[\u4e00-\u9fff]+', text)提取连续汉字。

python3如何提取汉字

Python3 提取汉字,核心是利用正则表达式匹配 Unicode 中文字符范围,或借助第三方库(如 jieba)做分词后筛选。最常用、轻量、无需额外依赖的方式是正则匹配。

用正则表达式提取纯汉字

中文汉字在 Unicode 中主要位于 \u4e00–\u9fff(基本汉字区),但实际还包含扩展 A 区(\u3400–\u4dbf)、扩展 B 区(部分超大字符集)、标点(如\u3000–\u303f)等。日常使用中,覆盖常用字可组合多个区间:

  • [\u4e00-\u9fff]:最常用,覆盖现代简体/繁体高频汉字
  • [\u3400-\u4dbf]:CJK 扩展 A(生僻字、古籍用字)
  • [\u3000-\u303f\u3040-\u309f\u30a0-\u30ff]:中文全角标点、平假名、片假名(按需添加)

示例代码:

import re
<p>text = "Hello你好!123世界?,测试「abc」。"
hanzi = re.findall(r'[\u4e00-\u9fff]+', text)
print(hanzi)  # ['你好', '世界', '测试']
</p>

注意:+ 表示连续汉字连成一个字符串;若要单字拆分,改用 r'[\u4e00-\u9fff]'

保留汉字并去除其他所有字符(包括空格标点)

适合清洗文本、构造纯汉字序列:

cleaned = re.sub(r'[^\u4e00-\u9fff]', '', text)
print(cleaned)  # '你好世界测试'

这个方法简单直接,但会丢弃所有非汉字内容,不含换行、空格、英文数字等。

用 jieba 分词后再过滤汉字(适合语义级提取)

当需要区分“词语”而非单字(比如排除“的”“了”等虚词,或保留“人工智能”这类复合词),可用 jieba 先分词,再按需筛选:

import jieba
<p>text = "Python很强大,自然语言处理很重要!"
words = jieba.lcut(text)
hanzi_words = [w for w in words if re.fullmatch(r'[\u4e00-\u9fff]+', w)]
print(hanzi_words)  # ['Python', '很', '强大', '自然语言处理', '很重要']
</p>

⚠️ 注意:jieba 默认会保留英文单词(如 'Python'),所以需用正则二次判断是否纯汉字。若只想留中文词,建议加条件 len(w) > 1 and re.fullmatch(...) 过滤单字虚词(依任务而定)。

处理带拼音/注音/日文混排的文本

若文本含拼音(如 “zhong guo”)、日文假名或注音符号(ㄅㄆㄇ),可扩展正则范围或先清洗:

  • 兼容常见拼音字母 + 空格 + 常见声调符号(如 ˉ ˊ ˇ ˋ):一般建议先用正则剥离非汉字块,再对剩余部分提取
  • 稳妥做法:先用 [^\u4e00-\u9fff\u3400-\u4dbf\u3000-\u303f]+ 替换为统一占位符,再提取

例如清理后只留汉字和中文标点:

basic_chinese = re.sub(r'[^\u4e00-\u9fff\u3000-\u303f]', ' ', text).strip()
hanzi_only = ''.join(hanzi for hanzi in basic_chinese if '\u4e00' <p>不复杂但容易忽略细节:Unicode 范围要写对,避免漏掉扩展区;正则用 <code>re.findall</code> 比 <code>re.search</code> 更适合批量提取;分词+过滤适合有语义要求的场景。</p><p>今天关于《Python3提取汉字的三种方法详解》的内容就介绍到这里了,是不是学起来一目了然!想要了解更多关于的内容请关注golang学习网公众号!</p>
前往漫画官网入口并下载 ➜
相关阅读
更多>
最新阅读
更多>
课程推荐
更多>