登录
首页 >  文章 >  python教程

Python批量识别重复图片方法

时间:2025-11-04 11:36:30 338浏览 收藏

一分耕耘,一分收获!既然打开了这篇文章《Python识别文件夹重复图片方法》,就坚持看下去吧!文中内容包含等等知识点...希望你能在阅读本文后,能真真实实学到知识或者帮你解决心中的疑惑,也欢迎大佬或者新人朋友们多留言评论,多给建议!谢谢!

答案:通过计算图片哈希值可判断文件夹内是否有重复图片。1. 使用imagehash库的average_hash进行感知哈希比对,识别视觉相似图像;2. 用MD5哈希检测字节完全相同的文件;3. 统一转换为RGB模式后再计算哈希,解决不同格式但内容相同问题;4. 结合文件大小筛选、跳过特定文件、递归遍历子目录提升效率。根据需求选择合适方法即可准确找出重复图片。

python如何判断文件夹内的重复图片

判断文件夹内是否有重复图片,关键不是看文件名,而是比较图片内容是否相同。Python可以通过计算图片的哈希值来快速识别重复项。以下是几种实用方法:

1. 使用图像哈希(Image Hash)

将图片转换为哈希值,内容相同的图片哈希一致。常用的是感知哈希(Perceptual Hash),对轻微变化不敏感,适合找视觉上几乎一样的图。

# 安装依赖:pip install Pillow imagehash

示例代码:

import os
from PIL import Image
import imagehash
<p>def find_duplicate_images(folder_path):
hashes = {}
duplicates = []</p><pre class="brush:php;toolbar:false"><code>for filename in os.listdir(folder_path):
    filepath = os.path.join(folder_path, filename)
    if not os.path.isfile(filepath):
        continue

    try:
        with Image.open(filepath) as img:
            img_hash = imagehash.average_hash(img)

        if img_hash in hashes:
            duplicates.append((filename, hashes[img_hash]))
        else:
            hashes[img_hash] = filename
    except Exception as e:
        print(f"无法处理文件 {filename}: {e}")

return duplicates</code>

运行后返回重复图片对,比如 ('pic2.jpg', 'pic1.jpg') 表示 pic2 和 pic1 内容重复。

2. 精确比对:使用MD5哈希

如果想找出完全一致的文件(字节级别相同),可以用文件的MD5值:

import os
import hashlib
<p>def get_file_hash(filepath):
with open(filepath, 'rb') as f:
return hashlib.md5(f.read()).hexdigest()</p><p>def find_exact_duplicates(folder_path):
hash_dict = {}
duplicates = []</p><pre class="brush:php;toolbar:false"><code>for filename in os.listdir(folder_path):
    filepath = os.path.join(folder_path, filename)
    if not os.path.isfile(filepath):
        continue

    file_hash = get_file_hash(filepath)
    if file_hash in hash_dict:
        duplicates.append((filename, hash_dict[file_hash]))
    else:
        hash_dict[file_hash] = filename

return duplicates</code>

3. 处理不同格式但内容相同的图

有时同一张图保存为 .jpg 和 .png,内容一样但格式不同。这时用PIL加载后转成统一格式再哈希更可靠:

with Image.open(filepath) as img:
    img = img.convert('RGB')  # 统一颜色模式
    img_hash = imagehash.average_hash(img)

这样即使格式不同,只要视觉内容接近,也能识别为重复。

4. 提高效率的小技巧

  • 先按文件大小粗筛:大小不同的文件不可能完全一致
  • 跳过缩略图或特定名称文件(如 thumbs.db)
  • 支持子目录递归扫描时,用 os.walk() 替代 os.listdir()

基本上就这些。用 imagehash 最省事,准确率高;用 MD5 可以确保字节一致。根据需求选合适的方法就行。

到这里,我们也就讲完了《Python批量识别重复图片方法》的内容了。个人认为,基础知识的学习和巩固,是为了更好的将其运用到项目中,欢迎关注golang学习网公众号,带你了解更多关于的知识点!

相关阅读
更多>
最新阅读
更多>
课程推荐
更多>