常常在下载网络素材时有很多的重复文件乱七八糟的 , 于是想实现一个去重的操作 。
【阅读全文】

文章插图
主要实现思路就是遍历出某个文件夹包括其子文件夹下面的所有文件 , 最后 , 将所有文件通过MD5函数的对比筛选出来 , 最后将重复的文件移除 。
【hashlib.md5函数来筛选出系统重复文件并移除...(hashlib怎么读)】

文章插图
用到的第三方库都比较的常见 , 其中只有hashlib是用来对比文件的不是很常见 。其他的都是一些比较常见的第三方库用来做辅助操作 。
import os# 应用文件操作import hashlib# 文件对比操作import logging# 日志函数操作import sys# 系统应用操作日志的设置基本都是这一套的范式 , 按照规则设置好日志打印的相关信息 。logger = logging.getLogger('系统文件去重')logging.basicConfig(format='%(asctime)s %(levelname)-8s: %(message)s')logger.setLevel(logging.DEBUG)文件去重的实现逻辑代码块如下:diretory = input('请输入需要整理的文件目录: \n')# 去重的文件夹路径if os.path.isdir(diretory):logger.info('当前目录[' + diretory + ']校验成功!')md5s = []for file_path, dir_names, file_names in os.walk(r'' + diretory):for file_name in file_names:try:file_name_path = os.path.join(file_path, file_name)logger.info('当前比对路径: '+ file_name_path)md5 = hashlib.md5()file = open(file_name_path, "rb")md5.update(file.read())file.close()md5_value = https://tazarkount.com/read/md5.hexdigest()if md5_value in md5s:os.remove(file_name_path)logger.info('[' + file_name_path + ']出现重复已经移除!')else:md5s.append(md5_value)except:logger.error('[' + file_name_path + ']对比发生异常 , 执行下一个!')else:logger.error('输入的文件夹或者目录不存在!')以上就是文件去重的整个实现过程 , 用来做一个清理电脑文件的小工具还是比较实用的 。
文章插图
【往期精彩】
哈撒给 , 英雄联盟全皮肤下载器来了...
PyQt5的敏感词检测工具制作 , 运营者的福音...
手绘图片生成器:以雪容融为例一键生成...
刚刚出炉的冬奥会吉祥物:冰墩墩 , 附源码...
最优美的表格查看插件:tabulate
抖音同款课堂点名系统 , PyQt5写起来很简单...
开工啦!批量向PDF文件添加中文水印...
大年初二、做了一个windows通知管理器!
百度图片下载器2.0
gif动态图片生成器 , 多张图片组合后生成动图...
python几个常见的数据处理操作 , 一行代码就能完成!
过年了 , 用 PyQt5 生成一副春联吧...
欢迎关注作者公众号【Python 集中营】 , 专注于后端编程 , 每天更新技术干货 , 不定时分享各类资料!
- 春季老年人吃什么养肝?土豆、米饭换着吃
- 三八妇女节节日祝福分享 三八妇女节节日语录
- 老人谨慎!选好你的“第三只脚”
- 校方进行了深刻的反思 青岛一大学生坠亡校方整改校规
- 脸皮厚的人长寿!有这特征的老人最长寿
- 长寿秘诀:记住这10大妙招 100%增寿
- 春季老年人心血管病高发 3条保命要诀
- 眼睛花不花要看四十八 老年人怎样延缓老花眼
- 香槟然能防治老年痴呆症? 一天三杯它人到90不痴呆
- 老人手抖的原因 为什么老人手会抖
