最近发现通过Edge和chrome或者其他浏览器下载的文件都存放在一个地方就很繁琐,于是翻找以前的脚本来归纳这些文件,虽然有IDM下载独有会自动分类,但是相信很多同学都在一个文件里找文件,这次就写个Py脚本来实现这个功能。
# -*- coding: utf-8 -*-
# @Time : 2022/3/4 13:41
# @Author : 五指山下的泼猴!!
# @FileName: 文件分类-2.py
# @Software: PyCharm
# @Blog :https://blog.csdn.net/m0_57076217
import hashlib
import os
import shutildef get_file_hash(file_path):# 计算文件的 SHA-256 哈希值with open(file_path, 'rb') as file:return hashlib.sha256(file.read()).hexdigest()def organize_files(folder_path):# 创建一个名为“Duplicates”的文件夹,用于存放重复文件duplicates_folder = os.path.join(folder_path, 'Duplicates')os.makedirs(duplicates_folder, exist_ok=True)# 遍历文件夹中的文件for filename in os.listdir(folder_path):file_path = os.path.join(folder_path, filename)if os.path.isfile(file_path):# 获取文件扩展名并转换为小写_, extension = os.path.splitext(filename)extension = extension.lower()# 确定目标文件夹if extension in ['.jpg', '.jpeg', '.png', '.gif', '.bmp']:destination_folder = 'Images'elif extension in ['.mp4', '.mov', '.avi', '.mkv']:destination_folder = 'Videos'else:destination_folder = extension[1:] if extension else 'Other'destination_path = os.path.join(folder_path, destination_folder)os.makedirs(destination_path, exist_ok=True)# 计算文件哈希值file_hash = get_file_hash(file_path)# 检查文件是否是重复文件if os.path.exists(os.path.join(destination_path, filename)) or \file_hash in os.listdir(duplicates_folder):# 如果是重复文件,则移动到“Duplicates”文件夹shutil.move(file_path, os.path.join(duplicates_folder, filename))print(f"成功将文件 {filename} 移动到 Duplicates 文件夹.")else:# 否则移动到目标文件夹shutil.move(file_path, os.path.join(destination_path, filename))print(f"成功将文件 {filename} 移动到 {destination_path}")if __name__ == "__main__":# 获取用户输入的文件夹路径folder_path = input("请输入要整理的文件夹路径(复制绝对路径):")# 调用函数进行文件整理organize_files(folder_path)
以下是效果: