![]() |
1
stevenbipt 78 天前
如果是文件相同写个脚本跑一下文件的 hash 应该就能找出来了,如果是文件不同比如分辨率不同这种图片找 cv 库看看有没有什么对比算法,视频的话感觉够呛,可以考虑一下视频的特征这些是否相同来匹配一下
|
![]() |
2
coderluan 78 天前
把磁盘挂载到 Windows 下面,然后随便找个去重软件跑一下,Duplicate File Finder 之类的
|
3
yfugibr 78 天前 via Android
|
4
hello365 78 天前
我前几个月清理重复照片用的 Duplicate Cleaner Pro 5 ,感觉清理规则很丰富,买的授权,网上也有破解版的,别的软件没对比过。
|
6
shunia 78 天前
楼主的需求很有市场,期待一个靠谱的回复。
|
7
shunia 78 天前
@stevenbipt #1 就你说的第一句话要做成一个实际可用的版本就需要操心很多事情啊。性能,可靠性,备份等等。
总不会说干着干着程序挂了图片被整没了吧? |
![]() |
8
windirt 78 天前 ![]() 群晖 NAS ,自带的存储空间分析器
创建一个报告,潜在的重复文件打勾,指定检索的文件夹,忽略文件名,修改时间,会按照 md5 对比,然后执行报告,就在后台慢慢整理了,整理完就会有一个表格,自己按表格处理吧 |
9
santom 78 天前
我威联通用的 Fdupes
https://www.qnapclub.eu/en/qpkg/418 |
10
aircargo 78 天前
前几年还有自动分析对比的功能,现在新版本貌似都没了。
|
![]() |
11
FightPig 78 天前
我用的绿联的,好像自带了
|
![]() |
12
terrytw 78 天前 ![]() 推荐 dupeguru
|
![]() |
13
LeeReamond 78 天前
自己写一个去重感觉比较靠谱,之前测试过开源的照片方案感觉都不太行,遑论去重组件了
|
![]() |
15
bao3 78 天前
群晖的话有自动去重。楼上有人写了
|
16
virlaser 78 天前
把目录挂到电脑上用 duplicate cleaner 扫
可以根据相似度对比照片 可以根据一定时间窗口内的视频关键帧对比视频 |
17
GeekSuPro 78 天前
极空间自带重复文件照片去重
|
![]() |
18
gumuxi 78 天前
我也有这个需求,NAS 是 OMV 系统的,插个眼,没有合适的我得空自己开发一个。
|
![]() |
19
dolorain 78 天前 ![]() 自己写个脚本跑 hash 一撞就行了呀,以下是代码:
#!/bin/bash # 指定需要检查的目录路径 dir_path="/path/to/directory" # 切换到目录 cd $dir_path # 循环遍历目录下的所有文件 for file1 in *; do # 如果当前文件不是图片文件,则跳过检查 if ! [[ $(file "$file1") =~ "image" ]]; then continue fi # 计算当前文件的哈希值 hash1=$(md5sum "$file1" | awk '{ print $1 }') # 遍历当前文件之后的所有文件,寻找是否存在哈希值相同的图片 for file2 in $(ls $file1 ../*); do # 如果当前文件不是图片文件或与自身重复,则跳过检查 if [ "$file1" = "$file2" ] || ! [[ $(file "$file2") =~ "image" ]]; then continue fi # 计算当前文件的哈希值 hash2=$(md5sum "$file2" | awk '{ print $1 }') # 如果哈希值相同,则判定为重复图片,删除其中一张图片 if [ "$hash1" = "$hash2" ]; then echo "Duplicate image found: $file1 and $file2. Deleting $file2" rm -f "$file2" fi done done echo "老子处理完了." |
![]() |
20
anubu 78 天前
md5 太粗暴了,好久之前用 python 写过一段算海明距离的图片去重脚本,网上搜搜应该有很多,简单的去重也够用了。
|
![]() |
21
Al0rid4l 77 天前
czkawka+脚本?
|
![]() |
22
ALLROBOT 77 天前 via Android
4 楼说过了,Duplicate Cleaner 软件自带的模糊识别,对于大小名字不一致,相似的图片能成功识别
对于整理归档帮助较大,就是识别大量文件比较慢 |
24
xuanzc880 77 天前
你说的重复指的是哪种程度的重复?照片文件一模一样连 hash 都一样,还是说 hash 不一样,但是拍得内容大致相同?
第一种的话如果你用的是群晖,而且还是 BTRFS 的文件系统,可以用 duperemove 这个软件来利用 BTRFS 自身的去重功能. |