![]() |
1
myderr 2 天前
你不说我都不知道 windows server 有这个功能
|
2
littlewing 2 天前
因为重复数据块只保留一份,相当于就没多占空间啊,重复数据删除又怎么可能再多处空间来
|
3
yanqiyu 2 天前 via Android
dedup 是让不同的文件引用同一个 extent 。当然你要是删除了这些文件中某一个,只会让共享的 extent 的引用-1 ,只有引用数清零才会真正的删除并且释放空间。
但是,你就算不开 dedup ,其他文件该占的空间也是一样的占。 唯一的问题可能是这种 shared extent 导致很难算清楚“我删除这些文件之后能释放多少空间”,得扫描一下文件引用的 extent 有多少是 shared 有多少是 exclusive 。 |
4
yinmin 2 天前 via iPhone
删除重复数据功能里可以设置“排除目录”的,你把资源库目录排除即可。
关于空间没有释放的问题,可能要等下次运行“数据删除重复服务”之后才恢复吧,你可以看一下“设置删除重复计划(S)…”里配置的计划安排。 |
5
PrinceofInj 2 天前
重复数据删除默认好像是五天后才会检查吧,不是实时的
|
![]() |
6
clorischan 2 天前
用最新版本 ReFS 文件系统自带的重复数据删除, 就是删除文件后立即释放的.
前几天刚把 NAS 系统升级到 Windows Server 2025. 然后把原来用的就是旧的重复文件删除, 顺便切换到新的 ReFS 内置的去重, 就可以做到删除立即释放 而且最新的 ReFS 默认已经开启块克隆 (CoW), 在同分区内复制粘贴文件瞬间完全, 也不占用额外空间 |
![]() |
7
HughRyu 1 天前
技术原理与优化
在 Windows Server 中,数据去重技术的工作原理是通过识别和删除存储中的冗余部分,只保留数据的唯一副本。这项功能的主要特点包括: 基于块的重复数据删除:通过按块对数据进行分解,然后对比不同文件或数据块的内容,找出相同的部分,删除冗余数据,只保留一个唯一的块,并通过引用方式来节省空间。 实时去重:数据被写入存储介质时,系统实时对数据进行重复数据删除处理。 可配置的去重范围:管理员可以配置去重策略,选择需要启用去重的文件夹、卷、备份目标等。 这些优化使得存储空间的使用效率大幅提升,并减少了硬件成本。 去重是底层逻辑,和你应用层面有啥关系? |