1000多个文件,占用空间10G,删除的效率

简介: 1000多个文件,占用空间10G,删除的效率

一,Directory.Delete失败。

System.IO.Directory.Delete(strFirstSubDir);

“System.IO.IOException”类型的未经处理的异常在 mscorlib.dll 中发生 其他信息: 目录不是空的

二,递归删除文件后,再删除。121秒。

三,FileSystem.DeleteDirectory 2秒。

FileSystem.DeleteDirectory(strFirstSubDir, UIOption.OnlyErrorDialogs, recycleOption, UICancelOption.ThrowException);  

引用:Microsoft.VisualBasic

命名空间:using Microsoft.VisualBasic.FileIO;


附属内容

开发测试运行环境

操作系统:Win10或win7

开发环境:VS2022或VS2019

C++17

视频课程

CSDN学院有基础算法的C++实现的课程,请使劲戳下面的链接。

https://edu.csdn.net/course/detail/38771

C++入职培训,C#入职培训等课程可以学习

https://edu.csdn.net/lecturer/6176

相关下载

本人算法的总结《闻缺陷则喜算法册》,可到CSDN下载频道下载,doc版的。

https://download.csdn.net/download/he_zhidan/88348653

相关文章
|
7月前
|
Shell Windows
C盘占用空间和实际文件大小不符合
C盘占用空间和实际文件大小不符合
|
5月前
|
数据处理 数据库 索引
数据库索引策略如何影响数据的读取效率?
【7月更文挑战第3天】数据库索引策略如何影响数据的读取效率?
40 2
|
6月前
|
存储 Java
使用BitSet对核苷酸数据压缩保存(减少87.5%空间)
使用BitSet对核苷酸数据压缩保存(减少87.5%空间)
|
SQL 开发框架 .NET
一个超级大的文件如何更快读
# 一个超级大的文件如何更快读 问题起因 ![](https://img2023.cnblogs.com/blog/2415052/202306/2415052-20230608110517159-989018809.png) 一个有千万的数据的txt文件如何发挥IO的全部性能更快的读和写。 ## 方案一 使用ChatGPT4的方案 在C#中,我们可以使用多线程来处理大量的数据并将其写入数据库。在处理大数据时,我们需要将任务分解为多个子任务,这样我们可以在不同的线程中并行执行它们以提高性能。 这里是一种可能的解决方案,使用了`Task Parallel Library (TPL
96 0
一个超级大的文件如何更快读
重复文件清除工具,硬盘内存拯救者。。。
重复文件清除工具,硬盘内存拯救者。。。
|
算法 Linux Windows
如何找到系统里的重复文件,快速释放磁盘空间?
不管是 Windows 电脑还是 Linux 电脑,在使用的过程中,或多或少都会留下很多重复的文件。这些文件不仅会占用我们的磁盘,还会拖累我们的系统,所以,很有必要干掉这些重复的文件。
371 0
如何找到系统里的重复文件,快速释放磁盘空间?