python 历史数据删除法则

简介:

#!/usr/bin/env python

#-*- coding:UTF-8 -*-

"""

@Item   :  database Backup

@Author :  Villiam Sheng

@Date   :  2012-08-13

@Funtion:

 

    

"""

 

import os,sys,time,re,socket,threading,json,base64,traceback,ConfigParser,fcntl,struct

from rsync_log import rsync_log

from rsync_post import rsync_post

from  statvfs import F_BLOCKS,F_BAVAIL,F_BSIZE

 

pcg = 0

""" 生成斐波那契数列"""

lists = []

a,b = 0,1

while b <= 365:

    a,b = b ,a+b

    lists.append(b)

 

 

class rsync_thread(threading.Thread):

    def __init__(self,path):

        threading.Thread.__init__(self)

        self.log = rsync_log()

        self.path = path

 

 

    """ 计算当前磁盘的使用百分比"""

    def disk(self):

        try:

            vfs = os.statvfs(self.path)

            disk_full = int(vfs[F_BLOCKS]*vfs[F_BSIZE]/1024/1024/1024)

            disk_free = int(vfs[F_BAVAIL]*vfs[F_BSIZE]/1024/1024/1024)

            return  '%.1f'%(float(disk_full - disk_free) / disk_full * 100)

        except:

            self.log.log_info('rsync_info.err','dfile.disk',traceback.print_exc())

            return traceback.print_exc()

 

 

    def run(self):

        global pcg

        old_df = []     # 上一年的删除历史文件

        new_df = []     # 今年的删除历史文件

        sf = []         # 保留的历史文件

        res = {}        # 所有文件的天数及文件的路径

        rs = 0          # 删除文件的总和

        size = []       # 获取删除文件的大小

        msize = []      # 今天备份所有文件的大小

        tday_size = []  # 今天备份文件的大小

        ms = 0          # 今天备份文件的总和

        year = time.localtime().tm_year

 

        """ 得到文件的天数,以文件名作为key,天数作为value """

        for root,dirs,files in os.walk(self.path):

            for fpath in files:

                res[os.path.join(root,fpath)] =  time.localtime(os.stat(os.path.join(root,fpath)).st_ctime).tm_yday

 

        """ 判断文件的天数是否符合斐波那契数列,符合条件append到sf列表中,不符合append df列表中 """

        for v,k in  res.items():

            if k in lists:

                sf.append(k)

                self.log.log_info('log_info.save','dfile.rsync_thread','%s:::%s'%(v,k))

            elif k not in lists:

                if year != time.localtime(os.stat(v).st_ctime).tm_year:

                    old_df.append({v:k})

                else:

                    new_df.append({v:k})

            try:

                for s in  range(len(new_df)):

                    for f,k in new_df[s].items():

                        tday_size.append(k)

                if max({}.fromkeys(tday_size).keys()) == k:

                    msize.append(os.path.getsize(f))

            except:

                pass

        c = []

        pcg = float(self.disk())

        """ 判断今天是否有新的文件备份,在删除的列表中删除最后一天的数据,但必须保证磁盘的使用百分比大于等于 %91 """

        if time.localtime().tm_yday in res.values():

            if len(old_df) != 0:

                for s in  range(len(old_df)):

                    for f,k in old_df[s].items():

                        c.append(k)

                for s in  range(len(old_df)):

                    for f,k in old_df[s].items():

                        if min({}.fromkeys(c).keys()) == k and pcg > 91:

                            size.append(os.path.getsize(f))

                            os.system('rm -frv %s' %f)

                            self.log.log_info('log_info.delete','remove cmd','rm -frv %s %s'%(f,k))

                        elif pcg <= 91:

                            break

                        pcg = float(self.disk())

            elif len(new_df) != 0:

                for s in  range(len(new_df)):

                    for f,k in new_df[s].items():

                        c.append(k)

                for s in  range(len(new_df)):

                    for f,k in new_df[s].items():

                        if min({}.fromkeys(c).keys()) == k and pcg > 91:

                            size.append(os.path.getsize(f))

                            os.system('rm -frv %s' %f)

                            self.log.log_info('log_info.delete','remove cmd','rm -frv %s %s'%(f,k))

                        elif pcg <= 91:

                            break

                        pcg = float(self.disk())

            for s in size:

                rs += s

            for m in msize:

                ms += m

            self.log.log_info('log_info.delete','Disk release %s %s MB'%(self.path,rs /1024/1024) ,'Disk append %s %s MB'%(self.path,ms /1024/1024))

        else:

            self.log.log_info('log_info.delete','Disk files ',' %s No update file' %self.path)

            sys.exit()

 

 

class rsync_dfile(object):

    def __init__(self):

 

    def work(self):

        fp =  open('/proc/mounts','r')

        m_info=fp.readlines()

        fp.close()

        data = {}

        sections = []

 

        for i in m_info:

            if i.find('data=ordered') != -1 or  i.find('mfs') != -1 or i.find('nfs') != -1:

                if os.path.ismount(str(i.split()[1])):

                    if str(i.split()[1]) != '/':

                        if str(i.split()[1]) != '/root':

                            if str(i.split()[1]) != '/var':

                                if len(i.split()[1]) != 1:

                                    if not i.find('sunrpc') != -1:

                                        rs_thread = rsync_thread(i.split()[1])

                                        rs_thread.start()

 

 

if __name__ == "__main__":

    rs = rsync_dfile()

    while True:

        rs.work()

        if pcg <= 91:

             break

 

 

 本文转自 swq499809608 51CTO博客,原文链接:http://blog.51cto.com/swq499809608/1128468


相关文章
|
5天前
|
存储 JSON 数据库
Python中列表数据的保存与读取:以txt文件为例
Python中列表数据的保存与读取:以txt文件为例
20 2
|
5天前
|
XML 前端开发 数据格式
BeautifulSoup 是一个 Python 库,用于从 HTML 和 XML 文件中提取数据
【5月更文挑战第10天】BeautifulSoup 是 Python 的一个库,用于解析 HTML 和 XML 文件,即使在格式不规范的情况下也能有效工作。通过创建 BeautifulSoup 对象并使用方法如 find_all 和 get,可以方便地提取和查找文档中的信息。以下是一段示例代码,展示如何安装库、解析 HTML 数据以及打印段落、链接和特定类名的元素。BeautifulSoup 还支持更复杂的查询和文档修改功能。
23 1
|
23小时前
|
数据采集 数据可视化 Python
Python分析香港26281套在售二手房数据
Python分析香港26281套在售二手房数据
|
1天前
|
数据采集 存储 数据挖掘
Python DataFrame初学者指南:轻松上手构建数据表格
【5月更文挑战第19天】本文是针对初学者的Pandas DataFrame指南,介绍如何安装Pandas、创建DataFrame(从字典或CSV文件)、查看数据(`head()`, `info()`, `describe()`)、选择与操作数据(列、行、缺失值处理、数据类型转换、排序、分组聚合)以及保存DataFrame到CSV文件。通过学习这些基础,你将能轻松开始数据科学之旅。
|
1天前
|
数据挖掘 数据处理 Python
【Python DataFrame 专栏】Python DataFrame 入门指南:从零开始构建数据表格
【5月更文挑战第19天】本文介绍了Python数据分析中的核心概念——DataFrame,通过导入`pandas`库创建并操作DataFrame。示例展示了如何构建数据字典并转换为DataFrame,以及进行数据选择、添加修改列、计算统计量、筛选和排序等操作。DataFrame适用于处理各种规模的表格数据,是数据分析的得力工具。掌握其基础和应用是数据分析之旅的重要起点。
【Python DataFrame 专栏】Python DataFrame 入门指南:从零开始构建数据表格
|
2天前
|
机器学习/深度学习 数据处理 Python
如何利用Python实现高效的数据清理与预处理
数据清理和预处理是数据科学家和分析师工作中不可或缺的一环,而Python作为一门强大的编程语言,可以使这个过程变得更加高效和便捷。本文将介绍一些常见的数据清理和预处理技术,并演示如何使用Python来实现这些技术。
|
4天前
|
JSON JavaScript 数据格式
利用 python 分析基金,合理分析数据让赚钱赢在起跑线!(1)
利用 python 分析基金,合理分析数据让赚钱赢在起跑线!(1)
|
5天前
|
存储 JSON 数据格式
Python知识点——高维数据的格式化
Python知识点——高维数据的格式化
7 0
|
5天前
|
Python
Python知识点——文件和数据格式化
Python知识点——文件和数据格式化
9 0
|
5天前
|
存储 机器学习/深度学习 数据可视化
基于Python的数据分组技术:将数据按照1, 2, 3规则分为三个列表
基于Python的数据分组技术:将数据按照1, 2, 3规则分为三个列表
9 1