记一次800多万XML文本文件预处理经历

简介:

一.背景

由于某些需求,现需对系统在最近几个月生成的xml文件进行预处理,提取标签内的数据进行分析。这些需要预处理的数据大概有280GB左右880多万,存放在gysl目录下,gysl的下一层按天命名,分为若干个目录,接下来一层目录下又有多个目录,我们所需的xml目录就在这一层。我们现在需要将此目录下面的xml文件使用Python脚本进行处理,并将处理结果按天(与源文件一致)保存到~/temp目录下。

二.操作过程

2.1 Python脚本准备。

#!/usr/bin/python3
# -*- coding:utf-8 -*-
import glob,os,sys, re
from concurrent.futures import ProcessPoolExecutor
import argparse
import random

def find_xs(str, list):
    i = 0
    for i in range(0,len(str)):
        if str[i] in list:
            return i
    return -1

def segement_aux(para, OUT, sep_list, max_length, merge_prob):
    pos = 0
    res_sentence = ""
    sentence_size = 0
    while True:
        #segment one line.
        pos = find_xs(para,sep_list)
        if pos == -1:
            break
        cur_sentence = para[:pos+1].strip()
        cur_sentence_filtering = cur_sentence
        res_sentence = res_sentence + cur_sentence_filtering
        sentence_size = sentence_size + 1
        if sentence_size == 2:
            OUT.write(res_sentence + '\n')
        else:
            rand = random.random() 
            if rand > merge_prob:
                OUT.write(res_sentence + '\n')
                res_sentence = ""
                sentence_size = 0
            else:
                sentence_size = sentence_size + 1
        para = para[pos+1:]
    
def loadXMLfile(inputfile):
    sep_list= ['。', '?', '!']
    targetfolder = "Target"
    max_length = 100000
    merge_prob = 0.6
    basefilename =os.path.basename(inputfile)
    outputfile = targetfolder + '/'+ os.path.splitext(basefilename)[0] + ".tsv"
    textSessionPattern = re.compile(r'<text>(.*?)</text>\s*',  re.I|re.MULTILINE)
    OUT = open(outputfile, 'w',encoding="utf8")
    for line in open(inputfile,encoding="utf8"):
        line = line.strip().rstrip("\r\n")
        alltextsessions = re.findall(textSessionPattern, line)
        for textsession in alltextsessions:
            textsession = re.sub(r'\t', r' ', textsession)
            textsession = re.sub(r'\<[^\<|\>]+\>', r'', textsession)
            textsession = re.sub(r'\{[^\}|\{]+\}', r'', textsession)
            textsession = re.sub(r'\s+',r'',textsession)
            OUT.write(textsession+'\n')
    OUT.close()
    return outputfile
    
def processXMLfilesWithThreads(input):
    with ProcessPoolExecutor() as executor:
        xmlfiles = glob.glob(input + "/*.xml")
        for xmlfile, outputfile in zip( xmlfiles, executor.map( loadXMLfile, xmlfiles) ):
            print("Processed" + outputfile)

if __name__ == '__main__':
    ap = argparse.ArgumentParser()
    ap.add_argument("-i", "--input", required=True, help="the directory of input files")
    args = ap.parse_args()
    processXMLfilesWithThreads(input = args.input)

2.2 Shell脚本准备。

for folder in `find /home/ivandu/gysl -path "*/xml" -print`;do mkdir Target;python3 XMLPreProcess.py --input $folder;mv Target ~/temp/$(echo $folder|awk -F "/" '{print $5}');done

看着有点费劲,改一下:

#!/bin/bash
for folder in `find /home/ivandu/gysl -path "*/xml" -print`;
    do 
        mkdir Target;
        python3 XMLPreProcess.py --input $folder;
        mv Target ~/temp/$(echo $folder|awk -F "/" '{print $5}');
    done

2.3 执行脚本。

此步骤就不展示了,涉及到某些商业机密。在Python脚本所在的目录下,执行Shell脚本就行。

三.遇到问题

3.1 “Argument list too long”。

在执行某目录下的文件移动、复制、删除操作时,发现提示“Argument list too long”,命令执行不成功。这个目录下的文件数量超过30万,操作命令如下:

cp * ~/gysl_test

提示:

-sh: /bin/cp: Argument list too long 

解决方案:

for file in `ls`;do cp $file ~/gysl_test/;done

rm,mv也类似,太忙了也就没继续探讨其他解决方案。

3.2 双for循环执行效率太低。

for folder in `find /home/ivandu/gysl/ -mindepth 2 -maxdepth 2 -print|grep "xml"`;do cd $folder;for file in $(ls);do cp $file ~/gysl_test/;done;done

如果使用这命令来拷贝这些文件的话,那么这一天可能就过去了!这个肯定不妥,必须改进。find也用得不够简洁,后来都进行优化了。

3.3 Python单线程执行效率太低。

Python脚本使用了多线程来进行处理。不过多解释,大家见谅^_^

四.总结

4.1 总体来说今天处理这些数据还是挺给力的,差不多5000秒就完成了。我写了一条命令动态观察了一下。

4.2 正则表达式随时都能用上,要不是处理一下特殊任务和Python多线程,直接一个grep命令写到shell命令或许早就完事了。

4.3 多线程。bash shell中的多线程还不会使用,以后还得加强学习一下。

4.4 就写这么多了,不足之处还望诸位不吝赐教。

相关文章
|
2月前
|
XML Java 数据格式
Spring5入门到实战------7、IOC容器-Bean管理XML方式(外部属性文件)
这篇文章是Spring5框架的实战教程,主要介绍了如何在Spring的IOC容器中通过XML配置方式使用外部属性文件来管理Bean,特别是数据库连接池的配置。文章详细讲解了创建属性文件、引入属性文件到Spring配置、以及如何使用属性占位符来引用属性文件中的值。
Spring5入门到实战------7、IOC容器-Bean管理XML方式(外部属性文件)
|
4月前
|
XML Java 数据格式
java创建xml文件内容
java创建xml文件内容
|
4月前
|
XML Java 数据格式
java解析xml文件内容
java解析xml文件内容
|
5月前
|
XML 前端开发 数据格式
BeautifulSoup 是一个 Python 库,用于从 HTML 和 XML 文件中提取数据
【5月更文挑战第10天】BeautifulSoup 是 Python 的一个库,用于解析 HTML 和 XML 文件,即使在格式不规范的情况下也能有效工作。通过创建 BeautifulSoup 对象并使用方法如 find_all 和 get,可以方便地提取和查找文档中的信息。以下是一段示例代码,展示如何安装库、解析 HTML 数据以及打印段落、链接和特定类名的元素。BeautifulSoup 还支持更复杂的查询和文档修改功能。
81 1
|
1月前
|
SQL XML Java
mybatis :sqlmapconfig.xml配置 ++++Mapper XML 文件(sql/insert/delete/update/select)(增删改查)用法
当然,这些仅是MyBatis功能的初步介绍。MyBatis还提供了高级特性,如动态SQL、类型处理器、插件等,可以进一步提供对数据库交互的强大支持和灵活性。希望上述内容对您理解MyBatis的基本操作有所帮助。在实际使用中,您可能还需要根据具体的业务要求调整和优化SQL语句和配置。
30 1
|
2月前
|
XML 监控 数据格式
ROS 2 - Python、XML 和 YAML 编写 Launch 文件
ROS 2 - Python、XML 和 YAML 编写 Launch 文件
194 0
|
4月前
|
XML Java 数据库
配置applicationContext.xml文件
配置applicationContext.xml文件
|
3月前
|
XML Java 数据库
配置applicationContext.xml文件
配置applicationContext.xml文件
|
4月前
|
XML JavaScript Java
解析XML文件的几种方法
解析XML文件的几种方法
|
4月前
|
XML 数据格式
XML配置Servlet文件,不使用注解配置路径的方法
XML配置Servlet文件,不使用注解配置路径的方法