【Python】实现从AWR 报表上抓取指定数据改进版

简介:
相对上一个脚本,该脚本修改了如下内容:
1 url的传入方式,只需将url保存到一个文本文件里,由程序自己读入并解析
2 增加了oracle 指标数据统计和分析,比较两周(我自己的需要)的数据变化趋势
#!/usr/bin/python
# -*- coding: UTF-8 -*-
#created by yangql 
#date @2011-12-13
#function 获取AWR报表中的oracle数据库指标,分析并得出数据趋势
import sys
import urllib
import HTMLParser
import string

####转换unicode 类型的字符串到 float 型的数值
def utof(s1):
   s2=s1.strip()
   s3=s2.encode( 'utf-8')
   s4=s3.split( ',')
   length= len(s4)
   if length <= 1 :
      t1= string.atof(s4[ 0])
      return t1
   elif length == 2:
      t1=string.atof(s4[ 1])+string.atof(s4[ 0])* 1000
      return t1
   elif length == 3:
      t1=string.atof(s4[ 2])+string.atoi(s4[ 1])* 1000+string.atoi(s4[ 0])* 1000000
      return t1
   else:
      return 0
###构造解析html的类并且获取整个HTML中除去标签的文本数据
urltext = []
class CustomParser(HTMLParser.HTMLParser):
  selected=( 'table', 'h1', 'font', 'ul', 'li', 'tr', 'td', 'a')
  def reset( self):
      HTMLParser.HTMLParser.reset( self)
      self._level_stack = []

  def handle_starttag( self, tag, attrs):
       if tag in CustomParser.selected:
         self._level_stack.append(tag)

  def handle_endtag( self, tag):
      if self._level_stack \
         and tag in CustomParser.selected \
         and tag == self._level_stack[- 1]:
         self._level_stack.pop()
 
  def handle_data( self, data):
     if "/".join( self._level_stack) in ( 'table/tr/td', 'table/tr/td/h1/font', 'table/tr/td/ul/li') and data != ' \n ':
        #print data
        urltext.append(data)    

####调用解析html 的类,并且将获取的文本数据传递给urltext 数组
def gethtml(url):
    content = unicode(urllib.urlopen(url,params).read(), 'UTF-8')
    parser = CustomParser()
    parser.feed(content)
    parser.close()

####获取指定的指标的值,
def calculcate(urltext):
    print '-----------------------------------------'
    global Logical
    global Physical_reads
    global Physical_writes
    global Executes
    global Transactions
    k= 0
    for item in urltext:
       k=k+ 1
       if k< 50 :
         continue
       elif item == 'Logical reads:' :
         Logical.append(utof(urltext[k])) 
         print 'Logical reads:     ' ,urltext[k].strip()
       elif item == 'Physical reads:' :
         Physical_reads.append(utof(urltext[k]))
         print 'Physical reads:    ',urltext[k].strip()
       elif item == 'Physical writes:' :
         Physical_writes.append(utof(urltext[k]))
         print 'Physical writes:   ' ,urltext[k].strip()
       elif item == 'Executes:':
         Executes.append(utof(urltext[k]))
         print 'Executes:          ' ,urltext[k].strip()
       elif item == 'Transactions:' :
         Transactions.append(utof(urltext[k]))
         print 'Transactions:      ',urltext[k].strip()
       elif k> 86:
         break

def result(url):
  global urltext
  print ' '
  gethtml(url)
  calculcate(urltext)
  urltext = []

def get_avg(List):
    print ' '
    sum1= 0
    sum2= 0
    avg1= 0
    avg2= 0
    trend= 0
    count= len(List)
    for i in range( 0,count):
       if i<count/ 2:
          sum1 =sum1+List[i]
       elif i>=count/ 2:
          sum2 +=List[i]
    avg1=sum1/count* 2
    avg2= float(sum2)/(count/ 2)
    trend=(avg1-avg2)/avg2* 100
    print '第一周的均值 ', '    第二周的均值 ', '      趋 势(%)'
    print " %-20.2f " %avg1 , " %-15.2f " %avg2 , " %-4.2f " %trend, '%'
    print ' '

if __name__ == '__main__':

     if len(sys.argv)> 1:
        params=urllib.urlencode({ 'ip':sys.argv[ 1], 'action': 2})
     else:
        params= None

     Logical=[]
     Physical_reads=[]
     Physical_writes=[]
     Executes=[]
     Transactions=[]
     count= 0
     f = file( '/root/python/1.txt')
     while True:
       url = f.readline()
       if len(url) == 0:
          break
       elif len(url.strip())== 0:
          break
       else:
          result(url)
          count=count+ 1
     f.close()
     print '共有',count, '组数据'
     print '-------------------Logical------------------ '
     get_avg(Logical)      
     print '----------------Physical_reads-------------- '
     get_avg(Physical_reads)
     print '----------------Physical_writes------------- '
     get_avg(Physical_writes)
     print '-------------------Executes----------------- '
     get_avg(Executes)
     print '-----------------Transactions---------------'
     get_avg(Transactions)
效果截图:
相关文章
|
1月前
|
数据采集 Web App开发 数据可视化
Python零基础爬取东方财富网股票行情数据指南
东方财富网数据稳定、反爬宽松,适合爬虫入门。本文详解使用Python抓取股票行情数据,涵盖请求发送、HTML解析、动态加载处理、代理IP切换及数据可视化,助你快速掌握金融数据爬取技能。
997 1
|
1月前
|
Java 数据挖掘 数据处理
(Pandas)Python做数据处理必选框架之一!(一):介绍Pandas中的两个数据结构;刨析Series:如何访问数据;数据去重、取众数、总和、标准差、方差、平均值等;判断缺失值、获取索引...
Pandas 是一个开源的数据分析和数据处理库,它是基于 Python 编程语言的。 Pandas 提供了易于使用的数据结构和数据分析工具,特别适用于处理结构化数据,如表格型数据(类似于Excel表格)。 Pandas 是数据科学和分析领域中常用的工具之一,它使得用户能够轻松地从各种数据源中导入数据,并对数据进行高效的操作和分析。 Pandas 主要引入了两种新的数据结构:Series 和 DataFrame。
343 0
|
1月前
|
JSON 算法 API
Python采集淘宝商品评论API接口及JSON数据返回全程指南
Python采集淘宝商品评论API接口及JSON数据返回全程指南
|
1月前
|
JSON API 数据安全/隐私保护
Python采集淘宝拍立淘按图搜索API接口及JSON数据返回全流程指南
通过以上流程,可实现淘宝拍立淘按图搜索的完整调用链路,并获取结构化的JSON商品数据,支撑电商比价、智能推荐等业务场景。
|
2月前
|
存储 监控 API
Python实战:跨平台电商数据聚合系统的技术实现
本文介绍如何通过标准化API调用协议,实现淘宝、京东、拼多多等电商平台的商品数据自动化采集、清洗与存储。内容涵盖技术架构设计、Python代码示例及高阶应用(如价格监控系统),提供可直接落地的技术方案,帮助开发者解决多平台数据同步难题。
|
2月前
|
存储 JSON 算法
Python集合:高效处理无序唯一数据的利器
Python集合是一种高效的数据结构,具备自动去重、快速成员检测和无序性等特点,适用于数据去重、集合运算和性能优化等场景。本文通过实例详解其用法与技巧。
128 0
|
2月前
|
数据采集 关系型数据库 MySQL
python爬取数据存入数据库
Python爬虫结合Scrapy与SQLAlchemy,实现高效数据采集并存入MySQL/PostgreSQL/SQLite。通过ORM映射、连接池优化与批量提交,支持百万级数据高速写入,具备良好的可扩展性与稳定性。
|
2月前
|
JSON API 数据安全/隐私保护
Python采集淘宝评论API接口及JSON数据返回全流程指南
Python采集淘宝评论API接口及JSON数据返回全流程指南
|
2月前
|
数据采集 数据可视化 关系型数据库
基于python大数据的电影数据可视化分析系统
电影分析与可视化平台顺应电影产业数字化趋势,整合大数据处理、人工智能与Web技术,实现电影数据的采集、分析与可视化展示。平台支持票房、评分、观众行为等多维度分析,助力行业洞察与决策,同时提供互动界面,增强观众对电影文化的理解。技术上依托Python、MySQL、Flask、HTML等构建,融合数据采集与AI分析,提升电影行业的数据应用能力。
|
2月前
|
数据可视化 大数据 数据挖掘
基于python大数据的招聘数据可视化分析系统
本系统基于Python开发,整合多渠道招聘数据,利用数据分析与可视化技术,助力企业高效决策。核心功能包括数据采集、智能分析、可视化展示及权限管理,提升招聘效率与人才管理水平,推动人力资源管理数字化转型。

推荐镜像

更多