第一个python网络爬虫总结

简介:
这个程序其实就是模仿用户的网页访问操作。 
先从主页上获取大的商品分类,再一级一级地遍历所有的小分类。在最后得到商品列表,再遍历每个商品页,从商品页是抓取有效的信息。 

这里,我对一些关键点做个总结,以便以后用到好回顾。 

一,怎么访问网页?


# 根据url获取网页正文
def get_webpage(url):
    headers = {\
            'User-Agent' : 'Mozilla/5.0 (X11; Linux i686; rv:34.0) Gecko/20100101 Firefox/34.0',\
            'Accept'     : 'text/html',\
            'Connection' : 'keep-alive'}
    try:
        request = urllib2.Request(url, None, headers)
        response = urllib2.urlopen(request, timeout=120)
        webpage = response.read()
        response.close()
        return webpage
 
    #except urllib2.HTTPError, e:
    #    print('HTTPError: ' + str(e.code))
    #except urllib2.URLError, e:
    #    print('URLError: ' + str(e.reason))
    except Exception, e:
        print('发生异常: ' + str(e))

  上面这个函数就是用uillib2.urlopen()函数获取url网址的网页内容。也可以不用urllib2.Request(),直接用urllib2.urlopen()。这么做为是为了仿造正常的浏览器的访问操作。 

二,数据保存 
  数据最好保存为xls文件格式,如果没有办法保存为csw文本格式也可以,也可以保存为txt文本格式。 
  最好做成根据用户输入的文件名的后缀名进行自动识别。 

  (1)先分别定义函数 save_as_csw(), save_as_txt(), save_as_xls() 实现csw,txt,xls文件格式的保存。 


def save_as_csw(prod_list, filename):
    if len(prod_list) == 0:
        return False
 
    #分类 商品 价格 联系人 手机 公司 座机 传真 地址 公司网址 源自网页 
    line_fmt = '"%s"\t"%s"\t"%s"\t"%s"\t"%s"\t"%s"\t"%s"\t"%s"\t"%s"\t"%s"\t"%s"\n'
    lines = []
    head_line = line_fmt % ('分类', '商品', '价格', '联系人', '手机号','公司', 
                            '电话', '传真', '公司地址', '公司网址', '源网页')
    lines.append(head_line)
    for item in prod_list:
        info = item['detail']
        if info == None:    #如果信息不全,则跳过
            continue
 
        prod_line = line_fmt % (item['path'], info['name'], info['price'],\
                                info['contact'], info['cell-phone'], info['company'], \
                                info['tel-phone'], info['fax'], info['address'], info['website'], item['url'])
        lines.append(prod_line)
     
    wfile = open(filename, 'w')
    wfile.writelines(lines)
    wfile.close()
    return True
 
def save_as_txt(prod_list, filename):
    if len(prod_list) == 0:
        return False
 
    #分类 商品 价格 联系人 手机 公司 座机 传真 地址 公司网址 源自网页 
    line_fmt = '%s\t%s\t%s\t%s\t%s\t%s\t%s\t%s\t%s\t%s\t%s\n'
    lines = []
    head_line = line_fmt % ('分类', '商品', '价格', '联系人', '手机号','公司', 
                            '电话', '传真', '公司地址', '公司网址', '源网页')
    lines.append(head_line)
    for item in prod_list:
        info = item['detail']
        if info == None:    #如果信息不全,则跳过
            continue
 
        prod_line = line_fmt % (item['path'], info['name'], info['price'],\
                                info['contact'], info['cell-phone'], info['company'], \
                                info['tel-phone'], info['fax'], info['address'], info['website'], item['url'])
        lines.append(prod_line)
     
    wfile = open(filename, 'w')
    wfile.writelines(lines)
    wfile.close()
    return True
 
#保存数据到xls文件中,每个大类放在不同的Worksheet中
def save_as_xls(prod_list, filename):
    if len(prod_list) == 0:
        return False
 
    workbook = xlwt.Workbook(encoding='utf-8')  #必须注明编码格式,否则会保存失败
    curr_category = ''
    worksheet = None
    row_index = 0
    for prod_item in prod_list:
        path = prod_item['path']
        this_category = path.split('/')[0]
        #如果当前的这个商品种类与上一个商品不同,则要新建worksheet
        if this_category != curr_category:
            worksheet = workbook.add_sheet(this_category)
            curr_category = this_category
            #填写表头
            header_cells = ('分类', '商品', '价格', '联系人', '手机号','公司', 
                     '电话', '传真', '公司地址', '公司网址', '源网页')
 
            column_index = 0
            for cell in header_cells:
                worksheet.write(0, column_index, header_cells[column_index])
                column_index += 1
            #创建了新了worksheet后,数据从第二行开始往下写
            row_index = 1 
 
        #将数据填写到worksheet的row_index行
        prod_info = prod_item['detail']
        #如果信息不全,则跳过
        if prod_info == None:
            continue
 
        prod_cells = (path, prod_info['name'], prod_info['price'], prod_info['contact'],\
                 prod_info['cell-phone'], prod_info['company'], prod_info['tel-phone'],\
                 prod_info['fax'], prod_info['address'], prod_info['website'], prod_item['url'])
 
        column_index = 0
        for cell in prod_cells:
            worksheet.write(row_index, column_index, prod_cells[column_index])
            column_index += 1
 
        row_index += 1
        pass
    workbook.save(filename)
    return True

  (2)定义DataSaver类,实现统一的文件保存功能。并用 case_dict 根据后缀名进行分别保存。


def get_filename_postfix(filename):
    basename = os.path.basename(filename)
    temp = basename.split('.')
    if len(temp) >= 2:
        return temp[-1]
 
class DataSaver:
    #后缀名与保存函数映射表
    case_dict = {'csw':save_as_csw,\
                 'txt':save_as_txt}
    if xlwt_enabled:
        case_dict['xls'] = save_as_xls
 
    #将商品列表数据‘喂’给DataSaver
    def feed(self, data):
        self.product_list = data
        pass
 
    def save_as(self, filename):
        if self.product_list == None or len(self.product_list) == 0:
            print('警告:记录为空,不保存')
            return
 
        print('正在保存……')
        while True:
            postfix = get_filename_postfix(filename)
            try:
                if self.case_dict[postfix](self.product_list, filename):
                    print('已保存到:' + filename)
                else:
                    print('保存失败!')
                break
            except KeyError:
                print('警告:不支持 %s 文件格式。' % (postfix))
                print('支持的文件格式:' + ','.join(self.case_dict.keys()))
                try:
                    filename = raw_input('请输入新文件名:')
                except KeyboardInterrupt:
                    print('用户取消保存')
                    break
        pass
    pass

  (3)如果没有安装 xlwt ,就不能支持 xls 文件的保存。 
  这里的做法是:如果import xlwt成功,则将xls文件的保存函数添加到case_dict中。 
  如果文件格式不支持,就提示让用户另命个文件名进行保存。 


#如果没有安装xlwt,那么保存为xls文件就不可用
xlwt_enabled = True
try:
    import xlwt
except ImportError: 
    xlwt_enabled = False

 见 DataSaver.save_as() 函数中对 xls 后缀名的处理。

三,遇到的问题与解决方法

(1)python程序里不能有中文的问题。
  以前,只有python程序里有中文,不管是在哪儿,都不能运行。原来是python解析器默认将文件识别为ascii编码格式的,有中文当然就不误别。解决这问题的办法是:明确告知解析器我们文件的编码格式。


#!/usr/bin/env python
#-*- coding=utf-8 -*-

  这样就可以了。

(2)安装xlwt3不成功的问题。
  从网上下载xlwt3进行安装。python setup.py install 失败,报print()函数不支持print("xxxx", file=f)这种格式。我看了一下,这个功能python 2.6是没有的。于是重新下载了xlwt-0.7.5.tar.gz进行安装。结果就可以了。

(3)在Windows为乱码的问题。
  这个问题,我还没有解决。


目录
相关文章
|
9天前
|
数据采集 存储 XML
Python爬虫定义入门知识
Python爬虫是用于自动化抓取互联网数据的程序。其基本概念包括爬虫、请求、响应和解析。常用库有Requests、BeautifulSoup、Scrapy和Selenium。工作流程包括发送请求、接收响应、解析数据和存储数据。注意事项包括遵守Robots协议、避免过度请求、处理异常和确保数据合法性。Python爬虫强大而灵活,但使用时需遵守法律法规。
|
10天前
|
数据采集 缓存 定位技术
网络延迟对Python爬虫速度的影响分析
网络延迟对Python爬虫速度的影响分析
|
11天前
|
数据采集 Web App开发 监控
高效爬取B站评论:Python爬虫的最佳实践
高效爬取B站评论:Python爬虫的最佳实践
|
11天前
|
Python
Python中的异步编程:使用asyncio和aiohttp实现高效网络请求
【10月更文挑战第34天】在Python的世界里,异步编程是提高效率的利器。本文将带你了解如何使用asyncio和aiohttp库来编写高效的网络请求代码。我们将通过一个简单的示例来展示如何利用这些工具来并发地处理多个网络请求,从而提高程序的整体性能。准备好让你的Python代码飞起来吧!
30 2
|
18天前
|
数据采集 存储 JSON
Python网络爬虫:Scrapy框架的实战应用与技巧分享
【10月更文挑战第27天】本文介绍了Python网络爬虫Scrapy框架的实战应用与技巧。首先讲解了如何创建Scrapy项目、定义爬虫、处理JSON响应、设置User-Agent和代理,以及存储爬取的数据。通过具体示例,帮助读者掌握Scrapy的核心功能和使用方法,提升数据采集效率。
60 6
|
7天前
|
机器学习/深度学习 人工智能 算法
基于Python深度学习的【垃圾识别系统】实现~TensorFlow+人工智能+算法网络
垃圾识别分类系统。本系统采用Python作为主要编程语言,通过收集了5种常见的垃圾数据集('塑料', '玻璃', '纸张', '纸板', '金属'),然后基于TensorFlow搭建卷积神经网络算法模型,通过对图像数据集进行多轮迭代训练,最后得到一个识别精度较高的模型文件。然后使用Django搭建Web网页端可视化操作界面,实现用户在网页端上传一张垃圾图片识别其名称。
30 0
基于Python深度学习的【垃圾识别系统】实现~TensorFlow+人工智能+算法网络
|
11天前
|
机器学习/深度学习 TensorFlow 算法框架/工具
利用Python和TensorFlow构建简单神经网络进行图像分类
利用Python和TensorFlow构建简单神经网络进行图像分类
33 3
|
12天前
|
数据采集 存储 JSON
Python爬虫开发中的分析与方案制定
Python爬虫开发中的分析与方案制定
|
17天前
|
数据采集 JSON 测试技术
Python爬虫神器requests库的使用
在现代编程中,网络请求是必不可少的部分。本文详细介绍 Python 的 requests 库,一个功能强大且易用的 HTTP 请求库。内容涵盖安装、基本功能(如发送 GET 和 POST 请求、设置请求头、处理响应)、高级功能(如会话管理和文件上传)以及实际应用场景。通过本文,你将全面掌握 requests 库的使用方法。🚀🌟
36 7
|
16天前
|
数据采集 Web App开发 JavaScript
爬虫策略规避:Python爬虫的浏览器自动化
爬虫策略规避:Python爬虫的浏览器自动化