一步步教你利用Github开源项目实现网络爬虫:以抓取证券日报新闻为例

本文涉及的产品
云数据库 RDS MySQL Serverless,0.5-2RCU 50GB
简介:
+关注继续查看

在学习编程的过程中,初学者(特别是想转行互联网的来自其它专业的初学者)往往因为缺乏实际项目的操作而陷入基础学习的环境中无法自拔,在学习Python的过程中,笔者最初也是一直停留在不断地print、列表、数组、各种数据结构的学习里,当然基础知识的学习很重要,但是没有项目的实际操作,往往无法得到提高并会心生厌倦,为了应对这个问题,接下来专栏将从Github开源项目选取一些比较有意思的项目,来为大家说明如何开展项目,如何安装环境,如何debug,如何找到解决问题的方法......

我们以抓取财经新闻的爬虫为例,默认centos系统、Python2.7环境,并且已经安装pyenv,如未安装pyenv请参考:

基于pyenv和virtualenv搭建python多版本虚拟环境

项目作者: 
Hailong Zhang 
项目地址: 
Scrapy Spider for 各种新闻网站 
感谢作者开源

1. 首先准备项目开发环境

$cd /home/andy/.pyenv/ENV2.7.10 
$ mkdir works 
$ cd works 
$ pyenv activate ENV2.7.10 
$ sudo yum install gcc libffi-devel openssl-devel libxml2 libxslt-devel libxml2-devel python-devel -y
$ sudo yum install python-setuptools

2. 依次安装pip、lxml、scrapy

$ easy_install pip 
$ easy_install lxml 
$ pip install scrapy

3. 从github克隆项目

$ mkdir spiders 
$ git clone https://github.com/hailong0707/spider_news_all
640?wx_fmt=png&tp=webp&wxfrom=5&wx_lazy=

4. 查看README.md项目文档
$ cd spider_news_all 
$ ls 
$ vim README.md
640?wx_fmt=png&tp=webp&wxfrom=5&wx_lazy=
5. 安装环境及数据库存储连接用的MySQL-python模块
$ sudo yum install python-devel 
$ sudo yum install mysql-devel 
$ pip install MySQL-python 
$ pip install bs4

640?wx_fmt=png&tp=webp&wxfrom=5&wx_lazy=
6. 创建新的与爬虫项目匹配的数据库和配置爬虫项目MySQLdb的连接账号密码 进入MySQL创建存储数据的数据库、表,记得刷新权限: 

mysql> create database news; 
mysql> grant all privileges on news.* to username@localhost identified by 'passwd'; 
mysql> flush privileges;

在db.sql的同级目录加载数据库表结构

$ mysql -u root -p 
$ source db.sql

配置与数据库对应的爬虫系统的MySQLdb的连接账号密码:

$ vim pipelines.py 
$ vim zqrb.py

640?wx_fmt=png&tp=webp&wxfrom=5&wx_lazy=
7. 安装screen,运行项目,以抓取证券日报新闻为例,命名screen名称zqrb
$ sudo yum install screen 
$ screen -S zqrb 
$ scrapy crawl zqrb

8. Debug,直接运行会发现报错,debug完再运行

AttributeError: 'list' object has no attribute 'iteritems'

查看项目的github主页,在Issues里有人已经提出解决方案,修改setting.py

ITEM_PIPELINES = { 'spider_news_all.pipelines.SpiderNewsAllPipeline': 300 }

修改之后再次运行,Great!Ctrl+A+D退出screen返回终端,让爬虫继续运行,Linux中可以利用crontab执行定时任务,比如可以设置每天晚上0点定时开启爬虫抓取。

$ scrapy crawl zqrb
640?wx_fmt=png&tp=webp&wxfrom=5&wx_lazy=
640?wx_fmt=png&tp=webp&wxfrom=5&wx_lazy=
640?wx_fmt=png&tp=webp&wxfrom=5&wx_lazy=

原文发布时间为:2016-10-08
本文作者:知乎@橙哥
本文来自云栖社区合作伙伴“Python中文社区”,了解相关信息可以关注“Python中文社区”微信公众号

相关实践学习
基于CentOS快速搭建LAMP环境
本教程介绍如何搭建LAMP环境,其中LAMP分别代表Linux、Apache、MySQL和PHP。
全面了解阿里云能为你做什么
阿里云在全球各地部署高效节能的绿色数据中心,利用清洁计算为万物互联的新世界提供源源不断的能源动力,目前开服的区域包括中国(华北、华东、华南、香港)、新加坡、美国(美东、美西)、欧洲、中东、澳大利亚、日本。目前阿里云的产品涵盖弹性计算、数据库、存储与CDN、分析与搜索、云通信、网络、管理与监控、应用服务、互联网中间件、移动服务、视频服务等。通过本课程,来了解阿里云能够为你的业务带来哪些帮助     相关的阿里云产品:云服务器ECS 云服务器 ECS(Elastic Compute Service)是一种弹性可伸缩的计算服务,助您降低 IT 成本,提升运维效率,使您更专注于核心业务创新。产品详情: https://www.aliyun.com/product/ecs
相关文章
|
3月前
|
数据采集 JavaScript API
Python爬虫抓取经过JS加密的API数据的实现步骤
Python爬虫抓取经过JS加密的API数据的实现步骤
|
3月前
|
数据采集 前端开发 Python
Python爬虫与逆向工程技术的结合,实现新闻网站动态内容的多线程抓取
Python爬虫与逆向工程技术的结合,实现新闻网站动态内容的多线程抓取
|
4月前
|
数据采集 传感器 Web App开发
无人驾驶车辆中Python爬虫的抓取与决策算法研究
无人驾驶车辆中Python爬虫的抓取与决策算法研究
|
5月前
|
数据采集 Web App开发 存储
Java爬虫第五篇:使用selenium、Jsoup 抓取bing搜索图片
Java爬虫第五篇:使用selenium、Jsoup 抓取bing搜索图片
128 0
|
5月前
|
数据采集 Web App开发 存储
Java爬虫第四篇:使用selenium、Jsoup 抓取图片
Java爬虫第四篇:使用selenium、Jsoup 抓取图片
134 0
|
5月前
|
数据采集 Java Maven
Java爬虫第三篇:使用Jsoup 抓取文章
Java爬虫第三篇:使用Jsoup 抓取文章
75 0
|
6月前
|
数据采集 测试技术 Python
python写的爬虫,抓取百度的搜索结果,被屏蔽了怎么办?
这个问题通常是由于频繁的请求导致百度的反爬虫机制触发了验证码的保护机制
|
6月前
|
数据采集 Web App开发 JavaScript
|
数据采集 JavaScript 测试技术
Python爬虫通过selenium自动化抓取淘宝的商品数据
淘宝的页面大量使用了js加载数据,所以采用selenium来进行爬取更为简单,selenum作为一个测试工具,主要配合无窗口浏览器phantomjs来使用。
521 0
|
数据采集 Python
Python爬虫系列17-批量抓取某短视频平台某用户的全部作品
不那么好走的路,才是上坡路. 所有往上的路,都与我们本能的懒惰、懈怠和拖延不相容。 当你觉得很苦很累时,不要泄气,因为你可能走在上坡的路上。
Python爬虫系列17-批量抓取某短视频平台某用户的全部作品
推荐文章
更多