关于爬虫,首篇

简介: 补充基础知识爬虫,毋庸置疑就是爬去互联网的网页,理论上,只要是互联网中存在的web页面,都可以爬取。用来做数据采集非常合适,尤其是现在大数据领域,爬虫必不可少。
+关注继续查看

补充基础知识

爬虫,毋庸置疑就是爬去互联网的网页,理论上,只要是互联网中存在的web页面,都可以爬取。用来做数据采集非常合适,尤其是现在大数据领域,爬虫必不可少。

爬虫种类有很多,了解概念可以参考百度百科

这里采用Java语言做爬虫,没有什么特别的原因,第一我用Java多,第二Java效率也挺好,第三我们的很多项目都Java的,做互相集成非常方便。当然pyhton的很多爬虫也很优秀。

爬虫框架:

java的爬虫也很多,我选了一个简单易用,方便扩展,完全开源的爬虫为基础来修改 。

壁虎:https://github.com/xtuhcy/gecco

爬虫原理

爬虫无非就是模拟浏览器和一些人们操作浏览器的动作,自动的访问网站,下载网页,然后抽取有用的网页内容,当采集的数据量达到一定数量级时,便会产生非常壮观或有价值的效果。麻烦的地方就在于很多网站有登陆、验证码、ajax、js等等技术防止你进行数据爬取。

使用爬虫基础要求:
1.了解网络基础,了解从浏览器输入网址到看到数据经历了什么,整个过程是什么。
2.可以分析web网页,可以抓包。开发过网页前端的具有css基础的即可。
3.Java语言
4.常用的一些Java框架,Spring,HttpClient,FastJson,HtmlUnit等等
5.一般一个2-3年经验的开发者,可以几个小时就能上手一个爬虫,熟练几天便可使用的游刃有余。

废话不多说,开始

分析Gecco框架,并简单改进

从今天开始,准备做一个爬虫,最简单的方式,找一个合适的开源的项目为基础,进行修改。我选了Gecco。
代码: https://github.com/xtuhcy/gecco
文档:http://www.geccocrawler.com/

先跑起来

maven引入

<!-- https://mvnrepository.com/artifact/com.geccocrawler/gecco -->
<dependency>
    <groupId>com.geccocrawler</groupId>
    <artifactId>gecco</artifactId>
    <version>1.3.0</version>
</dependency>
相关文章
|
8月前
|
数据采集 Web App开发 JavaScript
Python爬虫实战(5) | 爬取知网文献信息
Python爬虫实战(5) | 爬取知网文献信息
|
8月前
|
数据采集 Python
通过爬取豆瓣浅聊反爬策略的重要性
通过爬取豆瓣浅聊反爬策略的重要性
|
10月前
|
数据采集 存储 监控
|
12月前
|
数据采集 Python
爬虫基础-第六天
在pycharm写正则,并学习re模块
54 1
|
12月前
|
机器学习/深度学习 数据采集 C++
爬虫基础-第五天
主要是数据解析的基础部分
62 0
|
12月前
|
数据采集
爬虫基础-第四天
解决第三天的问题,外加多get请求练习
56 0
|
12月前
|
数据采集 数据安全/隐私保护
爬虫基础-第三天
第三天虽然内容不多,不过需要大量练习,最好自己总结一波
49 0
|
数据采集 XML JavaScript
学会这些,轻轻松松搞定爬虫
学会这些,轻轻松松搞定爬虫
|
数据采集 Web App开发 JavaScript
爬虫技术的门道,这篇文章总结的最全
Web是一个开放的平台,这也奠定了Web从90年代初诞生直至今日将近30年来蓬勃的发展。然而,正所谓成也萧何败也萧何,开放的特型、搜索引擎以及简单易学的HTML、CSS技术使得Web成为了互联网领域里最为流行和成熟的信息传播媒介;但如今作为商业化软件,Web这个平台上的内容信息的版权却毫无保证,因为相比软件客户端而言,你的网页中的内容可以被很低成本、很低的技术门槛实现出的一些抓取程序获取到,这也就是这一系列文章将要探讨的话题—— 网络爬虫 。
|
Web App开发 数据采集 iOS开发
一入爬虫深似海,总结python爬虫学习笔记!
正文 〇. python 基础 先放上python 3 的官方文档:https://docs.python.org/3/ (看文档是个好习惯) 关于python 3 基础语法方面的东西,网上有很多,大家可以自行查找.
1926 0
相关产品
云迁移中心
推荐文章
更多