Python基础之爬虫小例子

简介: Python基础之爬虫小例子

概述

不知从何时起,Python和爬虫就如初恋一般,情不知所起,一往而深,相信很多朋友学习Python,都是从爬虫开始,其实究其原因,不外两方面:其一Python对爬虫的支持度比较好,类库众多。其二Pyhton的语法简单,入门容易。所以两者形影相随,不离不弃,本文主要以一个简单的小例子,简述Python在爬虫方面的简单应用,仅供学习分享使用,如有不足之处,还请指正。

涉及知识点

本例主要爬取某招聘网站发布的工作职位,用到的知识点如下:

  • 开发环境及工具:主要用到Python3.7 ,IDE为PyCharm
  • requests类库:本类库封装了python的内置模块,主要用于网络的请求和获取数据,可以支持不同形式的请求。
  • BeautifulSoup库:主要用于解析获取的数据,包括Html,Xml,Json等不同的格式。
  • 数据持久化:主要是将内存中的数据,保存到数据库或者文件中。

爬虫的基本步骤

爬虫的基本步骤,如下图所示:

爬取目标

如有要爬取相关内容,首先要对爬取的目标进行分析,了解其目录结构,才能进行解析。本例主要爬取51job中的工作列表,如下所示:

核心源码

1.获取数据

定义一个函数get_data,用于发起请求并获取数据,如下所示:

headers中的User-Agent主要用于模拟浏览器,不然会被反爬虫程序屏蔽,http状态码为418,意思是被网站的反爬程序返回的。

encoding是要爬取的网站的编码为gbk,如果不加,会产生乱码,默认为utf-8

def get_data(req_url):
    """获取数据"""
    headers = {
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64; Trident/7.0; rv:11.0) like Gecko',
        'Accept-Language': 'zh-Hans-CN, zh-Hans;q=0.5'
    }
    resp = requests.get(req_url, headers=headers)
    resp.encoding = 'gbk'  # 不加会产生中文乱码
    if resp.status_code == 200:
        return resp.text
    else:
        return None

2.解析数据

定义一个函数parse_data,用于解析获取到的内容,如下所示:

采用BeautifulSoup,将返回的文本,解析成html对象,并获取对应的内容。本例主要获取工作的列表

def parse_data(resp_html):
    """解析数据,并返回列表"""
    soup = BeautifulSoup(resp_html, features='html.parser')
    job_table = soup.find('div', attrs={'class': 'dw_table'})
    # print(job_table)
    job_list = job_table.find_all('div', attrs={'class': 'el'})
    # print(job_list)
    # 循环列表,去掉第一个title和最后一个
    res_list = []
    for job in job_list[1: -1]:
        job_name = job.find('p', attrs={'class': "t1"}).find('span').find('a').get_text()
        job_name = job_name.replace('\r\n', '').strip()
        job_company = job.find('span', attrs={'class': "t2"}).find('a').get_text()
        job_addr = job.find('span', attrs={'class': "t3"}).get_text()
        job_salary = job.find('span', attrs={'class': "t4"}).get_text()
        job_time = job.find('span', attrs={'class': "t5"}).get_text()
        # print('工作信息:', job_name, '---', job_company, '---', job_addr, '---', job_salary, '---', job_time)
        res_item = {
            '工作名称': job_name,
            '公司': job_company,
            '工作地址': job_addr,
            '薪资水平': job_salary,
            '发布时间': job_time
        }
        res_list.append(res_item)
    return res_list

3.保存数据

定义一个函数save_data,用于将获取到的内容保存到json文件中,如下所示:

with函数 可以自动进行释放。因包含中文,所以json文件的编码为utf-8,否则会出现乱码

def save_data(res_list):
    """保存数据"""
    with open('jobs.json', 'w', encoding='utf-8') as f:
        res_list_json = json.dumps(res_list, ensure_ascii=False)
        f.write(res_list_json)

4.整体调用步骤

依次调用定义的三个函数,如下所示:

if __name__ == '__main__':
    """如果是主程序自己调用"""
    req_url = 'https://search.51job.com/list/040000,000000,0000,00,9,99,java,2,1.html?lang=c&stype=1&postchannel=0000&workyear=99&cotype=99&degreefrom=99&jobterm=99&companysize=99&lonlat=0%2C0&radius=-1&ord_field=0&confirmdate=9&fromType=&dibiaoid=0&address=&line=&specialarea=00&from=&welfare='
    # 获取数据
    resp_html = get_data(req_url)
    # print(html)
    # 解析数据
    res_list = parse_data(resp_html)
    # 保存数据
    save_data(res_list)

爬取结果展示

爬取的结果保存在jobs.json文件中,格式如下所示:

[
  {
    "工作名称": "Java架构师",
    "公司": "深圳市钻木信息技术有限公司",
    "工作地址": "深圳-福田区",
    "薪资水平": "1.8-3万/月",
    "发布时间": "06-13"
  },
  {
    "工作名称": "Java开发工程师",
    "公司": "深圳市网新新思软件有限公司",
    "工作地址": "深圳-南山区",
    "薪资水平": "1.5-1.7万/月",
    "发布时间": "06-13"
  },
  {
    "工作名称": "Java开发工程师",
    "公司": "深圳市睿服科技有限公司",
    "工作地址": "深圳-福田区",
    "薪资水平": "1.3-1.7万/月",
    "发布时间": "06-13"
  },
  {
    "工作名称": "Java开发经理",
    "公司": "深圳市聚惠企业登记代理有限公司",
    "工作地址": "深圳-龙华新区",
    "薪资水平": "1-3万/月",
    "发布时间": "06-13"
  },
  {
    "工作名称": "Java开发工程师",
    "公司": "深圳市智璟科技有限公司",
    "工作地址": "深圳-福田区",
    "薪资水平": "0.9-1.5万/月",
    "发布时间": "06-13"
  },
  {
    "工作名称": "Java开发工程师",
    "公司": "上海舟恩信息技术有限公司",
    "工作地址": "深圳-南山区",
    "薪资水平": "1.4-1.9万/月",
    "发布时间": "06-13"
  }
]

进一步思考

本例可以进一步优化的空间,如下所示:

  • 本次爬虫只是单次爬取,数据量相对小,如果要爬取大量数据的时候,则需要使用多线程相关的知识。
  • 基础的爬虫,只能爬取静态渲染的内容,如果是异步动态渲染的数据,如何爬取呢?
  • 将爬取的结果保存到数据库如何操作呢?

备注

芙蓉楼送辛渐

[唐]王昌龄

寒雨连江夜入吴,平明送客楚山孤。

洛阳亲友如相问,一片冰心在玉壶。

相关文章
|
2月前
|
数据采集 Web App开发 数据可视化
Python爬虫分析B站番剧播放量趋势:从数据采集到可视化分析
Python爬虫分析B站番剧播放量趋势:从数据采集到可视化分析b
|
1月前
|
数据采集 数据挖掘 测试技术
Go与Python爬虫实战对比:从开发效率到性能瓶颈的深度解析
本文对比了Python与Go在爬虫开发中的特点。Python凭借Scrapy等框架在开发效率和易用性上占优,适合快速开发与中小型项目;而Go凭借高并发和高性能优势,适用于大规模、长期运行的爬虫服务。文章通过代码示例和性能测试,分析了两者在并发能力、错误处理、部署维护等方面的差异,并探讨了未来融合发展的趋势。
118 0
|
2月前
|
数据采集 存储 JSON
Python爬取知乎评论:多线程与异步爬虫的性能优化
Python爬取知乎评论:多线程与异步爬虫的性能优化
|
2月前
|
数据采集 存储 C++
Python异步爬虫(aiohttp)加速微信公众号图片下载
Python异步爬虫(aiohttp)加速微信公众号图片下载
|
27天前
|
数据采集 存储 JSON
地区电影市场分析:用Python爬虫抓取猫眼/灯塔专业版各地区票房
地区电影市场分析:用Python爬虫抓取猫眼/灯塔专业版各地区票房
|
1月前
|
数据采集 存储 Web App开发
Python爬虫库性能与选型实战指南:从需求到落地的全链路解析
本文深入解析Python爬虫库的性能与选型策略,涵盖需求分析、技术评估与实战案例,助你构建高效稳定的数据采集系统。
223 0
|
25天前
|
数据采集 监控 调度
应对频率限制:设计智能延迟的微信读书Python爬虫
应对频率限制:设计智能延迟的微信读书Python爬虫
|
28天前
|
数据采集 机器学习/深度学习 数据可视化
Python量化交易:结合爬虫与TA-Lib技术指标分析
Python量化交易:结合爬虫与TA-Lib技术指标分析
|
29天前
|
数据采集 存储 XML
Python爬虫XPath实战:电商商品ID的精准抓取策略
Python爬虫XPath实战:电商商品ID的精准抓取策略
|
2月前
|
数据采集 存储 数据库
Python爬虫开发:Cookie池与定期清除的代码实现
Python爬虫开发:Cookie池与定期清除的代码实现

热门文章

最新文章

推荐镜像

更多