记爬虫小分队(六)

简介: 2017年5月18日今天有同学问我贴吧为什么信息提取不出来?下面是同学的源代码:import requestsfrom bs4 import BeautifulSoupstart_url = "http://tieba.
  • 2017年5月18日
    今天有同学问我贴吧为什么信息提取不出来?



    下面是同学的源代码:

import requests
from bs4 import BeautifulSoup

start_url = "http://tieba.baidu.com/p/4957100148"
headers = {"User-Agent":"Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/49.0.2623.75 Safari/537.36 LBBROWSER"}
response = requests.get(start_url,headers = headers).text
soup  = BeautifulSoup(response,"html.parser")
infos = soup.select('div.d_post_content j_d_post_content  clearfix')

他是同find方法,找的div的class标签,对于这个问题,我们可以换个思路,这个定位找不到,就往上找,我的代码:

import requests
from bs4 import BeautifulSoup

start_url = "http://tieba.baidu.com/p/4957100148"
headers = {"User-Agent":"Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/49.0.2623.75 Safari/537.36 LBBROWSER"}
response = requests.get(start_url,headers = headers).text
soup  = BeautifulSoup(response,"html.parser")
infos = soup.select('cc > div')
for info in infos:
    print(info.get_text().strip())

总结:各种爬取方法都需要灵活使用。

相关文章
|
数据采集 大数据 Python
Python爬虫小分队第四期招募帖
产品运营的时代到了 刚开始老大准备开线上培训的时候,就说过,希望把这个培训当做一个产品好好运营,而这个事情终于在第四期开始拉开帷幕。 现在有了专业的推广运营的人,有了自己的logo,当然也有我们这些昔日陪伴大家的技术人员(嘿嘿嘿,表示夸奖自己一波)。
1355 0
|
数据采集 Python
Python爬虫小分队第二期招募贴
花开花落 云卷云舒,爬虫小分队第一期顺利结束。满满回忆涌上心头,第一次催同学交作业、第一次被叫罗指导、第一次完整辅导同学、第一次在熊猫tv给大家直播撸代码......很多第一次尝试都给了你们,也留给了我自己。
1341 0
|
存储 数据采集
记爬虫小分队(五)
有点标题党 2017年4月29日 程兄说,五一的标配是和女神游山玩水,你这样说了,那我就免为其难的秀一波,希望你不要打我。 2017年4月30日 第一次在熊猫开直播讲爬虫入门,以前有人在网吧看新闻联播,画CAD,学习,今天也是做了一次网吧的清流。
1022 0
|
数据采集 算法 Python
记爬虫小分队(四)
2017年4月27日 付费的运营群也有许多人不学习,一组进度很慢,五一进行一下小培训,给一组补下课。 群主的《深夜代码有毒》看了后,很是感慨,一群忙碌爱学习的人聚在了一起,让生活多了几分色彩。
976 0
|
数据采集
记爬虫小分队(三)
2017年4月20日 关于童鞋抓取简书文章阅读和评论的问题(喜欢也是一样的)! 童鞋们发现写的xpath爬取不到,有的时候不要怀疑自己写错了(检查一次代码没写错,那就是没写错)。
1024 0
|
数据采集 Python
记爬虫小分队(一)
2017年4月17日晚8点,爬虫小分队开幕仪式,同学们都很热情,部分学生也在Python爬虫作业专题中写下自己的期望,有一个学生把学Python写为“青苔计划”,深受感发,这就是Python的魅力所在吧。
927 0
|
数据采集 数据格式 JSON
记爬虫小分队(二)
2017年4月19日,关于简书收录专题爬取的思路。 1.首先是异步加载,这里就不多说,就是找包,下图为收录专题的加载的包。 2.可在Preview中看到json数据的格式,我们可以看到一个total_page,这个为收录专题的总页数(非常重要!!!!)。
894 0
|
16天前
|
数据采集 存储 JSON
Python网络爬虫:Scrapy框架的实战应用与技巧分享
【10月更文挑战第27天】本文介绍了Python网络爬虫Scrapy框架的实战应用与技巧。首先讲解了如何创建Scrapy项目、定义爬虫、处理JSON响应、设置User-Agent和代理,以及存储爬取的数据。通过具体示例,帮助读者掌握Scrapy的核心功能和使用方法,提升数据采集效率。
60 6
|
3月前
|
机器学习/深度学习 数据采集 数据可视化
基于爬虫和机器学习的招聘数据分析与可视化系统,python django框架,前端bootstrap,机器学习有八种带有可视化大屏和后台
本文介绍了一个基于Python Django框架和Bootstrap前端技术,集成了机器学习算法和数据可视化的招聘数据分析与可视化系统,该系统通过爬虫技术获取职位信息,并使用多种机器学习模型进行薪资预测、职位匹配和趋势分析,提供了一个直观的可视化大屏和后台管理系统,以优化招聘策略并提升决策质量。
177 4
|
3月前
|
数据采集 存储 搜索推荐
打造个性化网页爬虫:从零开始的Python教程
【8月更文挑战第31天】在数字信息的海洋中,网页爬虫是一艘能够自动搜集网络数据的神奇船只。本文将引导你启航,用Python语言建造属于你自己的网页爬虫。我们将一起探索如何从无到有,一步步构建一个能够抓取、解析并存储网页数据的基础爬虫。文章不仅分享代码,更带你理解背后的逻辑,让你能在遇到问题时自行找到解决方案。无论你是编程新手还是有一定基础的开发者,这篇文章都会为你打开一扇通往数据世界的新窗。