以『公众号』为例,手把手教你爬取PC端数据

简介: 思路:主要是通过手机设置代理,然后在pc端开启抓包工具获取数据包,然后在编写python代码(get方式)去请求数据上次有粉丝说,那个是ios手机安卓手机现在需要root权限才可以安装证书,那么今天就不以手机为例,以电脑PC端为例,这样大家都可以上手尝试今天教大家抓到post数据包之后,怎么编写python代码去狗仔构造数据包,这里以获取『微信公众号』文章的阅读数、点赞数、在看数为例进行讲解(之所以以这个例子,主要还是有点难度的,所以给大家分享一下这个技术)

之前教过大家如何爬取手机APP数据【以某乎为实战案例,教你用Python爬取手机App数据】

思路:主要是通过手机设置代理,然后在pc端开启抓包工具获取数据包,然后在编写python代码(get方式)去请求数据

上次有粉丝说,那个是ios手机安卓手机现在需要root权限才可以安装证书,那么今天就不以手机为例,以电脑PC端为例,这样大家都可以上手尝试

今天教大家抓到post数据包之后,怎么编写python代码去狗仔构造数据包,这里以获取『微信公众号』文章的阅读数、点赞数、在看数为例进行讲解(之所以以这个例子,主要还是有点难度的,所以给大家分享一下这个技术)

1、抓包工具
同样,这里还是使用Fiddler

为什么要用抓包工具,不直接复制文章链接在浏览器里面采集?

因为在浏览器里面打开看不到阅读数、点赞数、在看数等

所以这里采用抓包的方式

1.配置Fiddler

端口设置为8888

这里设置一下过滤域名,目的是只查看需要查看的域名数据包

2.安装证书

点击第一个可以在pc机上安装证书,Fiddler就可以抓取https数据包

2、pc端代理
在设置-代理,里面设置相应的ip和端口(这里ip是本机ip127.0.0.1,和fiddler中对应的端口)

下面就可以开始抓包

3、开始抓包
在pc机上打开微信公众号文章,比如

打开之后再Fiddler可以看到数据包

比如原文中阅读数:576、点赞:20、在看:5

对应数据包返回的json数据

4、编程构造Post请求
抓到数据包之后,我们可以知道cookie、表单,请求链接等信息

开始编写代码之前,先给大家说一下,大概需要用到哪些数据(表单里面有很多参数,但是大部分是不需要的),蓝色选中的就是需要的参数,其他的可以忽略

请求头(这里替换cookie),User-Agent是模拟手机浏览器

目标url

origin_url= "http://mp.weixin.qq.com/mp/getappmsgext"

headers = {

"Cookie": yourcookie,
"User-Agent": "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/39.0.2171.95 Safari/537.36 MicroMessenger/6.5.2.501 NetType/WIFI WindowsWechat QBCore/3.43.27.400 QQBrowser/9.0.2524.400"

}

这里是请求需要的其中三个参数(这个三个数通用的,可以不用改)

data = {

"is_only_read": "1",
"is_temp_url": "0",
"appmsg_type": "9", # 新参数,不加入无法获取like_num

}
剩下的其他参数(每个参数配备了相应的说明)

同一个公众号,这个不变

your__biz =""

每一篇文章mid都不同

article_mid=""

每一篇文章sn都不同

article_sn=""

不变

article_idx="1"

几十分钟有效,之后需要再次抓包更新

yourappmsg_token="1108_eNbZz5PR1hNkY3Duto6YbmYgGkvHMZaVbiPUGLsS53iccow77rh73HxzFPHQby1-Lw8AqItVlg_d96MU"

构造请求

​​​​​​​
origin_url = "https://mp.weixin.qq.com/mp/getappmsgext?"
appmsgext_url = origin_url + "__biz={}&mid={}&sn={}&idx={}&appmsg_token={}&x5=1".format(your__biz, article_mid, article_sn, article_idx, yourappmsg_token)
content = requests.post(appmsgext_url, headers=headers, data=data).json()

print(content)
print(content"appmsgstat", content"appmsgstat",content"appmsgstat")

可以看到已经成功发送post成功,并且提取出对应的阅读数、点赞数、在看数

5、扩展
同一个公众号,如果需要获取其他文章的这些数据,只需要改变mid和sn就可以了,不同文章的链接如下图所示

6、小结
本文讲解了如何爬取PC端数据(以微信公众号为例),过程很详细,满满干货,希望可以起到抛砖引玉效果,让大家学到更多技术!

推荐阅读

手把手教你实现『B站直播』弹幕实时分析

以『B站直播』为例,实现数据『实时』可视化分析

Flask结合ECharts实现在线可视化效果,超级详细!

python实时采集直播弹幕数据进行可视化展示

公众号后台添加微信,可领取代码

​​​​​​​

相关文章
|
10月前
|
前端开发 JavaScript 搜索推荐
前端网页手册(2)--菜鸟教程网站分析
前端网页手册(2)--菜鸟教程网站分析
89 2
|
前端开发
HTML5+CSS3前端入门教程---从0开始通过一个商城实例手把手教你学习PC端和移动端页面开发第一章前言
HTML5+CSS3前端入门教程---从0开始通过一个商城实例手把手教你学习PC端和移动端页面开发第一章前言
152 0
|
Web App开发 Python
手把手教你爬取淘宝的笔记本电脑数据(一)
手把手教你爬取淘宝的笔记本电脑数据(一)
手把手教你爬取淘宝的笔记本电脑数据(一)
|
数据采集 测试技术
手把手教你爬取淘宝的笔记本电脑数据(二)
手把手教你爬取淘宝的笔记本电脑数据(二)
手把手教你爬取淘宝的笔记本电脑数据(二)
|
数据可视化
手把手教你爬取淘宝的笔记本电脑数据(三)
手把手教你爬取淘宝的笔记本电脑数据(三)
手把手教你爬取淘宝的笔记本电脑数据(三)
|
数据采集 存储 JSON
我用Python爬虫爬取并分析了C站前100用户最高访问的2000篇文章
我用Python爬虫爬取并分析了C站前100用户最高访问的2000篇文章
236 0
我用Python爬虫爬取并分析了C站前100用户最高访问的2000篇文章
|
数据采集 API Python
Python批量爬取抖音/快手/B站视频(附源码和exe)
但是最近行哥需要进行批量下载抖音/快手等网站的视频,如果手动输入代码下载不是很方便。所以行哥希望先把要下载的视频地址统一放到一个txt文件里,之后再通过这个txt文件进行批量下载
1505 0
Python批量爬取抖音/快手/B站视频(附源码和exe)
|
Web App开发 JavaScript 前端开发
前端概述及网页入门
目录 一、前端简介 二、前端开发技术栈 HTML(超文本标记语言 Hyper Text Markup Language) CSS(层叠样式表 Cascading Style Sheet) JavaScript 三、第一个页面 (一)、基础模板 (二)、模板解读 (三)、其它模板标签 一、前端简介 前端是什么? 前端就是网站的前台,运行在PC端,移动端等浏览器上展现给用户浏览的网页。
1710 0
|
数据采集 Web App开发 NoSQL
Python爬虫入门教程 20-100 慕课网免费课程抓取
1. 慕课网免费课程-写在前面 美好的一天又开始了,今天咱继续爬取IT在线教育类网站,慕课网,这个平台的数据量并不是很多,所以爬取起来还是比较简单的 2. 慕课网免费课程准备爬取 打开我们要爬取的页面,寻找分页点和查看是否是异步加载的数据。
2115 0
|
数据采集 数据库 Python
基于Scrapy爬取伯乐在线网站(进阶版)
标题中的英文首字母大写比较规范,但在python实际使用中均为小写。 爬取伯乐在线网站所有文章的详情页面 1.网页持久化 1.1 新建爬虫工程 新建爬虫工程命令:scrapy startproject BoleSave2 image.png 进入爬虫工程目录命令:cd BoleSave2 新建爬虫文件命令:scrapy genspider save blog.jobbole.com 1.2 编辑save.py文件 网页持久化只需要编辑爬虫文件就可以,下面是save.py文件的代码。
1067 0