万创帮逆向解析,让你也能体验技术变现【Python爬虫实战系列之万创帮闲置资源整合逆向】

本文涉及的产品
全局流量管理 GTM,标准版 1个月
公共DNS(含HTTPDNS解析),每月1000万次HTTP解析
密钥管理服务KMS,1000个密钥,100个凭据,1个月
简介: 万创帮逆向解析,让你也能体验技术变现【Python爬虫实战系列之万创帮闲置资源整合逆向】

大家好,我是辣条,这是爬虫系列的32篇。

前言
爬虫系列太难了,我算了一下这个系列从开始到现在我写了40篇左右了,但是现在这个专栏只显示30篇左右,大概有10篇左右下架了因为版权或者违规的问题,难受...

采集目标
网址:

https://m.wcbchina.com/login/login.html?service=https://m.wcbchina.com/my/my.html&bp=https%3A//m.wcbchina.com/my/my.html

工具准备
开发工具:pycharm 开发环境:python3.7, Windows10 使用工具包:requests,md5

项目思路解析
这个数据的逆向是app的数据,想要解析的话大部分进行app的数据逆向,用在web网页的时候需要通过抓包工具进行设定,将左上角第二个选项点亮,把浏览器设置为手机的模式。

先输入错误的账户密码找到登录的请求接口,在进行数据的解析处理。

找到数据后开始进行解析:

请求网址为:https://m.wcbchina.com/api/login/login?rnd=0.6807164275086108

请求方法为:post

需要携带的请求头:user-agent

需求传递的参数:传递的数据类型为json,

{"auth":{"timestamp":1635225584675,"sign":"1992F839A06E27B22A03ADFAA6630F44"},"username":"17673942335","password":"D3432F4A98143D1951496D31ED76B5E2"}

重数据中可以看出数据网址里的rnd的值是随机数0-1的随机数,传递数据的timestamp为时间戳,sign,和password都是加密数据,确定数据后开始进行解析,解出sign和password的生成规律 通过搜索方式找到数据的生成位置,数据的加密方式为md5加密,可以打断点验证数据是否为我们想要的数据,sing的数据是 N , N的值是由h.hex_md5((v || "") + (g || "") + c).toUpperCase()生成的

打上断点查看数据的生成结果v和g的值都是空数据,c的数据是时间戳,那最终的sing的数据是对时间戳进行md5的加密加字符串大写的值,sing的值确定在来找password的值,在全局搜索password的关键字。

password的值是在loginAction进行获取在c.login进行参数传递,传递的数据密码就是md5的加密数据,password和sing数据都是进过md5加密的数据,思路清楚后开始书写代码。

简易源码分享
import requests # 发送网络请求的工具包
import json
import time
import random
from hashlib import md5

def main():

url = "https://m.wcbchina.com/api/login/login?rnd=" + str(random.random())
password = input('请输入你的密码:')
password = md5(password.encode()).hexdigest()
print(password.upper())
time_data = int(time.time()*1000)
sign = md5(str(time_data).encode()).hexdigest().upper()

data = {"auth": {"timestamp": time_data, "sign": sign},
     "username": "17673942335",
     "password": password.upper()
    }


response = requests.post(url, data=json.dumps(data))
print(response.json())


main()

\

目录
相关文章
|
2天前
|
数据采集 存储 JSON
Python网络爬虫:Scrapy框架的实战应用与技巧分享
【10月更文挑战第27天】本文介绍了Python网络爬虫Scrapy框架的实战应用与技巧。首先讲解了如何创建Scrapy项目、定义爬虫、处理JSON响应、设置User-Agent和代理,以及存储爬取的数据。通过具体示例,帮助读者掌握Scrapy的核心功能和使用方法,提升数据采集效率。
21 6
|
2天前
|
设计模式 前端开发 数据库
Python Web开发:Django框架下的全栈开发实战
【10月更文挑战第27天】本文介绍了Django框架在Python Web开发中的应用,涵盖了Django与Flask等框架的比较、项目结构、模型、视图、模板和URL配置等内容,并展示了实际代码示例,帮助读者快速掌握Django全栈开发的核心技术。
66 44
|
2天前
|
自然语言处理 编译器 Linux
|
1天前
|
数据采集 JSON 测试技术
Python爬虫神器requests库的使用
在现代编程中,网络请求是必不可少的部分。本文详细介绍 Python 的 requests 库,一个功能强大且易用的 HTTP 请求库。内容涵盖安装、基本功能(如发送 GET 和 POST 请求、设置请求头、处理响应)、高级功能(如会话管理和文件上传)以及实际应用场景。通过本文,你将全面掌握 requests 库的使用方法。🚀🌟
15 7
|
3天前
|
数据采集 前端开发 中间件
Python网络爬虫:Scrapy框架的实战应用与技巧分享
【10月更文挑战第26天】Python是一种强大的编程语言,在数据抓取和网络爬虫领域应用广泛。Scrapy作为高效灵活的爬虫框架,为开发者提供了强大的工具集。本文通过实战案例,详细解析Scrapy框架的应用与技巧,并附上示例代码。文章介绍了Scrapy的基本概念、创建项目、编写简单爬虫、高级特性和技巧等内容。
19 4
|
2天前
|
数据采集 Web App开发 iOS开发
如何利用 Python 的爬虫技术获取淘宝天猫商品的价格信息?
本文介绍了使用 Python 爬虫技术获取淘宝天猫商品价格信息的两种方法。方法一使用 Selenium 模拟浏览器操作,通过定位页面元素获取价格;方法二使用 Requests 和正则表达式直接请求页面内容并提取价格。每种方法都有详细步骤和代码示例,但需注意反爬措施和法律法规。
|
3天前
|
数据采集 存储 Web App开发
利用Python 的爬虫技术淘宝天猫销量和库存
使用 Python 爬虫技术获取淘宝天猫商品销量和库存的步骤包括:1. 安装 Python 和相关库(如 selenium、pandas),下载浏览器驱动;2. 使用 selenium 登录淘宝或天猫;3. 访问商品页面,分析网页结构,提取销量和库存信息;4. 处理和存储数据。注意网页结构可能变化,需遵守法律法规。
|
2天前
|
网络协议 调度 开发者
Python网络编程:Twisted框架的异步IO处理与实战
【10月更文挑战第27天】本文介绍了Python网络编程中的Twisted框架,重点讲解了其异步IO处理机制。通过反应器模式,Twisted能够在单线程中高效处理多个网络连接。文章提供了两个实战示例:一个简单的Echo服务器和一个HTTP服务器,展示了Twisted的强大功能和灵活性。
6 0
|
22天前
|
缓存 Java 程序员
Map - LinkedHashSet&Map源码解析
Map - LinkedHashSet&Map源码解析
55 0
|
22天前
|
算法 Java 容器
Map - HashSet & HashMap 源码解析
Map - HashSet & HashMap 源码解析
47 0