开发者社区> 技术小能手> 正文

如何获取临时 IP 进行爬虫学习 ?

简介:
+关注继续查看

自己在家里学习爬虫的时候 ,遇到封 IP 怎么办呢 ?网上买 IP 又贵 ,用免费代理质量又不好 。其实 ,家中自用的宽带如果可以进行拨号的话 ,我们是可以直接用 python 来控制路由器的 。将路由器断开 ,再重新连接下 IP 不就变了吗 ,非常方便 ,而且 IP 质量很高 ,都能直接使用 。

我就以我自己家里面的路由器来做个示范 。(完整代码见留言区置顶留言 。)

需要的工具:
requests ,json ,time 库
chrome 浏览器
产品型号 :TL-WDR6500 千兆版(其他用相同系统的也可)

首先我们来看一下 tplink 的登陆界面 ,清爽的界面 ,只有一个登陆密码 。

ed943cfc438b0aaae6cebcebfbf8f1ec6b68df2a

首先进行分析 ,打开chrome ,F12 查看 network ,第一个就是我们需要分析的 。

3cc5059792067ce2ce0e89ca8210eb7be0f24f4e

一个 post 请求 ,里面提交的参数都在最下面了 ,password 加密过了 ,因为我们是自己用就不研究加密算法了 ,直接把加密后的密码拿下来提交就好了 headers 全部复制下来 ,于是有了下面的代码 。


headers = {
'Accept':'application/json, text/javascript, */*; q=0.01',
'Accept-Encoding':'gzip, deflate',
'Accept-Language':'zh-CN,zh;q=0.9',
'Connection':'keep-alive',
'Content-Length':'54',
'Content-Type':'application/json; charset=UTF-8',
'Host':'192.168.1.1',
'Origin':'http://192.168.1.1',
'Referer':'http://192.168.1.1/',
'User-Agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132 Safari/537.36',
'X-Requested-With':'XMLHttpRequest'
}
def login():
url_login = 'http://192.168.1.1/'
data = json.dumps({"method":"do","login":{"password":LOGIN_PASSWORD}})
return requests.post(url_login, data=data, headers=headers)

我们用 requests 库来提交数据 ,方便简单 ,这里的 LOGIN_PASSWORD 就是我们加密后的代码 ,后面我们一起将这些设置的常量放到一个 settings 文件中 。然后我们通过这段代码来验证是否登陆成功 ,因为返回的 response 如果成功为 {"stok":"92830c5f504fed863705f1c4669bf1f1","error_code":0} 通过判断 error_code 来判断是否登陆成功前面的 eval_r(now) 显示一下当前时间 。


r = login()
if json.loads(r.text).get('error_code')==0:
token = json.loads(r.text).get('stok')
url_cmd = 'http://192.168.1.1/stok='+token+'/ds'
print(eval(now)+': login success')

后面进行请求断网重连(因为路由器断网之后会自动重连 ,我们只需要检测一下 ,在重连未成功的时候在进行连接请求就好了)。继续 F12 network 选项 ,找到那个和其他 ds 不一样的 ,查看得到以下 :

31823f76f8b6dda2ebcb94e2144da91a8e4a0231

我们继续模拟post请求就好啦~构造一个disconnect函数~


def disconnect():
data = json.dumps({"network":{"change_wan_status":{"proto":"pppoe","operate":"disconnect"}},"method":"do"})
response = requests.post(url_cmd,data=data,headers=headers)
return response

好到这部分基本差不多了 ,我们再整理完善一下 ,加一个测试 ,再加一个如果路由器没有自动重连的时候我们进行拨号联网 。最后把设置的东西放到 settings 文件中就 ok 啦 。在测试之前延时了 10 s ,因为拨号需要时间嘛 。

6600bfee334ae57f11ecf760c5628f9764ac9d90

好了 ,到这里就结束了 。测试一下 。

787fea69f53898ea9873b5a7b5e02b5830c17ad3

PS :

这里有个小坑 ,每一次的url_cmd都是不同的 。我们可以从登陆后的页面内拿到 ,设置一个全局变量即可 。这个值在登陆后的 response 中的 stok 内 ,拿到这个值我们就可以构造出这个url_cmd ,最后main代码如下:


def main():
global url_cmd
now = "time.strftime('%H:%M:%S',time.localtime(time.time()))"
r = login()
if json.loads(r.text).get('error_code')==0:
token = json.loads(r.text).get('stok')
url_cmd = 'http://192.168.1.1/stok='+token+'/ds'
print(eval(now)+': login success')
else:
print(eval(now)+': login failed')
return None
response = disconnect()
if json.loads(response.text).get('error_code')==0:
print(eval(now)+': disconnect success')
else:
print(eval(now)+': disconnect failed')
time.sleep(10)
for i in range(TRY_TIMES+1):
if test():
print(eval(now)+': success to connect to network')
break
else:
print(eval(now)+': faile to connect to network')
reconnect()

其他款路由器应该也差不多,还有操作之前需要咨询网络运营商开通拨号。最后,我们再加上一个显示当前IP的功能,直接调用了一个网上的api,一句话就ok。

new_ip = json.loads(requests.get('http://api.k780.com/?app=ip.local&appkey=10003&sign=b59bc3ef6191eb9f747dd4e83c99f2a4&format=json').text)['result']['ip']

最后看一下效果:

6fb589cdedc4c0f89ecf8709d3c35d23ae19735e

原文发布时间为:2018-09-8本文作者:Blight本文来自云栖社区合作伙伴“小詹学Python”,了解相关信息可以关注“小詹学Python”。

版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。

相关文章
Python 爬虫 urllib 使用和进阶 | 学习笔记
快速学习 Python 爬虫 urllib 使用和进阶
51 0
阿里云ECS云服务器初始化设置教程方法
阿里云ECS云服务器初始化是指将云服务器系统恢复到最初状态的过程,阿里云的服务器初始化是通过更换系统盘来实现的,是免费的,阿里云百科网分享服务器初始化教程: 服务器初始化教程方法 本文的服务器初始化是指将ECS云服务器系统恢复到最初状态,服务器中的数据也会被清空,所以初始化之前一定要先备份好。
14691 0
python 爬虫分类和 robots 协议 | 学习笔记
快速学习 python 爬虫分类和 robots 协议
29 0
阿里云服务器如何登录?阿里云服务器的三种登录方法
购买阿里云ECS云服务器后如何登录?场景不同,阿里云优惠总结大概有三种登录方式: 登录到ECS云服务器控制台 在ECS云服务器控制台用户可以更改密码、更换系.
24853 0
Python 爬虫 URL 编码和 GETPOST 请求 | 学习笔记
快速学习 Python 爬虫 URL 编码和 GETPOST 请求
38 0
Python爬虫学习,记一次抓包获取js,从js函数中取数据的过程
昨天有小伙伴找我,新浪新闻的国内新闻页,其他部分都是静态网页可以抓到,但是在左下方的最新新闻部分,不是静态网页,也没有json数据,让我帮忙抓一下。
1283 0
Python——爬虫学习2
BeautifulSoup插件的使用 这个插件需要先使用pip安装(在上一篇中不再赘言),然后再程序中申明引用 from bs4 import BeautifulSoup html=self.requests(url)#调用requests函数把套图地址传入会返回一个response all_a=BeautifulSoup(html.
964 0
阿里云服务器怎么设置密码?怎么停机?怎么重启服务器?
如果在创建实例时没有设置密码,或者密码丢失,您可以在控制台上重新设置实例的登录密码。本文仅描述如何在 ECS 管理控制台上修改实例登录密码。
19879 0
Python——爬虫学习1
爬虫了解一下 网络爬虫(Web crawler),是一种按照一定的规则,自动地抓取万维网信息的程序或者脚本。 Python的安装 本篇教程采用Python3 来写,所以你需要给你的电脑装上Python3才行。
1097 0
+关注
技术小能手
云栖运营小编~
7208
文章
9
问答
文章排行榜
最热
最新
相关电子书
更多
OceanBase 入门到实战教程
立即下载
阿里云图数据库GDB,加速开启“图智”未来.ppt
立即下载
实时数仓Hologres技术实战一本通2.0版(下)
立即下载