python爬虫之cookie方式自动登录巴比特网

简介: 最近打算抓取公司内部PPT模板库中的PPT,发现被各种安全屏蔽。因为好久没写程序了,因此写几个例子回顾下基本的爬虫知识目标网址巴比特的登录页面http://8btc.

最近打算抓取公司内部PPT模板库中的PPT,发现被各种安全屏蔽。因为好久没写程序了,因此写几个例子回顾下基本的爬虫知识

目标网址巴比特的登录页面

http://8btc.com/member.php?mod=logging&action=login

在登录的时候开启fiddler抓包:

这里写图片描述

图中尖头标记处显示了真正提交表单的地址,将改地址记下:

http://8btc.com/member.php?mod=logging&action=login&loginsubmit=yes&loginhash=

因为自己想用cookie的方式登录,代码如下:

import urllib.request
import urllib.parse
import urllib.error
import http.cookiejar
import sys

class ECNcookie:
    def __init__(self):
        self.url = 'http://8btc.com/member.php?mod=logging&action=login&loginsubmit=yes&loginhash='
        self.values = {
            'formhash' : "284e610a",
            'referer' : "http://8btc.com/index.php",
            'username' : "xxx",
            'loginfield' : "auto",
            'password' : "xxx",
            'questionid' : "0",
        }
        self.user_agent = 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/61.0.3163.100 Safari/537.36'
        self.user_headers = {
            'User-Agent': self.user_agent
        }
        self.cookie_dir = 'C:/Users/ecaoyng/Desktop/PPT/cookie.txt'

    def cookie_saved(self):
        post_data = urllib.parse.urlencode(self.values)
        post_data = post_data.encode('utf-8')
        cookie = http.cookiejar.MozillaCookieJar(self.cookie_dir)
        handler = urllib.request.HTTPCookieProcessor(cookie)
        opener = urllib.request.build_opener(handler)
        request = urllib.request.Request(self.url, post_data, self.user_headers)
        try:
            response = opener.open(request)
            page = response.read().decode(encoding="GBK")
            print(page)
            print('='*80)

            for i in cookie:
                print('Name: %s' % i.name)
                print('Value: %s' % i.value)
            print('='*80)
            cookie.save(ignore_discard=True, ignore_expires=True)

        except urllib.error.URLError as e:
            print('Error msg: %s' % e.reason)

    def access_other_page(self):
        try:
            my_url = 'http://8btc.com/home.php?mod=space&uid=166072&do=profile&from=space'
            cookie = http.cookiejar.MozillaCookieJar()
            cookie.load(self.cookie_dir, ignore_discard=True, ignore_expires=True)
            get_request = urllib.request.Request(my_url, headers=self.user_headers)
            access_opener = urllib.request.build_opener(urllib.request.HTTPCookieProcessor(cookie))
            get_response = access_opener.open(get_request)
            print('='*80)
            print(get_response.read().decode(encoding="GBK"))
        except Exception as e:
            print('Error msg when entry other pages: %s' % e.reason())


if __name__ == '__main__':
    print(sys.getdefaultencoding())
    print('='*80)
    cookie_obj=ECNcookie()
    cookie_obj.cookie_saved()
    cookie_obj.access_other_page()

在抓取的页面中能够查到自己的登录名和状态。

得到的cookie信息如下

Name: eCM1_5408_auth
Value: 6b7dnCekiynTLECh7T%2FcOLMQmTE1JFYd1bmVIrXHb2766l6TjDm3kIFiP%2BS8%2FhmYuV8kmN%2BdOOSZ%2FVrhyJ7TvRLdov8
Name: eCM1_5408_cack_wechat_bind
Value: 1
Name: eCM1_5408_checkfollow
Value: 1
Name: eCM1_5408_lastact
Value: 1512098740%09member.php%09logging
Name: eCM1_5408_lastcheckfeed
Value: 166072%7C1512098740
Name: eCM1_5408_lastvisit
Value: 1512095140
Name: eCM1_5408_lip
Value: 59.46.167.194%2C1512098705
Name: eCM1_5408_saltkey
Value: b5JB4z50
Name: eCM1_5408_sid
Value: LDP536
Name: eCM1_5408_ulastactivity
Value: 83461RS%2BUIpdpkz6fGBx3McFx9MHect60vmuLqMRqpRqCU2aPLMR
Name: PHPSESSID
Value: nm8972h3mlsc9uehh8s2or6cu3
Name: yd_cookie
Value: 5ab8c97f-448d-42306da49cc39d9bf6cbfca9d8a16ccd2db5
目录
相关文章
|
6天前
|
数据采集 存储 XML
Python爬虫定义入门知识
Python爬虫是用于自动化抓取互联网数据的程序。其基本概念包括爬虫、请求、响应和解析。常用库有Requests、BeautifulSoup、Scrapy和Selenium。工作流程包括发送请求、接收响应、解析数据和存储数据。注意事项包括遵守Robots协议、避免过度请求、处理异常和确保数据合法性。Python爬虫强大而灵活,但使用时需遵守法律法规。
|
7天前
|
数据采集 缓存 定位技术
网络延迟对Python爬虫速度的影响分析
网络延迟对Python爬虫速度的影响分析
|
8天前
|
数据采集 Web App开发 监控
高效爬取B站评论:Python爬虫的最佳实践
高效爬取B站评论:Python爬虫的最佳实践
|
15天前
|
数据采集 存储 JSON
Python网络爬虫:Scrapy框架的实战应用与技巧分享
【10月更文挑战第27天】本文介绍了Python网络爬虫Scrapy框架的实战应用与技巧。首先讲解了如何创建Scrapy项目、定义爬虫、处理JSON响应、设置User-Agent和代理,以及存储爬取的数据。通过具体示例,帮助读者掌握Scrapy的核心功能和使用方法,提升数据采集效率。
59 6
|
1月前
|
数据采集 缓存 Java
Python vs Java:爬虫任务中的效率比较
Python vs Java:爬虫任务中的效率比较
|
9天前
|
数据采集 存储 JSON
Python爬虫开发中的分析与方案制定
Python爬虫开发中的分析与方案制定
|
14天前
|
数据采集 JSON 测试技术
Python爬虫神器requests库的使用
在现代编程中,网络请求是必不可少的部分。本文详细介绍 Python 的 requests 库,一个功能强大且易用的 HTTP 请求库。内容涵盖安装、基本功能(如发送 GET 和 POST 请求、设置请求头、处理响应)、高级功能(如会话管理和文件上传)以及实际应用场景。通过本文,你将全面掌握 requests 库的使用方法。🚀🌟
36 7
|
16天前
|
数据采集 Web App开发 前端开发
Python爬虫进阶:Selenium在动态网页抓取中的实战
【10月更文挑战第26天】动态网页抓取是网络爬虫的难点,因为数据通常通过JavaScript异步加载。Selenium通过模拟浏览器行为,可以加载和执行JavaScript,从而获取动态网页的完整内容。本文通过实战案例,介绍如何使用Selenium在Python中抓取动态网页。首先安装Selenium库和浏览器驱动,然后通过示例代码展示如何抓取英国国家美术馆的图片信息。
37 6
|
13天前
|
数据采集 Web App开发 JavaScript
爬虫策略规避:Python爬虫的浏览器自动化
爬虫策略规避:Python爬虫的浏览器自动化
|
13天前
|
数据采集 存储 XML
Python实现网络爬虫自动化:从基础到实践
本文将介绍如何使用Python编写网络爬虫,从最基础的请求与解析,到自动化爬取并处理复杂数据。我们将通过实例展示如何抓取网页内容、解析数据、处理图片文件等常用爬虫任务。