python爬虫之cookie方式自动登录巴比特网

简介: 最近打算抓取公司内部PPT模板库中的PPT,发现被各种安全屏蔽。因为好久没写程序了,因此写几个例子回顾下基本的爬虫知识目标网址巴比特的登录页面http://8btc.

最近打算抓取公司内部PPT模板库中的PPT,发现被各种安全屏蔽。因为好久没写程序了,因此写几个例子回顾下基本的爬虫知识

目标网址巴比特的登录页面

http://8btc.com/member.php?mod=logging&action=login

在登录的时候开启fiddler抓包:

这里写图片描述

图中尖头标记处显示了真正提交表单的地址,将改地址记下:

http://8btc.com/member.php?mod=logging&action=login&loginsubmit=yes&loginhash=

因为自己想用cookie的方式登录,代码如下:

import urllib.request
import urllib.parse
import urllib.error
import http.cookiejar
import sys

class ECNcookie:
    def __init__(self):
        self.url = 'http://8btc.com/member.php?mod=logging&action=login&loginsubmit=yes&loginhash='
        self.values = {
            'formhash' : "284e610a",
            'referer' : "http://8btc.com/index.php",
            'username' : "xxx",
            'loginfield' : "auto",
            'password' : "xxx",
            'questionid' : "0",
        }
        self.user_agent = 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/61.0.3163.100 Safari/537.36'
        self.user_headers = {
            'User-Agent': self.user_agent
        }
        self.cookie_dir = 'C:/Users/ecaoyng/Desktop/PPT/cookie.txt'

    def cookie_saved(self):
        post_data = urllib.parse.urlencode(self.values)
        post_data = post_data.encode('utf-8')
        cookie = http.cookiejar.MozillaCookieJar(self.cookie_dir)
        handler = urllib.request.HTTPCookieProcessor(cookie)
        opener = urllib.request.build_opener(handler)
        request = urllib.request.Request(self.url, post_data, self.user_headers)
        try:
            response = opener.open(request)
            page = response.read().decode(encoding="GBK")
            print(page)
            print('='*80)

            for i in cookie:
                print('Name: %s' % i.name)
                print('Value: %s' % i.value)
            print('='*80)
            cookie.save(ignore_discard=True, ignore_expires=True)

        except urllib.error.URLError as e:
            print('Error msg: %s' % e.reason)

    def access_other_page(self):
        try:
            my_url = 'http://8btc.com/home.php?mod=space&uid=166072&do=profile&from=space'
            cookie = http.cookiejar.MozillaCookieJar()
            cookie.load(self.cookie_dir, ignore_discard=True, ignore_expires=True)
            get_request = urllib.request.Request(my_url, headers=self.user_headers)
            access_opener = urllib.request.build_opener(urllib.request.HTTPCookieProcessor(cookie))
            get_response = access_opener.open(get_request)
            print('='*80)
            print(get_response.read().decode(encoding="GBK"))
        except Exception as e:
            print('Error msg when entry other pages: %s' % e.reason())


if __name__ == '__main__':
    print(sys.getdefaultencoding())
    print('='*80)
    cookie_obj=ECNcookie()
    cookie_obj.cookie_saved()
    cookie_obj.access_other_page()

在抓取的页面中能够查到自己的登录名和状态。

得到的cookie信息如下

Name: eCM1_5408_auth
Value: 6b7dnCekiynTLECh7T%2FcOLMQmTE1JFYd1bmVIrXHb2766l6TjDm3kIFiP%2BS8%2FhmYuV8kmN%2BdOOSZ%2FVrhyJ7TvRLdov8
Name: eCM1_5408_cack_wechat_bind
Value: 1
Name: eCM1_5408_checkfollow
Value: 1
Name: eCM1_5408_lastact
Value: 1512098740%09member.php%09logging
Name: eCM1_5408_lastcheckfeed
Value: 166072%7C1512098740
Name: eCM1_5408_lastvisit
Value: 1512095140
Name: eCM1_5408_lip
Value: 59.46.167.194%2C1512098705
Name: eCM1_5408_saltkey
Value: b5JB4z50
Name: eCM1_5408_sid
Value: LDP536
Name: eCM1_5408_ulastactivity
Value: 83461RS%2BUIpdpkz6fGBx3McFx9MHect60vmuLqMRqpRqCU2aPLMR
Name: PHPSESSID
Value: nm8972h3mlsc9uehh8s2or6cu3
Name: yd_cookie
Value: 5ab8c97f-448d-42306da49cc39d9bf6cbfca9d8a16ccd2db5
目录
相关文章
|
21天前
|
数据采集 存储 XML
Python爬虫:深入探索1688关键词接口获取之道
在数字化经济中,数据尤其在电商领域的价值日益凸显。1688作为中国领先的B2B平台,其关键词接口对商家至关重要。本文介绍如何通过Python爬虫技术,合法合规地获取1688关键词接口,助力商家洞察市场趋势,优化营销策略。
|
1月前
|
数据采集 Web App开发 监控
高效爬取B站评论:Python爬虫的最佳实践
高效爬取B站评论:Python爬虫的最佳实践
|
1月前
|
数据采集 缓存 定位技术
网络延迟对Python爬虫速度的影响分析
网络延迟对Python爬虫速度的影响分析
|
1月前
|
数据采集 存储 JSON
Python网络爬虫:Scrapy框架的实战应用与技巧分享
【10月更文挑战第27天】本文介绍了Python网络爬虫Scrapy框架的实战应用与技巧。首先讲解了如何创建Scrapy项目、定义爬虫、处理JSON响应、设置User-Agent和代理,以及存储爬取的数据。通过具体示例,帮助读者掌握Scrapy的核心功能和使用方法,提升数据采集效率。
108 6
|
6天前
|
数据采集 JSON API
如何利用Python爬虫淘宝商品详情高级版(item_get_pro)API接口及返回值解析说明
本文介绍了如何利用Python爬虫技术调用淘宝商品详情高级版API接口(item_get_pro),获取商品的详细信息,包括标题、价格、销量等。文章涵盖了环境准备、API权限申请、请求构建和返回值解析等内容,强调了数据获取的合规性和安全性。
|
11天前
|
数据采集 存储 API
利用Python爬虫获取1688关键词接口全攻略
本文介绍如何使用Python爬虫技术合法合规地获取1688关键词接口数据,包括环境准备、注册1688开发者账号、获取Access Token、构建请求URL、发送API请求、解析HTML及数据处理存储等步骤,强调遵守法律法规和合理使用爬虫技术的重要性。
|
18天前
|
数据采集 JSON 开发者
Python爬虫京东商品详情数据接口
京东商品详情数据接口(JD.item_get)提供商品标题、价格、品牌、规格、图片等详细信息,适用于电商数据分析、竞品分析等。开发者需先注册账号、创建应用并申请接口权限,使用时需遵循相关规则,注意数据更新频率和错误处理。示例代码展示了如何通过 Python 调用此接口并处理返回的 JSON 数据。
|
23天前
|
XML 数据采集 数据格式
Python 爬虫必备杀器,xpath 解析 HTML
【11月更文挑战第17天】XPath 是一种用于在 XML 和 HTML 文档中定位节点的语言,通过路径表达式选取节点或节点集。它不仅适用于 XML,也广泛应用于 HTML 解析。基本语法包括标签名、属性、层级关系等的选择,如 `//p` 选择所有段落标签,`//a[@href='example.com']` 选择特定链接。在 Python 中,常用 lxml 库结合 XPath 进行网页数据抓取,支持高效解析与复杂信息提取。高级技巧涵盖轴的使用和函数应用,如 `contains()` 用于模糊匹配。
|
26天前
|
数据采集 XML 存储
构建高效的Python网络爬虫:从入门到实践
本文旨在通过深入浅出的方式,引导读者从零开始构建一个高效的Python网络爬虫。我们将探索爬虫的基本原理、核心组件以及如何利用Python的强大库进行数据抓取和处理。文章不仅提供理论指导,还结合实战案例,让读者能够快速掌握爬虫技术,并应用于实际项目中。无论你是编程新手还是有一定基础的开发者,都能在这篇文章中找到有价值的内容。
|
24天前
|
数据采集 JavaScript 前端开发
Python爬虫能处理动态加载的内容吗?
Python爬虫可处理动态加载内容,主要方法包括:使用Selenium模拟浏览器行为;分析网络请求,直接请求API获取数据;利用Pyppeteer控制无头Chrome。这些方法各有优势,适用于不同场景。