通过爬取豆瓣浅聊反爬策略的重要性

简介: 通过爬取豆瓣浅聊反爬策略的重要性

突然发现好多的爬虫爱好者学习爬虫的时候都喜欢爬豆瓣的东西,无论是电影、音乐还是小组等等。所以豆瓣网在反爬方面也是煞费苦心。当你的爬虫没什么策略可言时,很容易就会返回403错误。但是经过多次的实践大体可以看出豆瓣的反爬策略不外乎以下几点。
1、当你的访问过程不带cookie时,多次请求后就会被封,而且是封IP地址,所以无论你怎么换UA都会返回403错误。简单的解决方法就是不带Cookie先请求一次,并将返回的Cookie进行保存,下边的所有请求都带此Cookie。
2、当你的访问过程带上cookie时,第一次请求豆瓣页后面会返回一个cookie,以后的请求都会带此cookie,但当你请求过于频繁时,此cookie也会被封。但是此时不会封IP地址。解决的方法就是请求一段时间被封后,清除所有Cookie后,再次进行请求,返回可用Cookie,依次循环。
接下来我们聊写爬虫虫策略问题。经常看到爬虫群里面大家交流的时候,很多人喜欢把“分布式”挂在嘴边。但是跟很多爬虫朋友交流的时候发现真正遇到需要分布式抓取的情况其实并不多。个人觉得除非是很大型的爬虫,比如抓取淘宝某一大类商品信息,否则真的很少用到分布式爬虫。
当爬虫需要爬的URL特别多时,此时有两个瓶颈:
对方封爬虫请求,即封IP或者利用Cookie、账号等封请求。封IP的情况很容易解决,直接优质爬虫代理可以

        import base64            
        import sys
        import random

        PY3 = sys.version_info[0] >= 3

        def base64ify(bytes_or_str):
            if PY3 and isinstance(bytes_or_str, str):
                input_bytes = bytes_or_str.encode('utf8')
            else:
                input_bytes = bytes_or_str

            output_bytes = base64.urlsafe_b64encode(input_bytes)
            if PY3:
                return output_bytes.decode('ascii')
            else:
                return output_bytes

        class ProxyMiddleware(object):                
            def process_request(self, request, spider):
                # 代理服务器(产品官网 www.16yun.cn)
                proxyHost = "t.16yun.cn"
                proxyPort = "31111"

                # 代理验证信息
                proxyUser = "16CALIRM"
                proxyPass = "412545"

                # [版本>=2.6.2](https://docs.scrapy.org/en/latest/news.html?highlight=2.6.2#scrapy-2-6-2-2022-07-25)无需添加验证头,会自动在请求头中设置Proxy-Authorization     
                request.meta['proxy'] = "http://{0}:{1}@{2}:{3}".format(proxyUser,proxyPass,proxyHost,proxyPort)

                # 版本<2.6.2 需要手动添加代理验证头
                # request.meta['proxy'] = "http://{0}:{1}".format(proxyHost,proxyPort)
                # request.headers['Proxy-Authorization'] = 'Basic ' +  base64ify(proxyUser + ":" + proxyPass)                    

                # 设置IP切换头(根据需求)
                # tunnel = random.randint(1,10000)
                # request.headers['Proxy-Tunnel'] = str(tunnel)

                # 每次访问后关闭TCP链接,强制每次访问切换IP
                request.header['Connection'] = "Close"
AI 代码解读

自己服务器解析比较慢,即爬虫的瓶颈在于解析慢,特别是对于Python爬虫

相关文章
基于Python 爬书旗网小说数据并可视化,通过js逆向对抗网站反爬,想爬啥就爬啥
本文介绍了如何使用Python编写网络爬虫程序爬取书旗网上的小说数据,并通过逆向工程对抗网站的反爬机制,最后对采集的数据进行可视化分析。
361 2
基于Python 爬书旗网小说数据并可视化,通过js逆向对抗网站反爬,想爬啥就爬啥
字体反爬案例分析与爬取实战
字体反爬案例分析与爬取实战
56 0
爬虫案例—抓取找歌词网站的按歌词找歌名数据
爬虫案例—抓取找歌词网站的按歌词找歌名数据
135 0
做个爬虫吧:豆瓣《八佰》影评
做个爬虫吧:豆瓣《八佰》影评
74 0
基于Python的B站(哔哩哔哩)视频评论采集,可破解反爬手段,想爬几条爬几条
本文介绍了一个基于Python的B站(哔哩哔哩)视频评论采集工具,能够通过输入视频的av号、BV号或链接,并使用特定的cookie和请求头信息来绕过反爬手段,实现大规模的评论数据采集,并支持将数据解析并保存为CSV格式。
250 0
豆瓣电影信息爬虫实战-2024年6月
使用Python和`requests`、`PyQuery`库,本文教程教你如何编写一个豆瓣电影列表页面的爬虫,抓取电影标题、导演、主演等信息。首先确保安装所需库,然后了解技术栈,包括Python、Requests、PyQuery和正则表达式。爬虫逻辑包括发送HTTP请求、解析HTML、提取数据。代码示例展示了如何实现这一过程,最后运行爬虫并将结果保存为JSON文件。注意遵守网站使用条款和应对反爬策略。
523 2
技术经验分享:C#构造蜘蛛爬虫程序
技术经验分享:C#构造蜘蛛爬虫程序
62 0
经验大分享:scrapy框架爬取糗妹妹网站qiumeimei.com图片
经验大分享:scrapy框架爬取糗妹妹网站qiumeimei.com图片
60 0
Python爬虫与逆向工程技术的结合,实现新闻网站动态内容的多线程抓取
Python爬虫与逆向工程技术的结合,实现新闻网站动态内容的多线程抓取

相关课程

更多
AI助理

你好,我是AI助理

可以解答问题、推荐解决方案等