【那些反爬与反反爬】网页中嵌入随机不可见字符的解决方法

简介: 【那些反爬与反反爬】网页中嵌入随机不可见字符的解决方法

关于部分网页p标签下嵌入随机不可见字符导致爬取的数据中包含大量无意义字符的解决办法:

示例网站:https://www.psychspace.com/psych/category-333

<p>
<span style="display:none"> H1zZ y&}%pBD iluo</span>
剑桥大学发表的一项新的研究表明,父母和孩子之间的爱会显著增加孩子的
<a href="∠psych/action-tag-tagname-%C7%D7%C9%E7%BB%E1%D0%DO%CE%AA.html">亲社会行为</a>
(prosociality)倾向、对他人表现出善意和同理心。这项研究使用了2000-02年间出生的10000多人的数据,以了解幼儿与父母的早期关系、亲社会性和心理健康之间的长期相互作用。
<span style="display:none">y&}%p   H1z*&$(&%%jfjs</span>
</p>

在上述html示例中,我需要的是p标签下的a标签中的text和p标签本身的text,过滤掉span标签下的无意义字符,最后拼接的效果期望如下:

剑桥大学发表的一项新的研究表明,父母和孩子之间的爱会显著增加孩子的亲社会行为(prosociality)倾向、对他人表现出善意和同理心。这项研究使用了2000-02年间出生的10000多人的数据,以了解幼儿与父母的早期关系、亲社会性和心理健康之间的长期相互作用。

几种解决方法和思路:

  1. re暴力过滤
    这个思路是直接获取每一页的网页源代码,然后通过re.sub(r'<span\s+style="display:none">[^<]*</span>', '', text)洗掉所有style="display:none"<span>标签,然后就可以愉快地使用xpath、beautifulsoup等html解析库获取p标签下的列表进行字符串拼接啦。
import requests
from lxml import etree
text = '''
    <p>
        <span style="display:none">ES"|#jed3dez)~a@ero</span>
        <a href="/psych/action-tag-tagname-%C8%CF%D6%AA%D0%D0%CE%AA%C1%C6%B7%A8.ht ml">认知行为疗法</a>
        "认为,抑郁症患者会出现「认知歪曲」的现象,这也是抑郁症的认知行为治疗中的一个关键挑战所在。“认知歪曲”会经常影响抑郁症患者的思维模式。其形式还包括仓促下结论、灾难化、非黑即白思维或自责,并可能给经历过这些的人带来如其所愿的痛苦。"
        <span style="display:none">心理学空间 g6HBa,_,tBz:f</span>
    </p>
'''
# 清洗掉p标签下的span标签内的特殊字符
text2 = re.sub(r'<span\s+style="display:none">[^<]*</span>', '', text)
# print(text2)
html = etree.HTML(text2)
texts = []
for p in html.xpath('//p'):
    text = ''.join(p.xpath('.//text()'))
    # 这里可以加一些字符串处理的过程
    text = text.strip().replace('\n', '').replace('"', '')
    texts.append(text)
result = ''.join(texts)
print(result)
  1. xpath对p标签进行逐个解析
    这个思路就是获取p标签下所有内容的字符串形式,然后写正则去掉不要的字符串就可以,主要用到html.xpath('//p/node()')etree.tostring()两个方法。
import requests
from lxml import etree
url = 'https://www.example.com'
response = requests.get(url)
html = etree.HTML(response.text)
# 获取p标签下的所有内容,包括标签和文本
contents = html.xpath('.//p/node()')
output = ''
for item in contents:
    output += etree.tostring(item, encoding='unicode')
print(output)

.//p/node() 的 XPath 表达式可以获取到 <p> 标签下的所有节点,包括标签节点和文本节点。然后,我们通过遍历这些节点,并使用 etree.tostring() 方法将每个节点转换成字符串形式,并将其追加到 output 变量中。以上代码可<p> 标签下的所有内容组成的字符串output,其中包括了标签和文本。

获取字符串形式的文本后,编写正则表达式进行文本的进一步清洗。

注意<p>标签内部可能包含其他标签,如果编写的正则表达式没有遍历所有情况,可能导致获取到的文本带有为过滤掉的其他标签(如<img><video>)。如果只想获取纯文本内容,可以考虑其他方法代替正则表达式,比如去除 HTML 标签的函数库(这个我也还没探索过)。

  1. xpath的remove函数
    大致思路是先通过xpath定位到<p>标签下的<span>标签,然后使用getparent().remove(span)代码删除了span标签。
text = '''
    <p>
        <span style="display:none">ES"|#jed3dez)~a@ero</span>
        <a href="/psych/action-tag-tagname-%C8%CF%D6%AA%D0%D0%CE%AA%C1%C6%B7%A8.ht ml">认知行为疗法</a>
        "认为,抑郁症患者会出现「认知歪曲」的现象,这也是抑郁症的认知行为治疗中的一个关键挑战所在。“认知歪曲”会经常影响抑郁症患者的思维模式。其形式还包括仓促下结论、灾难化、非黑即白思维或自责,并可能给经历过这些的人带来如其所愿的痛苦。"
        <span style="display:none">心理学空间 g6HBa,_,tBz:f</span>
    </p>
'''
# 解析HTML文本
html = etree.HTML(text)
# 清洗掉p标签下的span标签内的特殊字符
for span in html.xpath('//p/span'):
    span.getparent().remove(span)
# 提取a标签内的文本,拼接到p标签内的文本
texts = []
for p in html.xpath('//p'):
    text = ''.join(p.xpath('.//text()')).strip()    # 去除开头结尾的换行符
    text = re.sub(r'\s+|"', '', text)   # 去除引号和空格
    texts.append(text)
result = ''.join(texts)
print(result)


目录
相关文章
|
4月前
|
Python
"揭秘!Python如何运用神秘的正则表达式,轻松穿梭于网页迷宫,一键抓取隐藏链接?"
【8月更文挑战第21天】Python凭借其强大的编程能力,在数据抓取和网页解析领域表现出高效与灵活。通过结合requests库进行网页请求及正则表达式进行复杂文本模式匹配,可轻松提取网页信息。本示例展示如何使用Python和正则表达式解析网页链接。首先确保已安装requests库,可通过`pip install requests`安装。接着,利用requests获取网页内容,并使用正则表达式提取所有`&lt;a&gt;`标签的`href`属性。
48 0
|
4月前
|
数据采集 存储 JavaScript
基于Python 爬书旗网小说数据并可视化,通过js逆向对抗网站反爬,想爬啥就爬啥
本文介绍了如何使用Python编写网络爬虫程序爬取书旗网上的小说数据,并通过逆向工程对抗网站的反爬机制,最后对采集的数据进行可视化分析。
202 2
基于Python 爬书旗网小说数据并可视化,通过js逆向对抗网站反爬,想爬啥就爬啥
|
7月前
|
数据采集 前端开发 JavaScript
Python爬虫零基础到爬啥都行
Python爬虫项目实战全程实录,你想要什么数据能随意的爬,不管抓多少数据几分钟就能爬到你的硬盘,需要会基本的前端技术(HTML、CSS、JAVASCRIPT)和LINUX、MYSQL、REDIS基础。
47 1
Python爬虫零基础到爬啥都行
Python实现自动访问网页
Python实现自动访问网页
|
数据采集 消息中间件 大数据
爬虫识别-关键页面最小访问间隔-需求及思路|学习笔记
快速学习爬虫识别-关键页面最小访问间隔-需求及思路
154 0
|
Web App开发 存储 缓存
【7000字】一晚上爆肝浏览器从输入到渲染完毕原理
Chrome comic,推荐一本Chrome架构简要概述的漫画,Chrome架构于2008年同Chrome浏览器一起发布,原文地址,中文翻译。
212 0
【7000字】一晚上爆肝浏览器从输入到渲染完毕原理
挑选了适合测试边界的汉字及截图
挑选了适合测试边界的汉字及截图
111 0
挑选了适合测试边界的汉字及截图
|
数据采集 算法
百度爬虫爬一次时间计算法则
百度爬虫爬一次时间计算法则www.20200824.com
512 0