舔狗至高境界,学会这个技巧让你从舔狗升华到海王【Python趣味爬虫】

简介: mport requestsfrom lxml import etree​​smtp封装发信协议import smtplibfrom email.mime.text import MIMETextfrom email.mime.multipart import MIMEMultipart​​​​​发送邮箱​msg_from = '1641324821@qq.com'passwd = 'fdltqccdspvedegj'​tos = ['xxxxxxxxx@qq.com', 'xxxxxxxxx@qq.com', 'xxxxxxxxx@qq.com', '

大家好,我是辣条。好久不见,甚是想念。

先给大家来一波舔狗日记,哈哈真的太好笑了。

1.以后别去狗市找我了,我已经不做舔狗了,如果你想我了就去海鲜市场找我,我在那边当鱼,如果海鲜市场也没找到,去汽修厂看看,有时候我在那里当备胎,如果汽修厂也没有,那就去草原看看,我在那边当牛马。

2.我给你发了99条消息 你终于肯回我了 你说“你发你妈 烦不烦” 我一下子就哭了,原来努力真的有用,你已经开始考虑见我的妈妈了,你也挺喜欢我的吧。

3.今天晚上有点冷,本来以为街上没人,结果刚刚偷电瓶的时候被抓了,本来想反抗,结果警察说了一句老实点别动,我立刻就放弃了抵抗,因为我记得你说过你喜欢老实人。

今天给大家带来的就是把这些舔狗语录,发给你想发给的人,舔一个人是舔狗,舔一群人就是海王了,你连续群发一个月,肯定会脱单。亲测有效【被拉黑】

工具准备
开发工具:pycharm

开发环境:python3.7, Windows11 】

使用工具包:requests,smtplib,MIMEText,MIMEMultipart

项目思路解析
整个项目分为两大步骤:

获取舔狗日记的舔狗语句,选取需要发送的数据信息

通过QQ邮箱将话述发送到目标邮箱号

获取舔狗话述信息
目标网址:舔狗日记 - 舔狗人的专用文案日记 (一个神奇的网站)

网页的数据加载很简单网页刷新静态加载的数据,直接通过xpath方式提取数据,制作一个非常简单的爬虫功能,对网址发送请求,提取数据,这里就不做过多的介绍,各位看官大佬完成so easy 没有什么特别的地方。

简易源码分享

url = 'https://www.nihaowua.com/dog.html'
response = requests.get(url)
text = html.xpath('//article/text()')[0]
将数据通过邮箱发送
舔一个叫舔狗,舔一群就是海王,大面积撒出我们的舔网,发送的目标方的邮箱我们设置成列表的形式,只专注的舔一个不符合我们高智商舔狗的身份

tos = ['xxxxxxxxx@qq.com', 'xxxxxxxxx@qq.com', 'xxxxxxxxx@qq.com', 'xxxxxxxxx@qq.com', 'xxxxxxxxx@qq.com', 'xxxxxxxxx@qq.com', 'xxxxxxxxx@qq.com', 'xxxxxxxxx@qq.com', 'xxxxxxxxx@qq.com', 'xxxxxxxxx@qq.com', 'xxxxxxxxx@qq.com', 'xxxxxxxxx@qq.com', 'xxxxxxxxx@qq.com', 'xxxxxxxxx@qq.com', 'xxxxxxxxx@qq.com', 'xxxxxxxxx@qq.com', 'xxxxxxxxx@qq.com', 'xxxxxxxxx@qq.com', 'xxxxxxxxx@qq.com', 'xxxxxxxxx@qq.com', 'xxxxxxxxx@qq.com', 'xxxxxxxxx@qq.com', 'xxxxxxxxx@qq.com', 'xxxxxxxxx@qq.com', 'xxxxxxxxx@qq.com', 'xxxxxxxxx@qq.com', 'xxxxxxxxx@qq.com', 'xxxxxxxxx@qq.com', 'xxxxxxxxx@qq.com', 'xxxxxxxxx@qq.com']
发信的邮箱服务器选择QQ邮箱,在创建发送邮箱对象前需要先配置邮箱服务

点击QQ邮箱设置 在点击账户

开启pop3/stmp服务 生成授权码。

开始通过代码发送邮箱,需要借助几个邮箱发送的工具包:

smtplib 封装发信协议

MIMEText 发送文本内容

MIMEMultipart 创建邮件对象

创建邮件对象,添加邮件内容设置标题,设置发信放,选择发信服务器,使用授权码做发信服务,发送邮箱 发送邮箱是要添加上延时操作不然服务器会判定你是做的邮箱轰炸

简易源码分享
import time

import requests
from lxml import etree

smtp封装发信协议
import smtplib
from email.mime.text import MIMEText
from email.mime.multipart import MIMEMultipart




发送邮箱

msg_from = '1641324821@qq.com'
passwd = 'fdltqccdspvedegj'

tos = ['xxxxxxxxx@qq.com', 'xxxxxxxxx@qq.com', 'xxxxxxxxx@qq.com', 'xxxxxxxxx@qq.com', 'xxxxxxxxx@qq.com', 'xxxxxxxxx@qq.com', 'xxxxxxxxx@qq.com', 'xxxxxxxxx@qq.com', 'xxxxxxxxx@qq.com', 'xxxxxxxxx@qq.com', 'xxxxxxxxx@qq.com', 'xxxxxxxxx@qq.com', 'xxxxxxxxx@qq.com', 'xxxxxxxxx@qq.com', 'xxxxxxxxx@qq.com', 'xxxxxxxxx@qq.com', 'xxxxxxxxx@qq.com', 'xxxxxxxxx@qq.com', 'xxxxxxxxx@qq.com', 'xxxxxxxxx@qq.com', 'xxxxxxxxx@qq.com', 'xxxxxxxxx@qq.com', 'xxxxxxxxx@qq.com', 'xxxxxxxxx@qq.com', 'xxxxxxxxx@qq.com', 'xxxxxxxxx@qq.com', 'xxxxxxxxx@qq.com', 'xxxxxxxxx@qq.com', 'xxxxxxxxx@qq.com', 'xxxxxxxxx@qq.com']

while True:

url = 'https://www.nihaowua.com/dog.html'
response = requests.get(url)
html = etree.HTML(response.text)

print(response.text)
提取数据 提取数据的方式 xpath bs4 css正则
print(html)
text = html.xpath('//article/text()')[0]
print(text)
for to in tos:

msg = MIMEMultipart()

添加邮箱内容

msg.attach(MIMEText(text, 'plain', 'utf-8'))
msg['Subject'] = '每天想你一千次'
msg['From'] = msg_from

server = smtplib.SMTP_SSL('smtp.qq.com', 465)

server.login(msg_from, passwd)

server.sendmail(msg_from, to, msg.as_string())
print('邮件发送成功')
time.sleep(3)

time.sleep(7200)\
mport requests
from lxml import etree

smtp封装发信协议
import smtplib
from email.mime.text import MIMEText
from email.mime.multipart import MIMEMultipart




发送邮箱

msg_from = '1641324821@qq.com'
passwd = 'fdltqccdspvedegj'

tos = ['xxxxxxxxx@qq.com', 'xxxxxxxxx@qq.com', 'xxxxxxxxx@qq.com', 'xxxxxxxxx@qq.com', 'xxxxxxxxx@qq.com', 'xxxxxxxxx@qq.com', 'xxxxxxxxx@qq.com', 'xxxxxxxxx@qq.com', 'xxxxxxxxx@qq.com', 'xxxxxxxxx@qq.com', 'xxxxxxxxx@qq.com', 'xxxxxxxxx@qq.com', 'xxxxxxxxx@qq.com', 'xxxxxxxxx@qq.com', 'xxxxxxxxx@qq.com', 'xxxxxxxxx@qq.com', 'xxxxxxxxx@qq.com', 'xxxxxxxxx@qq.com', 'xxxxxxxxx@qq.com', 'xxxxxxxxx@qq.com', 'xxxxxxxxx@qq.com', 'xxxxxxxxx@qq.com', 'xxxxxxxxx@qq.com', 'xxxxxxxxx@qq.com', 'xxxxxxxxx@qq.com', 'xxxxxxxxx@qq.com', 'xxxxxxxxx@qq.com', 'xxxxxxxxx@qq.com', 'xxxxxxxxx@qq.com', 'xxxxxxxxx@qq.com']

while True:

url = 'https://www.nihaowua.com/dog.html'
response = requests.get(url)
html = etree.HTML(response.text)

print(response.text)
提取数据 提取数据的方式 xpath bs4 css正则
print(html)
text = html.xpath('//article/text()')[0]
print(text)
for to in tos:

msg = MIMEMultipart()

添加邮箱内容

msg.attach(MIMEText(text, 'plain

目录
相关文章
|
5天前
|
数据采集 数据挖掘 Python
Python:pandas做爬虫
Python:pandas做爬虫
18 0
|
3天前
|
数据采集 存储 XML
构建高效的Python爬虫系统
【9月更文挑战第30天】在数据驱动的时代,掌握如何快速高效地获取网络信息变得至关重要。本文将引导读者了解如何构建一个高效的Python爬虫系统,从基础概念出发,逐步深入到高级技巧和最佳实践。我们将探索如何使用Python的强大库如BeautifulSoup和Scrapy,以及如何应对反爬措施和提升爬取效率的策略。无论你是初学者还是有经验的开发者,这篇文章都将为你提供宝贵的知识和技能,帮助你在信息收集的海洋中航行得更远、更深。
15 6
|
1天前
|
数据采集 数据挖掘 数据处理
Python中实现简单爬虫并处理数据
【9月更文挑战第31天】本文将引导读者理解如何通过Python创建一个简单的网络爬虫,并展示如何处理爬取的数据。我们将讨论爬虫的基本原理、使用requests和BeautifulSoup库进行网页抓取的方法,以及如何使用pandas对数据进行清洗和分析。文章旨在为初学者提供一个易于理解的实践指南,帮助他们快速掌握网络数据抓取的基本技能。
11 3
|
5天前
|
数据采集 Python
天天基金数据的Python爬虫
天天基金数据的Python爬虫
20 3
|
8天前
|
数据采集 存储 JavaScript
构建您的第一个Python网络爬虫:抓取、解析与存储数据
【9月更文挑战第24天】在数字时代,数据是新的金矿。本文将引导您使用Python编写一个简单的网络爬虫,从互联网上自动抓取信息。我们将介绍如何使用requests库获取网页内容,BeautifulSoup进行HTML解析,以及如何将数据存储到文件或数据库中。无论您是数据分析师、研究人员还是对编程感兴趣的新手,这篇文章都将为您提供一个实用的入门指南。拿起键盘,让我们开始挖掘互联网的宝藏吧!
|
5天前
|
数据采集 JSON 数据格式
Python:南京地铁每日客流数据的爬虫实现
Python:南京地铁每日客流数据的爬虫实现
15 1
|
5天前
|
数据采集 Python
Python:某市公交线路站点的爬虫实现
Python:某市公交线路站点的爬虫实现
|
5天前
|
数据采集 网络协议 调度
Python爬虫策略分析4
Python爬虫策略分析4
18 1
|
5天前
|
数据采集 前端开发 Python
Python爬虫策略分析3
Python爬虫策略分析3
|
5天前
|
数据采集 Python
Python爬虫策略分析1
Python爬虫策略分析1
下一篇
无影云桌面