在自己的豆瓣首页上增加最近的博客内容

简介:

今天在首页上看到Vamei的博客,里面有个豆瓣链接,点进去之后发现他的首页里能显示自己博客最近的内容,于是研究下是怎么实现的。梳理出方法如下:

 

1.首先登陆豆瓣账号,并进入9点功能:http://9.douban.com/

2.在订阅地址中输入自己的博客链接;

3.订阅成功后,在“管理订阅列表”中选择自己的博客,然后“认领这个博客”,并按照要求发表一篇标题或内容包含给定字符串的博文;

4.验证成功后,豆瓣首页那篇博文也可以删除了。

 

示例可以在我的豆瓣首页上看到:http://www.douban.com/people/71264896/

这个方法应该不限于博客园,只要支持RSS都可以。

不过9点自动更新实在是慢得很,如果有需要,可以手动重抓RSS:“管理订阅列表”中点击博客名,然后在新页面中选择“重抓”即可。



本文转自五岳博客园博客,原文链接:www.cnblogs.com/wuyuegb2312/p/3416624.html,如需转载请自行联系原作者

目录
相关文章
|
1月前
|
数据采集
爬虫案例—爬取ChinaUnix.net论坛板块标题
爬虫案例—爬取ChinaUnix.net论坛板块标题
爬虫案例—爬取ChinaUnix.net论坛板块标题
|
3月前
聚合博客网址导航大全代码分享
博友大全 - 博客大全|独立博客大全|博客导航|优秀博客大全http://m.bokequ.com/list/22-1.html
37 6
|
5月前
|
数据采集 存储 JavaScript
(2024)豆瓣电影详情内容爬虫详解和源码
这是一个Python爬虫程序,用于抓取豆瓣电影详情页面如`https://movie.douban.com/subject/1291560/`的数据。它首先发送GET请求,使用PyQuery解析DOM,然后根据`<br>`标签分割HTML内容,提取电影信息如导演、演员、类型等,并将中文键转换为英文键存储在字典中。完整代码包括请求、解析、数据处理和测试部分。当运行时,会打印出电影详情,如导演、演员列表、类型、时长等。
105 1
 (2024)豆瓣电影详情内容爬虫详解和源码
|
SQL XML 前端开发
怎么做社区网站的首页帖子展示?
要进行首页帖子展示,就必须学会分页,而在创建分页之前,我们得先认识到,为什么要进行分页?一个大型网站的数据库将容纳大量的数据,而我们进行展示某部分数据时,为了保证浏览速度,不可能一次性地将所有数据进行传输,更何况,不是全部传输过去的数据第一时间就能有效利用,所以,只要每次将需要的数据传输过去就好,即使是后续需要的数据,那也是后面时间点需要完成的工作,为了做到这一点,必须对一个数据整体进行划分,合理地传输并展示给用户,其中,划分出来的每一部分可被称为一页数据,完成划分工作的就是分页操作。而分页操作在 spingboot 及 mybatis 的环境下,可被分为以下几种分页情况:
143 0
怎么做社区网站的首页帖子展示?
|
小程序 Android开发
关于视频号主页实现一键添加个人微信功能的思路
思路很简单,就是借助小程序来做跳板,在你开发好的小程序里面单拎一个页面出来,放置个人微信号二维码。
194 0
关于视频号主页实现一键添加个人微信功能的思路
|
Web App开发 数据采集 Python
Python爬虫入门教程 4-100 美空网未登录图片爬取
简介 上一篇写的时间有点长了,接下来继续把美空网的爬虫写完,这套教程中编写的爬虫在实际的工作中可能并不能给你增加多少有价值的技术点,因为它只是一套入门的教程,老鸟你自动绕过就可以了,或者带带我也行。 爬虫分析 首先,我们已经爬取到了N多的用户个人主页,我通过链接拼接获取到了 http://www.moko.cc/post/da39db43246047c79dcaef44c201492d/list.html 在这个页面中,咱们要找几个核心的关键点,发现平面拍摄点击进入的是图片列表页面。
1691 0
|
数据采集 Web App开发 iOS开发
Python爬虫-爬取贴吧中每个帖子内的楼主图片
1.根据输入的关键字筛选贴吧 2.获得贴吧内的帖子,支持分页爬取 3.爬取并下载帖子内仅和楼主相关的图片
2739 0
|
Web App开发 API Python
看我怎么扒掉CSDN首页的底裤(python selenium+phantomjs爬取CSDN首页内容)
版权声明:本文可能为博主原创文章,若标明出处可随便转载。 https://blog.csdn.net/Jailman/article/details/79162357 这里只是学习一下动态加载页面内容的抓取,并不适用于所有的页面。
2133 0
|
数据采集 Python
Python网络爬虫之爬取百度贴吧网址并保存
通过urllib2+resquest爬虫百度贴吧网址,并保存至该工作目录下 一、示例代码 示例代码 代码解析: 1.首先定义一个baidu_tieba的函数:def baidu_tieba() 2.
967 0