零 前言
继上篇,本篇聊聊导图剩下的内容:
一 谷歌收录
相对于百度收录来说,谷歌的效率简直高的离谱🐶,方法与百度类似。
然后复制得到的记录:
打开域名控制台,解析添加TXT记录:
验证成功:
打开谷歌站点地图 ,添加在上篇得到的sitemap.xml文件就大功告成了,如:
二 robots.txt
robots.txt
的作用是告诉搜索引擎此网站中哪些内容是可以被爬取的,哪些是禁止爬取的。
- 在根目录的
source
文件夹中修改该文件。 - 添加想要被爬取和不想被爬取的目录,可以参考一下我的:
User-agent: * Allow: / Allow: /posts/ Disallow: /tags/ Disallow: /categories/ Disallow: /about/ Disallow: /archives/ Disallow: /js/ Disallow: /css/ Disallow: /fonts/ Disallow: /lib/ 复制代码
- 添加完成,部署即可。
三 URL优化
一般来说,网站的最佳结构是 用户从首页点击三次就可以到达任何一个页面,但是Hexo编译的是:
域名/年/月/日/文章标题
这样五层的结构。这样的结构很不利于SEO,爬虫会经常爬不到我们的文章,所以我们需要优化一下URL。
方案一
- 直接改成
域名/文章标题
结构,在博客根目录配置文件下修改permalink
项:
url: https://www.heeh.xyz permalink: :title.html # 修改 permalink_defaults: 复制代码
- 但因为我们的文章标题一般都是中文,会被转义成一堆特别长的数字符号,分享链接时看着很不爽,所以还是推荐用方案二。
方案二
- 安装插件
npm install hexo-abbrlink --save
。 - 修改站点配置文件:
permalink: post/:abbrlink.html # 修改 # 添加 abbrlink: alg: crc16 # 可选crc32,比crc16复杂一点,长一点 rep: hex # 可选dec,十进制数 复制代码
- 这样站点结构就变成了
域名/posts/xxx.html
。