升级到 hexo3之后一直没注意,今天查看Google WebMaster Tools发现竟然没抓去多少,查看原来的robots.txt, 是这样的:

1
2
3
4
5
6
---
layout: nil
---

User-agent: *
Disallow:
Sitemap: {{ site.url }}/sitemap.xml

打开生成的robots.txt查看,竟然没有解析, 竟然是这样的

1
2
3
4
5
6
---
layout: nil
---

User-agent: *
Disallow:
Sitemap: {{ site.url }}/sitemap.xml

完全没有处理这个文件, 安装hexo-generator-robotstxt, 由于官方的版本只有一个 sitemap,如果要添加 baidusitemap 的话,可以使用我的 fork hexo-generator-robotstxt

1
npm install chenzaichun/hexo-generator-robotstxt --save

修改_config.yml文件,加入

1
2
3
4
5
6
7
8
plugins:
- hexo-generator-robotstxt

robotstxt:
useragent: "*"
sitemap:
- /sitemap.xml
- /baidusitemap.xml

搞定 (wú liáo)
知识共享授权条款
本著作Chen, Zai-Chun制作,以知识共享 姓名标示-相同方式分享 4.0 国际 授权条款释出

留言

Aug 18 2015