开发者社区> 问答> 正文

袁鹏飞:被robots.txt文件害惨了!!!擦

      
      昨天偶然查看我的一个网站,本来不想让百度收录,可是竟然在站长工具上看到收录了上千页。吓了一跳,
然后去查看robots文件,原来把disallow写成allow。擦,擦。
     提醒大家一定要注意好robots文件。。。搞不好许多工作都是白做。

展开
收起
bj88jc 2013-11-12 09:39:44 7318 0
7 条回答
写回答
取消 提交回答
  • Re袁鹏飞:被robots.txt文件害惨了!!!擦
    自己操作问题,不能怪robot啊
    2013-11-12 22:24:46
    赞同 展开评论 打赏
  • 回 2楼(kideny) 的帖子
    袁德凯快过来认兄弟
    2013-11-12 20:34:40
    赞同 展开评论 打赏
  • Re袁鹏飞:被robots.txt文件害惨了!!!擦
    袁鹏飞,我一个老乡
    2013-11-12 19:49:27
    赞同 展开评论 打赏
  • Re袁鹏飞:被robots.txt文件害惨了!!!擦
    你在显摆什么啊。。。
    2013-11-12 17:44:44
    赞同 展开评论 打赏
  • 我网站没有 robots 文件
    就只有网站地图...
    2013-11-12 12:03:35
    赞同 展开评论 打赏
  • 回 2楼(kideny) 的帖子
    应该就是楼主。
    2013-11-12 12:00:33
    赞同 展开评论 打赏
  • 还有不想给百度收录的。。。

    -------------------------

    袁鹏飞是谁?

    2013-11-12 10:11:34
    赞同 展开评论 打赏
滑动查看更多
问答地址:
问答排行榜
最热
最新

相关电子书

更多
低代码开发师(初级)实战教程 立即下载
冬季实战营第三期:MySQL数据库进阶实战 立即下载
阿里巴巴DevOps 最佳实践手册 立即下载