User-agent:Googlebot

问题描述:

User-agent:Googlebot
User-agent:Googlebot
Disallow:
User-agent:baiduspider
Disallow:
User-agent:Nutch
Disallow:
User-agent:msnbot
Disallow:
User-agent:Slurp
Disallow:
User-agent:*
Disallow:/
因为我的网站做出来5天了 百度不收录 是不是这个文件有问题
1个回答 分类:综合 2014-11-08

问题解答:

我来补答
楼主,你这悲剧了啊,全部蜘蛛都已经被禁止访问收录了,
这样不修改的话,就算你十年 二十年,一辈子,引擎也不会收录你网站的.
修改建议:
1.打开根目录robots.txt文件
2.在robots.txt里面修改为:
User-agent:* (表示所有蜘蛛)
Disallow:/admin/ (表示你的管理后台目录或者文件名,或者不允许别人搜索到的页面).
Allow:/ (表示除了以上所禁止的不允许收录以外,其它全部允许收录) .
3.保存覆盖根目录robots.txt文件.
4.大功搞成.然后去发外链,24小时就收录
再问: 我把那文件直接删除了就可以了吧 你QQ多少
 
 
展开全文阅读
剩余:2000
上一页:希望高人解答