robots文档是搜索生态环境中很最重要的一个节目,同时也是一个很内容的节目。很多站长老师在网站营运步骤中,很更容易忽视robots文档的存在,进行正确覆盖或者全部封禁robots,造成避免伤亡!
那么如果误操作封禁了robots怎么办?现在我们请到了福州258网站营运主管——郑军伟,为我们分享网站robots误封禁后该如何操作?
【个案历史背景】
网站开发2.0版本,新技术选择了网络开发,为了避免谷歌抓取开发版本,要求人员设了Robots封禁处理。2.0版本开发周期1个月,1个月后网站版本迭代,必要覆盖了1.0版本,包括Robots封禁文档,2当晚发现水量大幅度下降,检验收录发现800万收录降至0条,关键字大量掉线。
【作法】
1.修改Robots封禁为允许,然后到百度站长后台检验并改版Robots。
2.在百度站长后台抓取检验,此时显示抓取失败,对不起,多点击抓取几次,触发蝙蝠抓取线路。
3.在百度站长后台抓取频次,申请抓取频次上调。
4.百度反馈的中心,反馈是因为误操作导致了这种状况的发生。
5.百度站长后台URL提交处,设统计数据立即推送(动态)。
6.改版sitemap网站世界地图,新的提交百度,每天工艺提交一次。
以上处理完,几周就是等待了,万幸,2天的星期统计数据开始渐渐回升,到第3天基本上回升到长时间稳定状态!
【个案阐述】
本次严重事故意味著是营运职业生涯的一次败笔,阐述反思一下,希望大家避免类似难题。
1.新产品一定要避免网络开发,不能为了左丞不搭建开发自然环境。
2.的产品迭代要有程序纪录,开发时做了那些设处理,那些是不需要放出来的,那些是必需放出来的,要十分确切。