网络营销学习 - Robots.txt协议解禁后该怎么做

更新时间:2017-6-30 16:33:04点击:

 当你不希望蜘蛛抓取你网站的一些页面时可以设置Robots.txt协议,来告知搜索引擎避开这些页面。这篇文章根据我自己在网络营销学习中遇到的需要开启Robots.txt情况,和大家探讨下Robots.txt协议解禁后该怎么做。

权度网络 营销型网站建设

6月初我们的网站因为涉及到改版,所以做了Robots.txt协议的限制。在这期间,我们的网站的排名及收录相应的掉了下来,只有几个之前排在百度首页的关键词还勉强显示在百度首页,但是只有排名而没有内容的显示。

Robots.txt协议设置半个月后,在6月10号随着网站改版工作的完成,也随之解除了Robots.txt协议的限制。在经过了5天的缓冲期后,我们的网站终于重新有了百度快照。

6月16号,小编第一时间查询了我们这个网站在改版之后的收录情况。除了昨天发的5篇文章收录3篇外,其他之前6月份所有更新的文章均无任何收录。

上午下边整理了没被收录的所有文章的链接,以20各一组为单位,分别在百度站长工具的后台进行了手动提交,以提醒搜索引擎对我们网站的抓取工作。

三天后,再一次通过百度外链批量查询工具发现,6月份的文章收录情况达到了85%。

通过这一系列的操作我们网络营销学习总结出,Robots.txt的解除一般需要一个礼拜左右的时间才能真正的放出来,要耐心的等待。期间需要耐心的等待,等待的同时网站内容的更新还要继续,继续每天更新高质量的软文。

其次,如果之前的文章都没有被收录,可以复制文章的链接做一次主动提交,再看结果。

在网站做了Robots.txt协议限制后,网站收录已经关键词的排名会出现一些波动,不要着急,每天按照自己的优化计划做就行,有时候等待就是最好的方法。

权度网络 营销型网站建设

做好网站优化,网络营销学习是必不可少的。结合自己的网站一边学习一遍优化,把每一个问题都总结分析到位了,你就是SEO领域的专家。


免费logistics solutions

为企业提供价值9800元网络营销运营诊断报告

服务电话:18607192722