网站索引量下降怎么办?( 二 )


解决:校验源码 , 准确的源码是蜘蛛"采集"数据进行分析的基础;link内链结构、url地址形式、页面主题、页面各区域html标记等尽量维持改动前的情况;逐步、分期更换TD(网页title、description) , 结合页面主题、用户实际需求来制定合理的TD,不欺骗不误导用户 。
5、已入库的url对蜘蛛状态有变化
【robots声明 , 禁止蜘蛛抓取】
解决:查看百度站长工具robots及抓取情况 。
【url规则变化 , 原有url无法访问】
解决:特别是linux和win服务器之间的数据迁移 , 可能会出现大小写url支持变化 , 确保各类url规则不变化 。url必须重构的时候 , 做好旧新url301重定向 , 站长工具提交改版需求 。
【提示错误页面】
解决:由于误删 , 则可以数据恢复 , 并维持url对应网页内容的更新变化 , 提高抓取频次 。如果确定要删除 , 那么提交死链 , 删除死链后 , 再robots禁止 , 这种情况的索引下降无需担忧 。
【被入侵】
解决:防止url对蜘蛛进行非法跳转操作;防止url对应的网页内容对蜘蛛出现内容大变化 , 特别是一些违法乱纪的内容
6、DNS、服务器问题
【DNS问题】
dns不稳定;dns不安全
解决:选择可靠的dns服务;沟通强调对蜘蛛的稳定性;防止dns解析到非正常ip;防止解析的网站ip频繁变动 。防止dns管理漏洞 , 导致被恶意解析;防止dns解析挂靠在小代理等技术能力、管理规范、道德法律约束都欠缺的平台上 。
【服务器问题】
A、可访问性差
解决:尽量让目标地区所有运营商来路的用户都能在3秒内打开网站 , 最佳1秒内;监控网站运行状态 , 合理设置目标地区的所有运营商监控节点及监控项目、监控频率
B、屏蔽百度ua或ip
解决:多利用百度站长工具 , 查看百度抓取网页的情况 , 可见
C、防刷压力值设定
解决:将蜘蛛解析到专用空间;如出现访问陡增的ip,查看是否为蜘蛛再确定是否禁止访问 。
二、百度方原因
1、配额再分配
同类数据量接近索引分配总额 , 配额量再分配 , 有升的就会有降的
解决:超过竞品 , 争取高额分配 。
2、数据异常错误
A、错误惩罚
应对某类作恶行为而新算法上线 , 但由于蝴蝶效应 , 导致部分站点被错误惩罚而清除大量索引 。
解决:反馈百度方 , 请求解除惩罚 。
B、地区性数据异常
部分地区数据抓取或查询异常 , 导致误判站点情况而清除相应索引数据或输出错误索引量 , 如百度dns系统升级事件 。
解决:反馈百度方 , 由百度检查各地蜘蛛执行情况 。
C、接口调用数据错误、数据丢失、数据备份衍生异常
解决:反馈百度方 , 由百度检查相关数据情况 。
 

【网站索引量下降怎么办?】


推荐阅读