全国免费服务热线:400-856-0618

新闻中心

专注互联网服务,用信息技术推动商业和社会进步 News center
成功案例

网站优化要减少无效URL的爬行和索引

德道网络 | 发表时间:2018-10-09 16:47:04
网络营销 分类:公司新闻
第一:不想收录的URL保持为动态URL,甚至故意越动态越好,以阻止被爬行和收录。但是,搜索引擎现在都能爬行、收录动态URL,而且技术上越来越不是问题。虽然参数多到一定程度确实不利于收录,但4、5个参数通常还可以收录。我们无法确认需要多少参数才能阻止收录,所以不能当作一个可靠的方法。而且这些URL接收内链,又没有什么排名能力,还是会浪费一定权重。
 
   第二:robots禁止收录。同样,URL接收了内链也就接收了权重,robots文件禁止爬行这些URL,所以接收的权重不能传递出去,页面成为权重只进不出的黑洞。
 
  连向这些URL的链接配合nofollow也不完美,和robots禁止类似,nofollow在Google的效果是这些URL没有接收权重,权重却也没有被分配到其它链接上,所以权重同样浪费了。百度据称支持nofollow,但权重怎么处理未知。
 
  将这些URL链接放在Flash、JS里也没有用,搜索引擎已经可以爬行Flash、JS里的链接,而且估计以后越来越擅长爬。很多SEO忽略了的一点是,JS中的链接不仅能被爬,也能传递权重,和正常连接一样。
 
  也可以将过滤条件链接做成AJAX形式,用户点击后不会访问一个新的URL,还是在原来URL上,URL后面加了#,不会被当成不同URL。和JS问题一样,搜索引擎正在积极尝试爬行、抓取AJAX里的内容,这个方法也不保险。
上一篇:你了解SEO吗
下一篇:没有了
最新案例
相关文章
关注德道网络微信公众号 我们将为您呈现更多精彩
扫一扫 关注我们 获取您最想要的信息

关注我们

德道网络©版权所有 05039780地址:江苏省徐州市矿山路21号电话:0516-85655591