加入收藏 | 设为首页 | 会员中心 | 我要投稿 银川站长网 (https://www.0951zz.com/)- 云通信、基础存储、云上网络、机器学习、视觉智能!
当前位置: 首页 > 运营中心 > 搜索优化 > 正文

推荐几种提高网站访问速度 减轻蜘蛛抓取的技巧

发布时间:2023-11-07 10:23:30 所属栏目:搜索优化 来源:
导读:对于SEO人员来说,通常会让他们头痛的是如何增加更多内容的搜索与索引量。没有包容和索引,就谈不上排名。一、使用Flash几年来,搜索引擎一直试图抢占flash内容。简单的文本内容已经可以被抓取。flash中的链接也可以

对于SEO人员来说,通常会让他们头痛的是如何增加更多内容的搜索与索引量。没有包容和索引,就谈不上排名。

一、使用Flash

几年来,搜索引擎一直试图抢占flash内容。简单的文本内容已经可以被抓取。flash中的链接也可以被跟踪。

二,形式

搜索引擎蜘蛛还可以填写表单和获取post请求页面。这可以在日志中看到。

三、后S/Ajax

使用JS链接一直被认为是一种对搜索引擎不友好的方法,因此可以防止蜘蛛爬行。但两三年前,我看到JS链接无法阻止搜索引擎蜘蛛爬行。不仅会对JS中出现的url进行爬网,还可以执行简单的JS来查找更多的url。

四、 robots文件

目前,确保内容不被包含的方法是禁止robots文件。但也有一个缺点,就是重量会减少,虽然内容不能包含在内,但这些页面却成了一个只知道要接受页面上的链接本身的重量而不知道要流出重量的深不见底的无底洞。

五、 限制跟踪

Nofollow不保证不包括在内。即使NF被添加到你网站上所有指向该页面的链接中,你也不能保证其他网站不会获得指向该页面的链接。搜索引擎仍然可以找到这个页面。

六、metanoindex+follow

为了防止集合转移权重,我们可以在页面上使用metaindex和metaflow,这样页面就不包括在内,而是可以留出权重。的确,这是一个更好的方法。还有一个问题,否则会浪费蜘蛛爬行的时间。我们需要使用metaflow来计算每个网页的平均值,然后将其转换为一个数字。如果你不知道如何计算,你可以直接使用python代码来实现。

(编辑:银川站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    推荐文章