鄂尔多斯信息港

当前位置:

发现搜索引擎蜘蛛会根据链接进入到你的站

2019/07/06 来源:鄂尔多斯信息港

导读

首先,我们要来个免责声明-他们并不一定是必要的-但以防万一但你必须注意的是,这些是一个概念化的东西,至少我是这样认为的,还没有进行实际的测试

首先,我们要来个免责声明-他们并不一定是必要的-但以防万一但你必须注意的是,这些是一个概念化的东西,至少我是这样认为的,还没有进行实际的测试和实践证明。

蜘蛛的逆向爬行至少我次起这个名字的时候我是这样想的。这种想法来源于很多的地方:

站的页面的深度如果很高的话那对爬行和索引来说都是一个挑战,因为他们的结构很深,拥有大量的页面,会有爬行的障碍(例如那些大量基于参数的URL或者那些被认为没有什么价值的页面,这种情况会经常出现在一些电子商务的站。)

或者一个站希望能够尽可能的充分并迅速的被索引(也许一个站添加了新的内容,它的URL就会发生戏剧化的改变,尽管301已经被定位了,或者这是一个新的站点)。

因此,怎样才能使站能够被正常的爬行和索引?通常是通过以下的几种方式:

发现:搜索引擎蜘蛛会根据链接进入到你的站

提交:一个站长会把站点和页面提交给搜索引擎

XML站地图:一个站长给他们的站创建一个XML站地图,并通过搜索引擎使他们变得有效,或者就把它放在站的根目录作为一个站地图或者利用ROBOTS文件来进行自动搜索。

这些方法都是优点和缺点的,但是他们至少解决了如何让蜘蛛进入他们的站点,通过使用XML站地图,可以帮助蜘蛛越过一些爬行的障碍。但是它也不是完全准确的,但是我认为这是一个自上而下的路线,像是这样的

无论是直接还是间接,主页被发现了。那么蜘蛛就会按照他们自己的路线进行爬行。从的导航到第二层让后到子导航,爬行到的分类页面,通过子分类的界面,然后到更深的产品和信息页面。反过来说,你想进行索引的这些页面同时占领了头部和长尾的搜索。这些也很有可能是产生交易或者是转化的页面。

蜘蛛来到你页面的频率是多少?它们一次性通常会爬多少页面?新的页面会多久才会被发现和抓取?相对而言旧的页面会多久被发现和抓取?本质上来说,应该平衡抓取,这就解释了为什么排除重复性内容的重要性。你不想心爱的蜘蛛把时间浪费在爬过和收录过的内容。

当你为一些大型的站指出这些问题的话,你发现想让蜘蛛去爬行和喜欢的URL实在是多的让人觉得可怕,即使没有那些隐藏着的爬行障碍。请记住,甚至是XML站地图,每个站地图多只能包括50000个URL,少20个单独的站地图的话加起来就会有个页面。

要说的是,我要提醒大家这种情况并不适用于所有的站和情况。这种蜘蛛逆向爬行的基础和使用XML站地图是有些不同的。典型的XML站地图策略是要提交每一个URL,就是希望每个页面都能被索引。这也许不是的策略,但是这是另外一个问题了。即使那样,这些策略往往会给首页过多的权重和优先权。

恰恰相反,我们应该把站地图的重点放在一些低等级的页面上。通常都是单个的产品和信息页面。这种思想就是让蜘蛛去那些深层难爬的页面。

它们之后还会去那儿呢?他们会按照蜘蛛做的那样做,开始爬行。想想这些深层次的页面。但愿他们内容丰富并且富有关键词。他们也许包括一些可以导航的元素,即使不是完全的高等级的导航,至少是一些分类导航。如果站有类似的面包屑导航的话,我们可以直接喂给蜘蛛这些面包屑。

在这点上,我们应该更好的以更多的方式给蜘蛛展现我们的站。这个观念也许并不是关于逆向爬行的,反而是关于让蜘蛛从两个底端开始爬行,这样的爬行终也能到顶部的导航。

我们通常会假设蜘蛛会很自然的首先去找首页然后顺势往下爬遍整个站。和那些多样化的产品等级的页面相比从主页到顶层页面有多少个的URL?我的猜想是因为页面深度的不同,两个等级的页面的抓取数量是有很大的不同的。

正如我提到的,我认为这是一个低风险的路线。无论有没有xml站地图,蜘蛛们都能找到页面的。他们会找到不在站地图中的页面,因此即使是一个没有首页和页面的站地图,也不会遗漏掉这些页面。

在自然环境下,也许不会出现这些问题。蜘蛛会迅速爬过整个站。一旦他们发现了链接他们就会追根究底。也许这些页面埋得太深了,他们有点儿不太喜欢。

无论如何,让这些页被爬到和索引是很重要的,对于我的站来说这的确是一个艰难的过程。或许这只是一个时间问题。至少我要去尝试。一旦像我想象的那样整个站的那个等级的页面都被建立了索引,我就可以继续并在XML站地图中添加其他的URL,或者我可以做个实验,不把站地图放在站里。

那些神乎其神的问题是:

总体上说是不是更多的页面建立了索引?

是不会让那些深层页面更好更快的被建立索引?

文章出处为 上海丽姿鸥,站优化专家,转载请保留出处!不胜感激!

衡水癫痫病哪家专科医院好
锡林郭勒盟肛肠科医院哪家好
鹤岗手外科医院哪家好
滁州有哪些肿瘤科医院
标签

友情链接