那种类型的网站会被百度K站
来源:公司新闻
2024-04-16
1,搜索引擎服务器上的程序更新的版本有缺陷,这类现象比较多,突然出现误k掉一批站,这类网站一般都会在一个星期内恢复。
2,政策性问题,网站内容涉及反动,宗教,政治,色情,等等基本上就是一刀切了,不管你的网站以前权重有多高,直接k掉。
3,友情链接有被k的站,他的存在会直接拉低本站的权重,如果本身权重本身不高,权重被拉低到被k的临界值,就要被k了。
4,链接众多底权重的新站,拉低自身权重,权重被拉低到被k的临界值,就要被k了(友情链接跟质量有关系,跟数量基本没多大关系,质量高的网站链接你越多越好)。
5,频繁修改网站标题与模板,导致搜索引擎不能明确你的网站中心定位,也就不好把你网站归类为哪一方面的网站,也许是修改了内容就要重新进行收录,那么等于说要把之前收录的给删除掉,进行重新收录就需要一段时间去分析了,这样的情况是一般首先k掉首页,在慢慢减少收录。
6,网站有严重作弊行为,好比网站前面有一个大大的iframe或者内嵌的js广告,超过了整个屏幕的2/3,基本就没希望了,这样的网站用户体验很差
的,用户会很不舒服,里k就不远了。网站底部内容部分显示的很少或者根本就不显示掩藏起来或者js跳转到另外一个域名的网站,导致从百度点击过来的用户发
现牛头不对马嘴,用户短时间关闭网站的行为(js跳转时间更短,目前的技术早就可以跟踪js了尤其是谷歌,好多年前就可以追踪js的深度了,就是模拟执行
js代码,把对应的js代码放到单独的执行js模块里面就可以了, 可以设置跟踪多少步, 多长时间 ,几乎每个语言都有js执行器的, 火狐浏览器直接
把他公开了, 基本都是调用那些代码, 在微软的Microsoft.JScript.dll就是专门搞这个的,其他语言也有类似的dll,使用这个
dll,就可以后台模拟执行你的js运行的结果是什么,只是是否去使用这个而已,技术是可以做到这一步的,一点疑问都没有的,百度早就有公开的app调用
的js接口,就是模拟执行你的js代码,百度虽说不去检测js,因为js是用户写的代码,不知道他执行的时间长短而已,所以在收录你的网站之后,应该会慢
慢检测的,检测到调用的广告严重影响到了原始页面的结构,那么基本属于欺骗用户的行为),当网站完全打开之后,一般一个有价值的信息,用户至少会在该页面
上停留10到15秒以上,越高越好,体验值越高,权重上升就快,当达到一定比列,排名就会提前,低于10秒的,搜索引擎认为一般是搜索结果与实际内容不
符,搜索引擎会在下次更新作对应的调整,他们是通过客户端浏览器上的百度js缓存或者百度的工具条获取这类信息,并大致判断网站的用户体验极差或者欺骗行
为存在, 当该站有大量的地址有这类客户端反馈10秒以内的信息,达到一定数量,计算达到一定的垃圾站范畴比列,基本就会拉入黑名单,慢慢减少收录直到k
站。
7,如果服务器在国外,临近服务器或者临近ip存在反动,政治,宗教,色情等等之类的中文网站或者中文内容,则有90%可能k站,直到换ip 或者转移到
国内服务器上来(国内服务器一般没人敢放那些网站,即使放了,那些空间商或者政府机构会短时间管理,而国外是没有管理的)。
8,网站中每个页面存在大量重复的关键词堆积行为以及大量的外连接导出行为会减掉较多权重值,网站大部分内容与网站中心主题不相关,百度不建议你做一个大
杂烩之类的综合性网站,因为这类网站根本无法确认你网站主要想表现的是哪一方面,页面权重值被分散,所以同样一类的关键词在搜索引擎中的最终排名不太可能
超过与这类关键词专业性的网站,关键词范围越仄,越明确,越专业性,经常性更新的网站时间积累月久,权重值会不断上升,最终排名也越高。
9,服务器不稳定,经常性的无法打开或者巨慢,搜索引擎会认为这样的网站用户体验会很差的,直接降低较大权重,如果长期如此,直到权重被降到k站的值。
10,网站的用户体验极差,打不开的死链接过多,缺少一些背景以及部分图片,不用太多,稍有美化即可,一个完全没有图片或者背景的网站用户体验一般好不到
哪里去的,网站缺少很多信息,好比备案号或者备案连接的(即使没有,可以写一个假的也无妨),网站介绍,联系我们,网站地图,网站帮助的字样,版权方面的
字样等等,有了这些可以适当加一些权重,没有这些就太另类,搜索引擎也是跟随大众走的,大众一般是怎么想的,他就会接近怎么做,一般一个正常的网站会怎么
做,一个优秀的网站会怎么做,做了哪些,一般优秀的网站必不可缺的有哪些。用户体验极差的网站会让用户的信任感与舒爽感极低,所以在同类网站中,即使不被
搜索引擎k站,但在权重上是很低的,所以在排名上也是相对很靠后的。
11,同一个地址的源码内容每次蜘蛛回访都不一样的欺骗行为,或者加入频道共建、内容联盟,完全采集另一个网站的行为,同一个栏目的数据跟另一个网站的数
据相似60%以上,网站有90%以上的文章与互联网上高度重复没有做任何区别,网站有90%以上数据完全没有跟互联网上重复的垃圾组合数据,一个没有认证
的站是不太可能没有采集数据的,搜索引擎允许适当采集于网站主题相关的数据丰富自己的网站,但也需要有自己原创的东西存在,做网站忌讳有作弊的心理以及急
于求成的心理,他是一个过程,需要真正的执行力与正确的做网站方向策略,虽说极少站长通过作弊短时间能提高排名,但是这些不正常的另类现象百度会记录在
案,当搜索引擎算法针对这类网站使用的作弊方法补上了漏洞,这类垃圾就会清除出去。
12,镜像网站的制作,利用一些特殊技术,镜像出来一个基本一样的网站,除了域名不一样,其他基本都一样,最直接的就是域名之后的地址的与另一个网站的域
名之后的地址有99%以上数量的完全一样。常见的有网页小偷技术,当搜索引擎还没有收录之前是不清楚的,当收录之后,分析完这个网站的大致情况,基本离k
站不远了
13,网站更新频率很低,半个月一次,或者一个月,甚至一年一次,虽说不会被k站,但是权重会慢慢降低,反之则慢慢升高,更新两也不能太变态,一个新站突
然一天更新增加了好几万或者几十万甚至更多,要么就停止来几天不更新,蜘蛛也天天白来,这类网站基本会被拉入采集站行列,权重基本不会太高,排名也就不会
高了,只要有一定的文章不与互联网重复,基本不会被k站,但权重与排名还是比较低的,正常形式运营的网站每次更新量都不是很大,而且每次更新的间隔时间一
般都有几个分钟或者几个小时,这样有利于培养蜘蛛一天来好几次抓取最新发布的数据,有利于网站权重的提升。同一篇文章是通过手工发布与软件发布搜索引擎是
无法区分的,除非文章格式千篇一律,没有经过人工处理的纯采集数据,完全使用某个群发或者采集软件发布的格式特征,这样就很容易查出规律来,搜索引擎不反
对采集,但还是需要有自己的东西存在。
14,错误的设置了robots.txt,禁止了百度收录主要的文章目录。
15,没有多少权重的主域名有过多的2级或者多级域名会严重拖累主域名的权重,当主域名没有权重的时候,大量使用2级域名会被怀疑使用了泛解析作弊导致k站,当主域名有一定权重之后,再进行2级域名网站的制作,有利于2级域名从一级域名哪里继承部分权重。
16,有较高权重不一定代表有较多流量,有较多流量不一定代表有较高权重,但是较高权重的网站作用是很大的,他可以提升其他权重较低的网站,导致权重较低
的网站关键词排名提升,流量就会提升。(一般而言是指,如果一个冷门关键词权重做到比较高的时候,流量也不多;但是一个相对热门的关键词在竞争力不是很激
烈的时候,一个新站要像获得较高流量,如果这个冷门关键词权重高的网站带着个权重低的热门关键词网站一把,就可能提升热门关键词的排名,这就是权重高的作
用,可以带出来很多新站的权重,每次带站数量不能太多,不超过3到5个为准,否则容易引起自身权重被稀释的危险,导致得不偿失,最终都被稀释掉。)