时间:2023-03-08 06:48:01 | 来源:电子商务
时间:2023-03-08 06:48:01 来源:电子商务
(1)查找是否有黑链出现——从日志分析,百度蜘蛛抓取了网站的哪些预期外的页面,是否存在黑链。(这个可能要先卖个关子,因为这又是个大工程啦,本期专题会提到一些)
(2)百度站长工具外链分析——查看是否有垃圾外链、黑链等,以及链向的站内什么地方,如何处理。(本期里面也有所涉及)
(3)百度站长工具链接分析——三大死链(内链死链、链出死链、链入死链),批量下载数据,合并数据,excel操作,按逻辑分类,定位问题,处理问题。(定位和处理,材料不够,因为好多已经处理过了,没有材料了= =|||||)
(4)从分析这些数据,得到的与SEO效果相关的其他信息(垃圾搜索引擎、垃圾外链带来的无用抓取,浪费资源配额,如何拒绝。)
(5)如何自动化地使用shell脚本,定位到被百度蜘蛛抓取到的死链,并进行复查,然后将确定为死链的URL进行自动化提交。(本期专题内容太多,留作下期专题用)
(6)分析工具介绍(firefox设置,插件,excel,windows命令提示符批处理)
结合本文,你也许能学会一些新姿势,比如:
(1)批量下载百度站长工具中的表格数据(活学活用地去下载其他网站的一些东西,只要你喜欢。比如5118什么的。5118的站长会不会打我呀?)
(2)合并一些常见的文档,比如txt、csv之类的文本,方便数据分析和处理。
(3)分析死链数据、定位问题的一点基本思路
本专题中主要使用到的工具:
(只是结合例子中,如果有其他相似功能的工具,请结合自身习惯使用即可)
【浏览器】火狐(Firefox)浏览器,版本无所谓
【插件】:Launch Clipboard
功能:一键打开剪切板中存在的URL。(注意URL中只能有英文数字标点,如果有中文可能无法被识别)。快捷键:alt + shift +K(先复制好单个或者多个URL)
设置:打开选项设置,选择好下载文件自动保存的位置(我这里选择了桌面,你也可以单独创建一个文件夹,好对批量下载的文件进行归类)
【表格处理】:Microsoft Office 2013 Excel
【文本处理】:Notepad++
【批量处理】:Windows自带命令提示符
本期专题配合视频的讲解流程:
来到百度站长工具链接分析。我们看到有两大板块,死链分析与外链分析。
一、我们可以先看一下外链分析。
分析外链数据的主要目的是,找出垃圾外链,主动去封堵垃圾外链可能对网站造成的恶劣影响。最终目标:1、找到垃圾外链的域名,进行防盗链处理(针对来源为垃圾域名的,直接返回404状态码);2、处理站内可能存在问题的页面。
这里,我会重点讲解第一点;第二点比较简单,我会讲解得比较粗略。
1、定位出垃圾域名。
图注:可以看到这是一个明显不正常的趋势图
我们可以下载外链数据,来进行初步分析。
图注:下载得到的表格文件(csv逗号分隔符)
但是这样一份原始数据,是很难进行分析的。因此我们需要按照一定逻辑对其进行分析——就是按照【被链接的网页url】进行分类。
首先,我们可以快速浏览一下,进行直观判断,这些页面大部分是什么页面呢?
针对我们网站的情况来说,外链数据分为两类,正常外链与垃圾外链。
而垃圾外链又分为两种:站内搜索结果页面(垃圾搜索词)以及被黑客入侵植入的黑链(已经处理为死链)。
我们进行数据处理的目的有两个:识别出哪些是正常外链,哪些是垃圾外链,并根据垃圾外链的相关数据,进行一些处理,保护好网站;并且需要使被垃圾链接指向的页面,不被搜索引擎抓取(浪费抓取资源配额)以及被收录/索引(保证网站词库不受污染,不为网站带来形象与关键词方面的负面影响)。
第一步,筛选出网站的搜索结果页面
图注:筛选数据、复制到新的sheet中,删除原始sheet中的筛选数据,来分类数据
还有几类搜索链接格式,都以相同方式进行处理。
然后把原始sheet中剩下的数据进行去重(空白行),得到剩余的链接信息。
图注:对剩余数据进行简单的去重处理。
然后,我们需要对黑链进行筛选。黑链的数据,一般需要先从网站日志中分析得到(这样是最全面的,为了保证效率,会需要使用到shell脚本来自动运行,但是涉及篇幅过多,我将在以后的专题中进行讲解)。
当然也可以对表格中【被链接的网页url】这一列按照顺序排序后,挨着分析得到(自己去打开,同时黑客会使用一些特殊手段,妨碍我们去识别真正的会被搜索引擎识别到的垃圾内容,最常见的情况就是,使用js跳转。这样我们通过浏览器访问时,会看到完全不一样的内容,而搜索引擎抓取时,则下载到了垃圾内容。)
这时,我们需要使用一款firefox插件【No Script】,旨在屏蔽网站上的js,看到与搜索引擎类似的内容。
图注:屏蔽浏览器中java script的插件
另外还有一种不是很靠谱的甄选方法,在搜索引擎里面去搜:【site:域名 *】之类的关键词,把不符合网站预期的关键词拿去搜,就可以得到很多链接了。(这里需要使用一些方法,把链接全都批量导出,在今后的专题中,我会继续讲解的)
筛选过程我就只能省略啦,可以结合视频看一看。
图注:筛选出来的网站黑链
我们之所以要这么辛苦地找出垃圾外链,目的就是要把这些垃圾外链的域名记录下来,避免这些垃圾域名被黑客重复利用,拿去制作新的垃圾链接,从而在第一时间拒绝掉这些垃圾外链,使百度蜘蛛从垃圾外链访问我们网站上内容时,无法获取到任何信息(也就是返回404状态码,被识别成死链),久而久之,这些垃圾域名的权重就会越来越低(因为导出了死链,影响搜索引擎的正常抓取工作),这样我们不仅保护了自己,也惩罚了敌人。
具体方法是,把垃圾页面找出来——从搜索结果页面和黑链的两个sheet中,把外链页面整合到一起。如sheet3所示。
图注:合并垃圾外链页面
接下来的处理会使用到一款小工具,来快速获取这些链接的主域名。
图注:将链接复制到左边红框里,点击本地提取,就会出现在右侧红框
如此一来,我们就得到了这些垃圾外链页面的主域名,我们只需要在我们服务器上配置一下防盗链,禁止refer(来源)为这些域名的访问(返回404http状态码)即可。
2、从站内对搜索结果页面进行处理(黑链处理我保留在下一次专题,因为要大量结合linux的shell脚本):
权重比较高的网站的站内搜索,一定要注意antispam(反垃圾)。如果不加以防范的话,一旦被黑客利用,那么可能会造成大量搜索页面被百度抓取,黑客利用高权重网站的资源,快速做好黄赌毒行业的关键词排名。但是这对于我们网站来说,则是噩梦般的打击。不作处理的话,可能会导致如下几方面的问题:浪费大量的蜘蛛抓取配额,去抓取垃圾页面;垃圾页面被搜索引擎收录,网站词库被黑客污染,使得网站的行业词和品牌词排名不理想;对网站形象造成损失……等。
在进行这类反垃圾策略的时候,我们需要关注四个方面:站内用户可以正常使用;不允许搜索引擎抓取这类页面;拒绝垃圾外链的访问;页面上不得出现垃圾关键词。
既然有了明确的目标,那么相应的应对方案也就出来了,那就是:
A 限制来源,拒绝掉所有非站内来源的搜索
B 页面上的TKD等关键位置,不对搜索词进行调用
C 指定敏感词库过滤规则,将敏感词全部替换为星号*(有一定技术开发要求)
D 在robots.txt声明,不允许抓取
E 在页面源代码head区间添加meta robots信息,声明该页面不允许建立索引(noindex)
进行以上处理,可以解决掉大部分站内搜索页面(不局限于该类页面,甚至其他的页面只要不希望搜索引擎抓取以及建立索引的话,都可以这样处理)容易出现的问题。
二、我们再来看一下死链分析。
死链,在站长工具的死链提交工具的帮助文档中已经有详尽的阐释,我仅仅进行一些补充即可。
死链一般有如下几种:内部死链、外部死链。
内部死链,就是我们网站上出现的,由于种种原因使得百度蜘蛛抓取链接时,无法获取到内容而被识别的死链。大部分情况下,对于我们来说,这种死链是可以通过一些方式进行避免的,因此是可控的。同时,由于链向死链的页面,都是我们网站上的页面,并且链出了死链的页面,对搜索引擎非常不友好,所以不及时处理的话,极有可能使搜索引擎无法顺利地对网站上有价值页面进行抓取,从而间接导致“局部降权”(抓取一些页面的周期变得越来越长,快照更新缓慢,排名上不去之类)。
内部死链问题比较严重,所以应当优先处理内部的死链。
而我们可以放慢地百度站长工具中获取死链数据,并按照一定逻辑方式进行整理和划分,定位问题,接下来我将围绕进行死链数据分析进行讲解。
通过在页面上对死链信息进行预览,谁都会,我就不需要过多说明了。而死链问题,不需要每天都去下载表格进行分析,而只需要每天大致看一下数据,是否有突然出现的死链,找到原因并处理(一般大范围出现,比较容易被察觉到,也是需要紧急处理的);其次我们需要定期进行一次较为彻底的死链数据分析,看看是否有平时没有关注到的死链问题(一般出现范围小,会比较难以察觉,但是任由其长期发展下去的话,可能会造成大问题)。
图注:一般突然出现的大量死链,很容易被察觉,也比较好确定原因
图注:这是早期定位到的问题,虽然提交了处理建议,但被程序员忽视掉,然后在最近突然爆发出来,因此即使小问题,也应当引起足够重视(由于发生后处理及时,没有出现过于严重的问题)
接下来,我来简单说一下,批量下载百度站长工具中的死链数据,以及合并数据进行统一处理。
内链死链(子域名A指向子域名A)和链出死链(子域名A指向子域名BCD……),一般来说比较容易分析,我们来针对链入死链(子域名BCD……指向子域名A)来进行一些批量处理吧。
图注:可以对数据进行下载,格式为csv(逗号分隔符),可以方便地使用excel进行处理
;并且下方有官方的帮助文档。
到这里,你可以试着点击【下载数据】,这样火狐浏览器就会自动把文件下载到你设置好的位置。
这里告诉大家一个小技巧,可以点击下载列表中的对应文件,复制下载链接,然后粘贴出来。
相信长得帅的朋友已经看出来了,site=就是指定你的网站域名,而day=2016-02-30就是指定你需要的日期了。type=3就是指定下载【链入死链】的数据,而type=2是链出死链,type=1是内链死链。而其他参数不需要做过多了解。
脑洞大开的朋友一定会想,如果我把日期参数做一下处理,是不是能够批量地直接下载这些文件了呢?没错,可以的。这里你需要借助一下excel强大的功能。
先手动做好两行URL,然后选中,左键按住从右下角,往下拉你就发现excel已经自动帮你对URL进行了补完。非常方便。
松开左键,就得到了想要的结果
然后,你就可以复制下这些URL,然后到火狐浏览器中,用我们之前安装好的Launch Clipboard插件,使用其快捷键alt + shift +K批量打开上图中的链接,然后我们的火狐浏览器就会自动把这些文件下载存储到我们指定好的位置。
来,我们看一看收获的成果吧:
好像还可以的样子哦?但是,这么多表格难道要我一个一个地打开吗?
当然不。我们来看一看某一个表格长什么样子吧。看到了吗?这里有记录时间的。
也就是说,如果我们能想办法把这些文件都合并起来的话,也是有办法区分日期的。
好吧,说干就干。
(1)打开你的命令提示符:Windows + R,输入cmd,回车
(2)在命令提示符中,输入cd再敲入空格,再到保存csv文件的位置,去把文件夹整个拖拽到命令提示符中,即可自动补完路径。
如果不输入cd空格的话,会报错,如下图。(cd的意思是跳转目录到指定目录)
当成功后,你就可以把csv文件都合并起来啦,输入命令:
copy *.csv../ok.csv
意思是,拷贝出所有以后缀名为csv的文件,输出到上一级目录下的ok.csv文件中。
这样就完成了合并。
我们打开ok.csv看看?接下来就可以进行简单的去重处理。
图注:简单去重后,我们依然可以大致浏览一下。
我们发现,死链前链中,有许多来自于不同域名的相似目录下的页面。我们不妨把这些页面单独存起来。
图注:筛选出所有zx123.cn子域名下包含xiaoqu目录的页面
然后我们发现,还有一些包含baidu.com/的页面,这些页面一般是经过推送数据来进行抓取的,所以也暂时分类到一边。
图注:百度的抓取数据
剩下的数据中,还剩下外部死链,而外部死链中还包含一些垃圾链接,我们需要把这些垃圾链接找出来。
图注:按照死链链接排序
把垃圾死链也单独归为一类,剩下的就是真正的外链死链了。
图注:检验成果的时候到啦。
我们把数据按照一定逻辑关系分成了四类,分别是【外部死链】【垃圾链接】【百度】【子域名(也属于内部死链)】
我们需要重点关注的是,【子域名】出现的死链。因为子域名也是我们的网站的一部分啊,这些页面上出现了死链,势必对这些页面的SEO效果不利,需要尽快明确原因。
经过与技术部门沟通,我确认到该类问题出现的原因,主要是我们网站的服务器之间同步数据时不成功,或者服务器之间连接偶然断开所致。这类问题暂时难以避免,因此只能让技术人员将因为这种情况出现的404(永久不可访问)状态码改为返回503(临时不可访问)状态码了。
而【百度】出现的死链,理由和上面的一致。只不过蜘蛛的抓取渠道,是来自于主动推送方式。返回503状态码后,情况有所改善。
【垃圾链接】,我已经在外链分析中做出过一定程度的说明了,可以参考一下。
【外部死链】,这个其实可以不必过于关注,会受到死链影响的不是我们网站,而是导出了死链的网站。但是有时候分析看看,总能发现一些有趣的现象。
比方说,我现在看到的数据的共性是,死链链接都不完整,要么中间用点号来省略了,要么尾部被强行截断了。我们打开死链前链,发现死链链接是作为明链接(无锚文本)出现在页面上。而死链前链的页面,大多数都类似于搜索引擎结果页面,并且这些结果页面上对锚链接都以nofollow进行了控制。
图注:这些都是垃圾搜索引擎,目的是抓取其他网站的信息为己所用,制造垃圾站群
可以看出,【垃圾链接】和【外链死链】中的大部分,依然也是抱着恶意目的而来的。这时候我们可能就需要考虑,使用反爬虫策略,来禁止一些垃圾搜索引擎对我们网站进行恣意妄为的抓取行为了。(关于反爬虫策略专题,我将来也打算尝试一下)
好啦,这期的内容差不多就是这样,我们来总结一下吧。
(1)分析链接数据的目的:保证搜索引擎对网站正常抓取和索引;防止被恶意人士利用而受到损失。
(2)分析链接数据的手段:一些工具,再加上简单的逻辑。
(3)养成良好工作习惯与意识:每天大致关注一下这些数据,定期仔细分析一下数据,对这些环节有控制地进行操作。
关键词:定位,利用,长工,分析