善用光年日志分析工具,做SEO不犯蒙

seo0118

善用光年日志分析工具,做SEO不犯蒙,第1张

 首先,光年日志的下载与安装

光年日志的下载源比较多,随便一搜都能找到。只要将下载后的文件解压,然后点击光年日志的启动文件(GnAnalyzer.exe)即可开始使用。

说明:在开始使用之前,还必须从网站服务器中下载服务器日志文件,一般是存LOG、logs、weblogs等文件玩夹中,下载后的文件名后缀是以.log结尾,每个服务器可能不一样,具体咨询服务器供应商。

现在就可以新建日志分析任务了。操作也很简单,点击左上角新建--下一步--添加文件--开始分析,即可在数秒内完成日志分析。分析结果是以.htm结尾的静态文件。

软件分析完毕后会自动弹出结果页,左侧有内容列表,右侧是分析报表细节,如下:

以上就是光年日志的基本操作,到了这一步,看不懂不要紧,只要多点击测试几下就会明白其中的意思了。以上图为例就可以看到蜘蛛爬行网站的时间和次数,具体一点的还可以看到各个页面的访问时间。光年日志可以提供访客信息和搜索引擎信息。

这些数据对SEO站长来说是很有意义的。我们可以根据分析结果改进和优化网站,比如说上面蜘蛛访问次数如果偏低,说明网页内容质量偏低,或者蜘蛛没有入口进入网站,适当的改善内容和外链引导可增加蜘蛛的访问次数,加快内容收录等。

另外,光年日志还可以查看蜘蛛状态码,当网站404状态码太多时,会降低搜索引擎对网站的信任度,比如我的网站刚改版,404状态码比较多,这时应该及时在站长平台提交死链,做好ROBOTS,这样过段时间蜘蛛就不会访问这些死链了,也不会影响网站的排名。

以上只是光年日志分析网站数据的一部分,在使用方法上,还可以将日志进行拆分,比如按搜索引擎拆分,按状态码拆分,多条件拆分,反正功能强大,数据丰富,对SEO站长来说是不可多得的优秀分析工具。

您好,很高兴为您解答。

作为SEOer,我们使用的各种各样的工具,以收集各式各样的技术问题,网站分析,抓取诊断,百度站长工具等。所有这些工具是有用的,但都无法比拟在网站日志数据分析搜索引擎蜘蛛抓取,就像Googlebot到爬取您的网站并您的网站上留下了一个真实的记录。这是网络服务器日志。日志是一个强大的源数据经常没有得到充分利用,但有助于保持您的网站的搜索引擎抓取检查的完整性。

服务器日志是由一个特定的服务器进行详细记录了每一个动作。在一个Web服务器的情况下,你可以得到很多有用的信息。如何检索和分析日志文件,并根据您的服务器的响应代码(404,302,500等)的识别问题。我将它分解成2个部分,每个部分突出不同的问题,可以发现在您的Web服务器日志

一、获取日志文件

搜索引擎抓取网站信息必会在服务器上留下信息,这个信息就在网站日志文件里。我们通过日志可以了解搜索引擎的访问情况,一般通过主机服务商开通日志功能,再通过FTP访问网站的根目录,在根目录下可以看到一个log或者weblog文件夹,这里面就是日志文件,我们把这个日志文件下载下来,用记事本(或浏览器)打开就可以看到网站日志的内容。那么到底这个日志里面隐藏了什么玄机呢?其实日志文件就像飞机上的黑匣子。我们可以通过这个日志了解很多信息,那么到底这个日志给我们传递了什么内容呢?下面先做一个简单的说明。

日期:这将让你一天搜索引擎抓取速度的发展趋势进行分析。

被爬取文件:这将告诉你哪些被抓取的目录和文件,并在某些路段或类型的内容可以帮助查明问题。

状态码:(只列出常见到并能直接反正网站问题的状态码)

200状态码:请求已成功,请求所希望的响应头或数据体将随此响应返回。

302状态码:请求的资源现在临时从不同的URI响应请求。

404状态码:请求失败,请求所希望得到的资源未被在服务器上发现。

500状态码:服务器遇到了一个未曾预料的状况,导致了它无法完成对请求的处理。

- - 提供了哪些网页被爬虫运行到并反应出什么样的问题。

从哪里来:虽然这不一定是有用的分析搜索机器人,它是非常有价值的,其他的流量分析。

哪种爬虫:这个会告诉你哪个搜索引擎爬虫在你的网页上运行的。

二、解析网站日志文件

现在你需要一个日志分析工具,因为如果你的网站有几M或几十M甚至百M以上的日志数据时,你不可能一条条去看。再说,就算日志数据不多,一条条看也是不科学的。这里用光年seo日志分析工具为大家做个例子。

1.导入文件到您解析软件。

2.分析网站日志及时发现出现的问题

搜索引擎抓取您的网站有最快的方式是看在正在服务的服务器响应代码。404(找不到页面)可能意味着抓取那珍贵的资源被浪费了;302重定向请求的资源现在临时从不同的URI响应请求;500是服务器遇到了一个未曾预料的状况,导致了它无法完成对请求的处理,可以分析出服务器出现的问题。虽然网站管理工具提供了一些信息,这样的错误,会给你的网站造成一个非常大的影响。

分析的第一步是从您的日志数据,通过光年seo日志分析工具以产生一个数据表。在最基本的层面上,让我们看看哪些搜索引擎的爬虫在爬行这个网站:

通过报表我们想几个问题:

a.雅虎蜘蛛总抓取量占了全部的47.12%;那么我从流量统计器看到。没有一个流量是从雅虎搜索引擎过来的。那么这个蜘蛛可不可以禁止他再来访问呢?

b.百度蜘蛛(BaiDu Spider )的访问次数、停留的时间、总抓取量反应了什么呢?

c.其它搜索引擎的蜘蛛的访问次数、停留的时间、总抓取量那么少的原因是什么呢?有没有改善的方法呢?

接下来,让我们来看看在蜘蛛状态码分析,我们最关心的问题。

这是只显示这个日志有问题的蜘蛛状态码,而已正常200将不被分析。我们将要细看这个表格。总体而言,好到坏的比例看起来很健康,但有一些个别的问题让我们尝试弄清楚这是怎么回事。

302出现的问题数量是可以接受的,但是不代表可以放着不去处理,我们应该有更好的方法来处理这些问题,也许用一个robots.txt指令应排除这些页面被抓取。

404的出现达到109个。在几万的抓取量来说。网站的这个数据也算是可以的。但是也需要解决,找出潜在的问题是隔离404目录或者使用rel =”nofollow”注释这些404链接。当然404的页面也必须要有。

如若满意,请点击右侧【采纳答案】,如若还有问题,请点击【追问】

希望我的回答对您有所帮助,望采纳!

                                                                                                                            ~ O(∩_∩)O~

工具/原料

网站服务器、运行中网站

网站日志分析工具、FTP工具

网站日志查看流程

登录虚拟主机的管理系统(本经验以万网为例),输入主机的账号以及密码,登陆。操作如下所示:

登录系统后台,找到"网站文件管理"中的"weblog日志下载",并点击。操作如下图所示:

点击"weblog日志下载",可以看到很多以"ex"+时间命名的压缩文件可以下载。选择所需要下载的网站日志,点击下载。操作如下所示:

登录FTP工具,在根目录下找到"wwwlogs"文件,下载所需的压缩文件。注意:不同程序,日志存放目录不一样。操作如下图所示:

网上有很多日志分析软件,本经验以"光年seo日志分析系统"这款软件为例子,点击"新建分析任务"。操作如下图所示:

在"任务导向"中,按照实际要求改任务名以及日志类别。一般情况下可以不用修改。点击系下一步,操作如下图所示:

接着上一步,在"任务导向"中添加所需要分析的网站日志(也就是本经验第三步下载的文件),添加文件可以是一个或者多个。点击系下一步,操作如下图所示:

接着上一步,在"任务导向"中选择报告保存目录。点击系下一步,操作如下图所示:

完成之后,软件会生成一件文件夹,包含一个"报告"网页以及"files"文件,点击"报告"网页就可以查看网站日志数据了。