网站分析工具数据收集
时间:2023-06-22 11:18:01 | 来源:营销百科
时间:2023-06-22 11:18:01 来源:营销百科
网站分析工具数据收集:
Web服务器日志市面上各家网页服务器自发展初随时都会纪录其所有的交易于一个日志档里头。这种特性不久就被网管意识到可以透过软件读取它,以提供网页流行度的相关资料;从而造成网站日志分析软件的兴起。
90年代早期,网站统计资料仅是简单的客户端对网站服务器请求 (或者访问) 的记数值。一开始这是挺合理的方法,因为每个网站通常只有单一个 HTML 档案。然而,随着图形进入 HTML 标准,以及网站扩增至多重 HTML 档案,这种记数变得没什么帮助。最早真正的商用日志分析器于1994年由 IPRO 发行。
90年代中期,两种计量单位被引入以更准确的估计人类于网站服务器上的活动总数。它们是网页点阅数(Page Views) 以及访问量(Visits,或者节区(Session))。一次的网页点阅数定义为客户端对服务器提出某单一网页读取请求,恰好为对某一图形请求的相反;而一次的访问量则定义为来自于某一唯一已识别的客户端对服务器一连串请求直到闲置一段时间──通常为30分钟──为止。网页点阅数与访问量仍旧在报告上十分常见,不过现今它们被当作是过于简单的量度。
90年代末期,随着网络蜘蛛与机器人问世,伴随着大型企业以及互联网服务提供商使用代理服务器与动态指定IP地址,鉴别某网站单一访客变得更困难。对此,日志分析器以指定Cookie作为追踪访问量的对策,并忽略已知的蜘蛛机器人的读取请求。
网页快取的广泛使用也造成日志分析上的问题。如果某人再度造访某页,第二次的读取请求通常由网页浏览器快取达成,因此网站服务器端不会接受到此请求。这意味着该访问者浏览过该站的'足迹'丢失。快取与否可于设定网站服务器时克服,不过这可能导致降低该网站的效能。
JavaScript标记由于对日志档案分析于快取存在下准确性的关注,以及渴望能实现把网站分析当作是种外包的服务,导致第二种资料收集方法:加网页标签,或称网虫(Web bug) 的出现。
90年代中期,网页计数器已经普及──这些计数器以包含在网页中的图像出现,显示多少次该图像被读取过。而图像内容就是显示大约该页被拜访次数的数目。90年代晚期,这种做法延伸至包括一个微小不可见图像,而非可见的。并且,透过 JavaScript,图像请求的某些关于网页和访客的讯息被传递到第三方服务器方。这些资料随后被网站分析公司处理并产生详细的统计资料。
网站分析服务也代管指定cookie到使用者的过程。这种方式可以鉴别各个唯一访客初次以及随后的拜访。
随着Ajax为主解决方案普及,一种利用不可见图像的替代方案实现了从读取页面'回电'服务器的机制。在这个情况下,当某网页被网页浏览器读取,该页某部分Ajax 代码将致电回服务器并递送有关用户端的资讯,随后被送到网站分析公司做汇整。这在某些方面还是有漏洞,因为某些浏览器限定哪种XmlHttpRequest物件可与服务器联系。