以最简单的方法,做最复杂的测试

WEB测试新说

上一篇 / 下一篇  2009-10-27 22:30:02 / 个人分类:质量命题

WEB应用的发展真是太迅猛了,搜索引擎,WEB2.0,SNS,MiniBlog真是一个接一个,随之带来开发技术,测试技术的变革也是日新月异。曾经坊间流传的各类WEB测试总结文章显然已经不适应这样的发展了,什么链接测试啊,表单测试啊,cookie测试啊,这些对于大多数测试人来说已经是小巫见大巫了,写此文的用意,也是想通过自己的总结,对原先WEB测试的技术做一个补充,将WEB测试放置到一个更高的位置。

1. Track测试
Track是什么,其实很简单,对于互联网的应用,点击率就是命门,那就是说每个应用都需要记录自己的点击率,说细致了,就是重要的链接都需要有自己的点击记录,无论你用的是哪种Track技术,作为测试人员,对于这么重要的测试点怎么能够放过呢。这里需要注意的是Track是否有效:很好理解,是否正确计数嘛;Track是否有合理的区分机制:不同的链接起码要能区别Track;Track的实际意义:毕竟Track本身也是有消耗的,并不是所有链接都Track就可以了

2. Ajax注入测试
现在的网站都大量的使用JS和Ajax技术,当然这里就需要加强注入的测试了,其实这是一个后台处理程序对输入参数的校验严谨性的问题。但是由于Ajax是异步提交的过程,而一般通过页面的黑盒测试又比较难发现此类的BUG,所以对于那些有安全性要求的应用,应当提高这类的测试力度,幸好,我们还有firebug之类好用的工具,来帮助我们完成测试

3. Cache机制的测试
由于对于性能的追求,以及各类缓存架构的层出不穷,缓存机制成为了每个WEB应用不可缺少的架构组成部分。对于缓存的测试无非是有效性的测试,缓存过期的测试,缓存更新的测试等

4. 分布式架构的测试
这个测试范畴就有点大了,对于现在的互联网应用,分布式的架构是解决性能和存储最有效的解决之道,诸如静态文件存储,缓存服务,甚至数据库都有可能是分布式的。对于测试的要求当然也需要涉及到性能,备份,读取等的测试,以保证分布式系统中的同步与离散存储的有效性

5. 爬虫的测试
做互联网,当然是希望google,百度收录的多多益善,而那些盗窃内容的爬虫则被挡在门外了。所以这也是一种新型的安全性测试,可能涉及到系统防火墙的测试,白名单爬虫稳定率的测试等。当然其实像google webmaster这类工具,还能反过来对我们的测试提供有效的测试数据,像外链的质量和链接有效性等

6. 搜索引擎的测试
对于有搜索服务的网站而言,这是避不开的一个测试点。比如索引建立的测试,索引更新的测试,搜索结果,纠错词,提示词这些都不能忽视。并且搜索服务又往往和缓存机制有千丝万缕的联系,所以对于测试的要求也是复核性的

7. API的测试
对于互联网提供的各种API,除了功能的测试外,特别需要注意安全性和性能的测试


TAG:

 

评分:0

我来说两句

日历

« 2024-03-10  
     12
3456789
10111213141516
17181920212223
24252627282930
31      

数据统计

  • 访问量: 10449
  • 日志数: 14
  • 建立时间: 2008-12-24
  • 更新时间: 2010-05-10

RSS订阅

Open Toolbar