首页 > 安全 > 诺顿事件的深层思考

诺顿事件的深层思考

不想在这个时候再炒这个冷饭,不过觉得还是有些话要说,原因是今天得到的一组数据。

今天下午会议上面听到公司某高层给出的数据,说现在病毒实验室每天能够收到超过2000个的病毒样本,最多的时候能够达到5000个。每天2000个病毒样本,这是个什么概念?如果所有的工作都要人工完成,假设我们有600个病毒分析工程师,每天工作8小时,三班倒制度,每班200个病毒分析师同时工作,那么每个病毒分析师需要在48分钟之内完成一个病毒码的分析验证和测试。本来48分钟出病毒码是只有对于VIP用户才有的待遇,但是现在却成了一种当务之急:这么多的样本逼迫着你去完成这项工作。

为了解决这个问题,根据赛门铁克所说,他们采用了某种自动化的手段,但是这个工具出了点故障,导致了误判。自动化工具也许能够缓解这种问题,但是也会带来更深层次的问题:以每天2000个病毒样本的速度增加,病毒码本身的大小将会以极快的速度增大。开源的clamWin今天的病毒码文件大小已经达到了10M,而加载进入内存之后的大小将达到60MB+,而趋势的病毒码也早就超过了30M。明年这个时候,恐怕已经没有哪台计算机有能力运行反病毒软件了。

这个背后所反映的,其实是这个时代的一个主要矛盾:爆炸性增长的信息量和无法同步增长的计算能力之间的矛盾。计算能力的第一层限制使人的头脑的处理能力的限制,所以才有了很多计算机辅助的方案,比如帮助用户寻找信息(搜索),帮助用户过滤不需要的信息(垃圾信息过滤),直至帮助用户过滤不需要的行为(防病毒)。所有这些东西的发展都是因为信息已经多到了任何人都搞不定的情况了。但是现在又有了更多一层的限制:信息爆炸到了单个计算机的处理能力也逐渐成为了限制——信息的发展速度已经超过了摩尔定律。在这种情况下面,如何存储和处理这些信息业成为了一个新的课题。Google的成功,很重要的一点就是掌握了存储和处理海量的数据的手段。

那么,这种环境下面的安全,我们应该怎么办?传统的扫描模式已经走到了尽头,接下来的,是什么?

标签:
  1. 本文目前尚无任何评论.
  1. 本文目前尚无任何 trackbacks 和 pingbacks.