对于数据贮存量、提取及计算速度而设计的不同算法和表现法。然而算法 (algorithms) 的不同,那是有史以来一直这样的,不是吗?比如SAS 有它的一套 computation 的路数,IBM 也有它自己的,SAP 就更不用说了。你也可以有自己的一套模型对付常规问题。
还要说 Computation 有什么不同,可能也就是过去由于计算速度而提取的 sample data 有限(计算速度,估计从来就不是个问题,因为有相对性),而现在的 sample data 可以一下提取很大,提高了“窥测”insights 的准确性。
还有一个可能的不同,就又要怪老印了。估计就是因为老印没有工程头脑,就一股脑儿地把分析和结果之间的所有对数据的逻辑分类模型和计算,等等步续全都给省去了,然后就发明一个“大数据”来忽悠蒙混大家。
看看是谁在鼓吹 “大数据”就知道了。不是有势力的老印自己,就是跟老印关系密切的老白!
你又被忽悠了。所谓 computation 的方式不同,其实就是基于硬件
所有跟帖:
•
谢谢分享!我不是IT人士,但据我了解,在用SAS从大数据里(TB级别的)提取符合条件的数据,常常要耗上几个小时,更别提model
-wolikeyou-
♀
(306 bytes)
()
03/31/2015 postreply
11:30:17
•
SAS,以及 IBM 的类似产品,还有 SAP,上层表面的东西搞得太多了。这是个主要原因。
-拉兄弟一把-
♂
(1506 bytes)
()
03/31/2015 postreply
12:42:36
•
呵呵,我们老板要我搞hadoop,刚开始我就觉得不乐观,结果搞了3年,也没有搞成,现在还是 用PC机处理数据
-wolikeyou-
♀
(1532 bytes)
()
03/31/2015 postreply
19:53:44