如果说“大数据”作为一个新的概念,那就完全是在忽悠;是经理们开拓就业市场的把戏。
对于因特网收集的非“规范”访问记录,这个要怪老印在这个领域的无知胡闹有关。老印缺乏严谨的工程头脑,最初没有把访问记录的收集和储存规范化,结果大家只好将错就错。就此,因特网收集的访问记录,就成了所谓“大数据”一个重要的“非规范”数据组成部分。
如此而已。。。。。。
•
我说的是终于有一天要上,指的是系统,比如说现在用unix甚至window下用大一点的机器都可以处理比较大的数据,但有很多缺陷,
-wolikeyou-
♀
(172 bytes)
()
03/31/2015 postreply
09:47:59
•
你又被忽悠了。所谓 computation 的方式不同,其实就是基于硬件
-拉兄弟一把-
♂
(1088 bytes)
()
03/31/2015 postreply
10:13:25
•
谢谢分享!我不是IT人士,但据我了解,在用SAS从大数据里(TB级别的)提取符合条件的数据,常常要耗上几个小时,更别提model
-wolikeyou-
♀
(306 bytes)
()
03/31/2015 postreply
11:30:17
•
SAS,以及 IBM 的类似产品,还有 SAP,上层表面的东西搞得太多了。这是个主要原因。
-拉兄弟一把-
♂
(1506 bytes)
()
03/31/2015 postreply
12:42:36
•
呵呵,我们老板要我搞hadoop,刚开始我就觉得不乐观,结果搞了3年,也没有搞成,现在还是 用PC机处理数据
-wolikeyou-
♀
(1532 bytes)
()
03/31/2015 postreply
19:53:44