如果说“大数据”作为一个新的概念,那就完全是在忽悠;是经理们开拓就业市场的把戏。
对于因特网收集的非“规范”访问记录,这个要怪老印在这个领域的无知胡闹有关。老印缺乏严谨的工程头脑,最初没有把访问记录的收集和储存规范化,结果大家只好将错就错。就此,因特网收集的访问记录,就成了所谓“大数据”一个重要的“非规范”数据组成部分。
如此而已。。。。。。
• 我说的是终于有一天要上,指的是系统,比如说现在用unix甚至window下用大一点的机器都可以处理比较大的数据,但有很多缺陷, -wolikeyou- ♀ (172 bytes) () 03/31/2015 postreply 09:47:59
• 你又被忽悠了。所谓 computation 的方式不同,其实就是基于硬件 -拉兄弟一把- ♂ (1088 bytes) () 03/31/2015 postreply 10:13:25
• 谢谢分享!我不是IT人士,但据我了解,在用SAS从大数据里(TB级别的)提取符合条件的数据,常常要耗上几个小时,更别提model -wolikeyou- ♀ (306 bytes) () 03/31/2015 postreply 11:30:17
• SAS,以及 IBM 的类似产品,还有 SAP,上层表面的东西搞得太多了。这是个主要原因。 -拉兄弟一把- ♂ (1506 bytes) () 03/31/2015 postreply 12:42:36
• 呵呵,我们老板要我搞hadoop,刚开始我就觉得不乐观,结果搞了3年,也没有搞成,现在还是 用PC机处理数据 -wolikeyou- ♀ (1532 bytes) () 03/31/2015 postreply 19:53:44