插入6千万行数据进入一个表,Cassandra需2小时,同样条件插入MYSQL需要36小时,完全不是一个级别的.

来源: 望乡 2014-11-20 20:07:55 [] [旧帖] [给我悄悄话] 本文已被阅读: 次 (0 bytes)
本文内容已被 [ 望乡 ] 在 2014-11-20 20:13:20 编辑过。如有问题,请报告版主或论坛管理删除.

所有跟帖: 

大数据真的只适用于新型的应用,TB级的数据,用户在线等结果。Relational DB没法承担。Spark很好 -easycity- 给 easycity 发送悄悄话 (267 bytes) () 11/20/2014 postreply 20:53:43

在SPARK面前,HADOOP的MR太繁杂,效率太低,远比上SPARK的线程操作。 -望乡- 给 望乡 发送悄悄话 (0 bytes) () 11/20/2014 postreply 21:01:07

Spark比MapReduce快30到100倍。伯克利的作者成了MIT教授。推荐他的博士论文,写得太棒了 -easycity- 给 easycity 发送悄悄话 (74 bytes) () 11/20/2014 postreply 21:08:18

这是真正的大牛之一。在美华人不要多提印度人,有雄心就照着Spark作者Zaharia去干。 -easycity- 给 easycity 发送悄悄话 (0 bytes) () 11/20/2014 postreply 21:10:14

对!罗马尼亚的加拿大籍小伙子,相当牛,老中应该学习之。 -望乡- 给 望乡 发送悄悄话 (0 bytes) () 11/20/2014 postreply 21:20:32

2小时vs36小时,不可完成的使命 -85858585- 给 85858585 发送悄悄话 (0 bytes) () 11/25/2014 postreply 23:54:35

请您先登陆,再发跟帖!

发现Adblock插件

如要继续浏览
请支持本站 请务必在本站关闭Adblock

关闭Adblock后 请点击

请参考如何关闭Adblock

安装Adblock plus用户请点击浏览器图标
选择“Disable on www.wenxuecity.com”

安装Adblock用户请点击图标
选择“don't run on pages on this domain”