关于开辟Spark专题


各位大侠好,

我是一个Spark和Docker的爱好者,也是一个菜鸟。但我认为未来五年,docker Hadoop Spark 将成为主流,Hadoop 自不用说,大家很是熟悉。但Spark 今年刚刚进入商业应用,和Docker一样,在疯狂的研发和扩散中。

Spark 1.2 刚刚发布,我想我们能否开个专题,来讨论Spark 1.2,在讨论中顺便翻译和普及基础内容,同时提供我们自身能力。

以上意见仅供参考,不敬之处,见谅!

John
已邀请:

田浩浩 - wizmacau developer

赞同来自:


这个应该有专门做Spark的社区或者论坛来提供

(http://dockerone.com)应该只做Docker以及Docker相关的专题

楼主可以从 Spark Weekly入手
未来如果发现有做Spark的中文网站,我会第一时间通知楼主。

akin520

赞同来自:


如果用spark自带的集群模式,到是很简单,如果加上hadoop之类的话,比较复杂,

DockOne - DockOne官方账号

赞同来自:


您好,感谢您对DockerOne的信任,我们的内容通过标签来组织,如果您想翻译Spark+Docker的内容,可以联系我们,单纯的Spark内容还是到专门的Spark社区最好啦。再次感谢!

John_hyq

赞同来自:


谢谢各位指点

要回复问题请先登录注册