Hadoop生态Spark学习笔记一关于Spark定义:Spark是一个用来实现快速而通用的集群计算的平台。一个大一统的软件栈。 组件: 阅读更多…由Kael Wang,10 年2016-07-12 前