Spark安装-Standalone模式


机器准备

准备两台以上linux服务器,安装好JDK1.8

下载Spark安装包

下载地址


解压安装包到指定目录

配置Spark【Standalone】

Spark 的部署模式有 Local、Local-Cluster、Standalone、Yarn、Mesos,我们选择最具代表性的 Standalone 集群部署模式。

进入到Spark安装目录

  1. 将conf目录下的slaves.template复制为slaves,将slave节点的主机名写入
  2. 将conf目录下的spark.env.sh.template复制为spark.env.sh,编写SPARK.MASTER.HOST SPARK.MASTER.PORT
  3. 将整个目录分发到slave节点上
  4. 在master节点上执行sbin/start-all.sh启动整个集群
  5. 通过http://lmaster:8080来访问spark的http界面,注意之前设置的PORT是服务端口号

测试一下,进入spark-shell执行以下wordcount

#$bin/spark-shell --master spark://namenode:7077
scala>sc.textFile("./LICENSE").flatMap(_.split(" "))map((_,1)).reduceByKey(_+_).collect


注意!

本站转载的文章为个人学习借鉴使用,本站对版权不负任何法律责任。如果侵犯了您的隐私权益,请联系我们删除。



 
© 2014-2019 ITdaan.com 粤ICP备14056181号