①cpconf/zoo_sample.cfg conf/zoo.cfg
②修改zoo.cfg中的
dataDir=**/zookeeper-3.4.6/data dataLogDir=**/zookeeper-3.4.6/logs #这是三台zookeeper集群的名称端口号 server.0= master:2888:3888 server.1= slave1:2888:3888 server.2= slave2:2888:3888 |
③进入data,创建myid,设置myid里的值0(对应conf中的serve.0)
echo 0>myid
其他机器切记修改myid
三台机器分别启动(不分前后)
bin]$zkServer.sh start (该shell命令需要传入参数)
启动成功后,jps显示QuorumpeerMain
export JAVA_HOME=/usr/java/jdk1.8.0_20/ export SCALA_HOME=/home/iespark/hadoop_program_files/scala-2.10.6/ export HADOOP_HOME=/home/iespark/hadoop_program_files/hadoop-2.6.0 export HADOOP_CONF_DIR=/home/iespark/hadoop_program_files/hadoop-2.6.0/etc/hadoop #export SPARK_MASTER_IP=hadoop5(设置了zookeeper这行不用了,注释掉) export SPARK_DAEMON_JAVA_OPTS=”-Dspark.deploy.recoveryMode=ZOOKEEPER -Dspark.deploy.zookeeper.url=master:2181,slave1:2181,slave2:2181 –Dspark.deploy.zookeeper.dir=/spark” export SPARK_WORKER_MEMORY=2g export SPARK_EXECUTOR_MEMORY=2g export SPARK_DRIVER_MEMORY=2g export SPARK_WORKER_CORES=1 #export SPARK_PID_DIR=/home/iespark/hadoop_program_files/sparkdata
|
在master上sbin]$./start-all.sh
发现只有master上有master进程,而slave1,2都没有master进程,需要到其他机器上挨个启动sbin]$./start-master.sh(jps,slave1,2上也启动了master)
可以到slave1,2:8080中查看,没有work,status模式是standby
bin]$./spark-shell –master spark://master:7077,slave1:7077,slave2:7077
(此刻运行正常)
在master->spark中
sbin]$./stop.master.sh |
(shell中的连接失败,等待被选中的activety的master连接shell(zk实现的),这个过程可能需要分钟级别,此时的程序可仅需进行(粗粒度),)
显示以下信息说明新的master成功启动
master has changed,new master is at spark://slave1:7077 |
到Web控制台验证,master over but slave1 connect
注:集群重启,还会默认用slave1作为master
export JAVA_HOME=/home/zkpk/jdk/jdk1.8.0_60 export SCALA_HOME=/home/zkpk/scala-2.10.4 export HADOOP_HOME=/home/zkpk/hadoop-2.6.0 export HADOOP_CONF_DIR=/home/zkpk/hadoop-2.6.0/etc/hadoop export SPARK_MASTER_IP=master export SPARK_WORKER_MEMORY=4g export SPARK_EXECUTOR_MEMORY=4g export SPARK_DRIVER_MEMORY=4G export SPARK_WORKER_CORES=8 |
slave1 slave2 |
spark.executor.extraJavaOptions -XX:+PrintGCDetails -Dkey=value -Dnumbers="one two three" spark.eventLog.enabled true spark.eventLog.dir hdfs://master:9000/historyserverforSpark spark.yarn.historyServer.address master:18080 spark.history.fs.logDirectory hdfs://master:9000/historyserverforSpark |
SPARK_HOME/bin]$ ./spark-shell –master spark://master:7077 |
SPARK_HOME/bin]$./spark-submit --class org.apache.spark.examples.SparkPi --master spark://master:7077 ../lib/spark-examples-1.6.0-hadoop2.6.0.jar 100 |
Scala>sc.textFile(“hdfs://master:9000/home/data”).flatMap(_.split(“ ”)).map(word=>(word,1)).reduceByKey(_+_).map(pair=>(pair._2,pair._1)).sortByKey(false).map(pair=>(pair._2,pair._1)).saveAsTextFile(“hdfs://master:9000/home/out”) |
本站转载的文章为个人学习借鉴使用,本站对版权不负任何法律责任。如果侵犯了您的隐私权益,请联系我们删除。