linux上独立安装部署spark
linux  /  管理员 发布于 6年前   591
下面讲一下linux上安装spark,以 Standalone Mode 安装
1)首先安装JDK
下载JDK:jdk-7u79-linux-x64.tar.gz ,版本是1.7以上都行,解压 tar -zxvf jdk-7u79-linux-x64.tar.gz
然后配置 ~/.bashrc
增加
export JAVA_HOME=/cdh/jdk1.7.0_79
export JRE_HOME=${JAVA_HOME}/jre
export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib
export PATH=${JAVA_HOME}/bin:${SCALA_HOME}/bin:${SPARK_HOME}/bin:$PATH
source .bashrc
验证: java -version能正常运行则说明安装成功
2)安装scala
3) 安装spark
1)首先从网 http://spark.apache.org/downloads.html 上下载需要的版本,目前下载的是spark-1.4.0-bin-cdh4.tgz
(2)将spark-1.4.0-bin-cdh4.tgz移到根目录,并解压
tar -zxvf spark-1.4.0-bin-cdh4.tgz
(3)配置环境变量
SPARK_HOME=/spark-1.4.0-bin-cdh4
path=$path:$SPARK_HOME/bin
(4)修改配置文件
1)cd /spark-1.4.0-bin-cdh4/conf
2)mv spark-env.sh.template spark-env.sh
3)vi spark-env.sh
添加以下内容:
export SCALA_HOME=/scala-2.11.6
export JAVA_HOME=/cdh/jdk1.7.0_79
export SPARK_MASTER_IP=192.168.212.15
export SPARK_WORKER_MEMORY=1024m
export master=spark://192.168.212.15:7070
4)修改slaves文件
mv slaves.template slaves
vi slaves
添加一下内容:
slave1
slave2
(5) 将/spark-1.4.0-bin-cdh4目录复制到work节点
(6)启动spark
pwd
/spark-1.4.0-bin-cdh4/sbin
执行 ./start-all.sh 命令。
注意,hadoop也有start-all.sh脚本,因此必须进入具体目录执行脚本,启动界面如下:
(7)验证
1)在master节点上执行jps
30859 Jps
30172 Master
2)在slaves节点上执行jps
30302 Worker
30859 Jps
(7)验证安装情况
1)运行自带示例
启动spark sql
进入spark_home/bin/ 运行 ./spark-sql
2)查看集群环境
http://master:8080/
3)进入spark-shell
$spark-shell
4)查看jobs等信息
http://master:4040/jobs/
test1 在
opencode + Oh-my-openagent,我的第一个免费的ai编程智能体管家:Sisyphus中评论 test..122 在
学历:一种延缓就业设计,生活需求下的权衡之选中评论 工作几年后,报名考研了,到现在还没认真学习备考,迷茫中。作为一名北漂互联网打工人..Zita 在
Google AI Studio升级全栈 vibe coding体验,可直接构建带登录和数据库的应用中评论 111222..123 在
Clash for Windows作者删库跑路了,github已404中评论 按理说只要你在国内,所有的流量进出都在监控范围内,不管你怎么隐藏也没用,想搞你分..原梓番博客 在
在Laravel框架中使用模型Model分表最简单的方法中评论 好久好久都没看友情链接申请了,今天刚看,已经添加。..
Copyright·© 2019 侯体宗版权所有·
粤ICP备20027696号
