如何在Ubuntu 20.04 LTS上安装Apache Spark

Ubuntu 20.04 LTS Focal Fossa上安装Apache Spark

步骤1.首先,通过apt在终端中运行以下以下命令,确保所有系统软件包都是最新的。

sudo apt update
sudo apt upgrade

步骤2.安装Java。

Apache Spark需要Java才能运行,确保我们在Ubuntu系统上安装了Java:

sudo apt install default-jdk

我们通过以下命令行签出Java版本:

java -version

步骤3.下载并安装Apache Spark。

下载页面下载最新版本的Apache Spark :

wget https://www.apache.org/dyn/closer.lua/spark/spark-3.0.0/spark-3.0.0-bin-hadoop2.7.tgz
tar xvzf spark-3.0.0-bin-hadoop2.7.tgz
sudo mv spark-3.0.0-bin-hadoop2.7/ /opt/spark

接下来,配置Apache Spark环境:

nano ~/.bashrc

接下来,将这些行添加到.bashrc文件的末尾,以便该路径可以包含Spark可执行文件路径:

export SPARK_HOME=/opt/spark
export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin

激活更改:

source ~/.bashrc

步骤4.启动独立Spark Master服务器。

既然您已经完成了Spark的环境配置,就可以启动主服务器了:

start-master.sh

要查看Spark Web用户界面,请打开Web浏览器并在端口8080上输入localhost IP地址:

http://127.0.0.1:8080/

spark-web-ui

在这种单服务器独立设置中,我们将与主服务器一起启动一个从服务器。该命令用于启动Spark Worker进程:start-slave.sh

start-slave.sh spark://ubuntu1:7077

现在工作人员已经启动并正在运行,如果您重新加载Spark Master的Web UI,您应该在列表上看到它:

spark-workers-alive

之后,完成配置并启动主服务器和从属服务器,测试Spark Shell是否工作:

spark-shell

恭喜你!您已经成功安装了Apache Spark。感谢您使用本教程在Ubuntu 20.04(Focal Fossa)系统上安装Apache Spark。有关其他帮助或有用信息,我们建议您检查Apache Spark官方网站

原创文章,作者:校长,如若转载,请注明出处:https://www.yundongfang.com/Yun41434.html

(0)
打赏 微信扫一扫不于多少! 微信扫一扫不于多少! 支付宝扫一扫礼轻情意重 支付宝扫一扫礼轻情意重
上一篇 2021年3月9日 下午5:30
下一篇 2021年3月9日 下午5:38

相关推荐