1. 程式人生 > 其它 >mac上spark環境配置(離線安裝)

mac上spark環境配置(離線安裝)

mac上spark環境配置(離線安裝)

配置環境資訊:

  1. MacOS BIG SUR 11.2.1 (20D74)
  2. java-1.8 .0_291
  3. scala-2.12.8
  4. spark-2.4.8
  5. flink-1.12.4

注:採取其他版本不保證能安裝成功,可能會出現JDK版本低等問題。

參考連結:

1、https://zhuanlan.zhihu.com/p/125549332

2、https://www.jianshu.com/p/d7c94372020c

一、安裝java 1.8

首先從官網(https://www.oracle.com/java/technologies/javase/javase-jdk8-downloads.html

),下載dmg安裝包,使用dmg的好處在於,不用自己配置java環境變數,安裝完成後即可使用。

安裝完成後,輸入java -version,出現如下提示代表安裝成功。

注:此版本的java不支援scala2.11,安裝scala2.11會報錯,報錯資訊如下:

Error occurred during initialization of VM 

java/lang/NoClassDefFoundError: java/lang/Object

二、安裝scala 2.12.8

1、brew安裝方式的不足

mac上安裝scala可以使用brew進行安裝,命令如下:

# 搜尋scala版本
brew search scala
# 安裝
brew install [email protected]

注:使用brew安裝scala,會存在一些問題,本人遇到的問題是:brew安裝的scala版本是jdk16版本的,不是jdk8版本的,安裝的版本過高,後面安裝完spark後,會報錯。報錯資訊如下:

A fatal error has been detected by the Java Runtime Environment
SIGSEGV (0xb) at pc=0x0071902b, pid=7052, tid=3078032240
RE version: 8.0_21-b06
[java] # Java VM: Java HotSpot(TM) Client VM (1760-b16 mixed mode, sharing linux-x86 )

2、離線安裝方式

首先從官網(https://www.scala-lang.org/download/scala2.html)下載scala 2.12.8。

進去後是最新版本的scala,需要點選下圖中的previous releases

然後選擇Scala 2.12.8

進去後,拉到最下面,選擇圖中標註的版本進行下載。


首先,解壓檔案,移動到指定目錄並重命名。

d ~/Download/
tar -zxvf scala-2.12.8.tgz
mv scala-2.12.8 /usr/local/scala

放置好了後,開始配置bash環境變數

命令列輸入:vim ~/.bash_profile進行編輯,增加環境變數:

SCALA_HOME=/usr/local/scala
export PATH=$PATH:$SCALA_HOME/bin

#使環境變數生效,在命令列執行
source  ~/.bash_profile

若安裝了zsh,則其環境變數配置方法如下:

命令列輸入:vim ~/.zshrc進行編輯,增加環境變數:

SCALA_HOME=/usr/local/scala
export PATH=$PATH:$SCALA_HOME/bin

#使環境變數生效,在命令列執行
source  ~/.zshrc

驗證:安裝完成後輸入Scala命令,出現如下提示代表成功。

三、安裝Spark

進入Spark官網(https://spark.apache.org/downloads.html)下載spark2.4.8

解壓檔案,移動到指定的位置並重命名。

cd ~/Downloads/
# 解壓
tar -zvxf spark-3.0.0-preview2-bin-hadoop2.7.tgz
移動到指定的位置並重命名
mv ~/Downloads/spark-3.0.0-preview2-bin-hadoop2.7 /usr/local/spark

上述步驟操作完後,開始進行環境變數配置。

1.對於原生終端,環境變數配置方式如下:

# 開啟配置檔案
vim ~/.bash_profile
# 在配置檔案中新增下面三行程式碼
export SPARK_HOME=/usr/local/spark
export PATH=$PATH:$SPARK_HOME/bin
export PYSPARK_PYTHON=python3
# 更新配置檔案
source ~/.bash_profile

2.對於zsh終端,環境變數配置方式如下:

# 開啟配置檔案
vim ~/.zshrc
# 在配置檔案中新增下面三行程式碼
export SPARK_HOME=/usr/local/spark
export PATH=$PATH:$SPARK_HOME/bin
export PYSPARK_PYTHON=python3
# 更新配置檔案
source ~/.zshrc

驗證階段

首先驗證python3版本的spark,輸入pyspark,出現如下介面,代表安裝成功。

若是使用scala版本的spark,則可以輸入spark-shell進行驗證出現如下介面代表安裝成功。

進入網址(https://archive.apache.org/dist/flink/flink-1.12.4/)下載如圖所示的flink版本。

下載完成後進行解壓,移動到指定的位置並重命名。

cd ~/Downloads/
# 解壓
tar -zvxf flink-1.12.4-bin-scala_2.12.tgz
移動到指定的位置並重命名
mv ~/Downloads/flink-1.12.4 /usr/local/flink

進行環境變數的配置

# 開啟配置檔案
vim ~/.bash_profile
# 在配置檔案中新增下面三行程式碼
export FLINK=/usr/local/flink
export PATH=$PATH:$FLINK_HOME/bin
# 更新配置檔案
source ~/.bash_profile

輸入flink —version檢視版本號

輸入start-cluster.sh啟動程序,jps檢視程序。