1. 程式人生 > >蝸龍徒行-Spark學習筆記【五】IDEA中叢集執行模式的配置

蝸龍徒行-Spark學習筆記【五】IDEA中叢集執行模式的配置

問題現象

在IDEA中執行sparkPI,報錯:
Exception in thread “main” org.apache.spark.SparkException: A master URL must be set in your configuration
這裡寫圖片描述

問題根因

從提示中可以看出找不到程式執行的master,此時需要配置環境變數,指定spark叢集的執行模式。
傳遞給Spark的master url可以有如下幾種:
local 本地單執行緒
local[K] 本地多執行緒(指定K個核心)
local[*] 本地多執行緒(指定所有可用核心)
spark://HOST:PORT 連線到指定的 Spark standalone cluster master,需要指定埠。
mesos://HOST:PORT 連線到指定的 Mesos 叢集,需要指定埠。
yarn-client客戶端模式 連線到 YARN 叢集。需要配置 HADOOP_CONF_DIR。
yarn-cluster叢集模式 連線到 YARN 叢集。需要配置 HADOOP_CONF_DIR。

問題解決

方法1:配置IDEA的VM引數

點選edit configuration,在左側點選該專案。在右側在右側VM options中輸入“-Dspark.master=local”,指示本程式本地單執行緒執行,再次執行即可。
這裡寫圖片描述
僅僅配置“local”,執行時依舊會報錯:
這裡寫圖片描述
還是得配置成”-Dspark.master=local”才會執行成功,控制檯輸出資訊如下:

/usr/lib/java/jdk1.7.0_71/bin/java 
-Dspark.master=local 
-Didea.launcher.port=7542 
-Didea.launcher.bin.path=/usr/local
/idea/idea-IC-135.1306/bin
-Dfile.encoding=UTF-8

方法2:在程式碼中直接設定執行模式

val conf = new SparkConf().setAppName(“Spark Pi”).setMaster(“local”)
這裡寫圖片描述

非local模式的配置

val conf = new SparkConf().setAppName("Spark Pi").setMaster("spark://Master:7077")

錯以為IDEA在執行時會去自動啟動spark分散式環境,於是手動使用stop-all.sh分別將hadoop叢集、spark叢集關閉,按如上配置後報錯:

ERROR SparkDeploySchedulerBackend: Application has been killed. Reason: All masters are unresponsive! Giving up.

這裡寫圖片描述
使用start-all.sh手動重啟hadoop叢集、spark叢集:
這裡寫圖片描述
重新執行SparkPI依舊報錯:
java.lang.ClassNotFoundException: org.apache.spark.examples.SparkPi$$anonfun$1
這裡寫圖片描述
分散式的啟動配置暫時擱置,先使用local模式學習spark為先,後續再究。

相關推薦

-Spark學習筆記IDEA叢集執行模式配置

問題現象 在IDEA中執行sparkPI,報錯: Exception in thread “main” org.apache.spark.SparkException: A master URL must be set in your configurati

-Spark學習筆記Spark叢集使用spark-submit提交jar任務包實戰經驗

一、所遇問題        由於在IDEA下可以方便快捷地執行scala程式,所以先前並沒有在終端下使用spark-submit提交打包好的jar任務包的習慣,但是其只能在local模式下執行,在網上搜了好多帖子設定VM引數都不能啟動spark叢集,由於實驗任務緊急只能暫時

-Spark學習筆記初識Spark形成、演進、發展

【一】Hadoop版本演進過程            由於Hadoop1.X 以前版本在 MapReduce 基本構架的設計上存在作業主控節點(JobTracker)單點瓶頸、作業執行延遲過長、程式設計框架不靈活等較多的缺陷和不足,2011 年 10 月,Hadoop 推出

Tomcat學習筆記2--- Tomcat安裝、環境變數配置、啟動和關閉

本文主要講Tomcat的安裝和配置。 一 Tomcat安裝 1.1 下載 下載地址:http://tomcat.apache.org/ 1.2 安裝 Tomcat是不需要安裝的,解壓壓縮包即可。 在安裝的過程中需要注意的是:tomcat儘量不要存放在目錄名稱為中文的目錄中。 二 Tomcat環境變數配置 To

TDD學習筆記一Unit Test - Stub, Mock, Fake 簡介

-i moc load customers eight foreach 存在 執行 repo 這篇文章簡介一下,如何通過 mock framework,來輔助我們更便利地模擬目標對象的依賴對象,而不必手工敲堆只為了這次測試而存在的輔助類型。 而模擬目標對象的部分,常見的有

Docker學習筆記安裝Redis

art port 再次 dock 使用 contain bash Go red 項目中使用到Redis,平常都是別人搭建的,今天試著在Google Cloud Platform 上搭建一個學習環境。 1.使用 docker pull redis 從docker hub中下載

system generator學習筆記01

分享 基本功 hle ima 安裝 分享圖片 use 內容整理 blank 作者:桂。 時間:2018-05-18 18:26:50 鏈接:http://www.cnblogs.com/xingshansi/p/9045914.html 前言 學習使用s

響應式布局學習筆記1----基礎知識

網頁設計 water com 文章 tar 屏幕分辨率 優點 light gin 本篇文章主要解決:什麽是響應式布局?有什麽優點和缺點? 一 什麽是響應式布局? 伊桑·馬科特(Ethan Marcotte)在2010年首先提出了響應式網頁設計(RWD,Responsive

Grunt學習筆記3---- filter詳解

add 行處理 class 一個 特殊 col filter詳解 很多 https 本文主要講配置任務中的filter,包括使用默認fs.Stats方法名和自定義過濾函數。 通過設置filter屬性可以實現一些特殊處理邏輯。例如:要清理某個文件夾下的所有空文件夾,這時使用c

Tomcat學習筆記1--- WEB服務器、JavaEE、Tomcat背景

javascrip http .cn 目的 java log 進行 瀏覽器 靜態資源 本文主要講學習Tomcat需要知道的基礎知識。 一 Web服務器 Web服務器可以解析HTTP協議。當Web服務器接收到一個HTTP請求,會返回一個HTTP響應,例如送回一個HTML頁面。

Python學習筆記Supervisor:使用Supervisor監控Tornado程序

Linux常見應用服務配置模式nginx和supervisor:採用主配置檔案+專案配置檔案 安裝(如果使用pip安裝注意看是否需要指定使用python2版本)   第一步:在Linux中使用apt-get 指令安裝 sudo apt-get install supervisor

Python學習筆記Nginx:Nginx使用與完全解除安裝

 安裝與啟動nginx 第一步:通過指令安裝包 sudo apt  install nginx  sudo apt install nginx   第二步:安裝成功後檢視相關配置檔案 ls /etc/nginx/ 在這裡主要是 conf.d

Spark學習筆記(三) Ubuntu搭建Hadoop分散式叢集

Ubuntu搭建Hadoop分散式叢集 執行環境 配置目標 搭建Hadoop分散式叢集步驟 1 搭建master 1.1 安裝JDK 1.2 安裝SSH 1.3 安裝Hadoop 2

Spark學習筆記(二) 安裝Hadoop單節點叢集

安裝Hadoop單節點叢集 1. 下載並解壓Hadoop 1.1 下載Hadoop 1.2 解壓Hadoop包 1.3 將解壓的資料夾重新命名為Hadoop,然後拷貝到/usr/local下 2. 設定Hadoop環境變數

資料分析---《Python for Data Analysis》學習筆記01

《Python for Data Analysis》一書由Wes Mckinney所著,中文譯名是《利用Python進行資料分析》。這裡記錄一下學習過程,其中有些方法和書中不同,是按自己比較熟悉的方式實現的。   第一個例項:1.usa.gov data from bit.ly &n

資料分析---《Python for Data Analysis》學習筆記02

《Python for Data Analysis》一書由Wes Mckinney所著,中文譯名是《利用Python進行資料分析》。這裡記錄一下學習過程,其中有些方法和書中不同,是按自己比較熟悉的方式實現的。   第二個例項:MovieLens 1M Data Set  

OpenCV學習筆記方框濾波、均值濾波、高斯濾波

1.平滑處理 平滑處理(smoothing)也稱模糊處理(bluring),是一種簡單且使用頻率很高的影象處理方法。平滑處理的用途有很多,最常見的是用來減少影象上的噪點或者失真。在涉及到影象解析度時,平滑處理是非常好用的方法。 2.影象濾波與濾波器 影象濾波,指儘量保留影象細節特徵的條件

資料分析---《Python for Data Analysis》學習筆記03

《Python for Data Analysis》一書由Wes Mckinney所著,中文譯名是《利用Python進行資料分析》。這裡記錄一下學習過程,其中有些方法和書中不同,是按自己比較熟悉的方式實現的。   第三個例項:US Baby Names 1880-2010  

Appium自動測試框架學習筆記

前言 接下來主要講一下如何搭建java的測試環境,以及編寫測試程式碼 環境配置 參考文章 首先JDK和java IDE的安裝就不講了,IDE一般選擇IntelliJ IDEA,不過為了能使用Appium

Appium自動測試框架學習筆記

前言 也不知道比賽方是怎麼想的23333,測試的app居然不支援x86架構的,沒辦法arm的模擬器太卡,所以只能用真機進行測試了。 由於是比賽,所以我也不會貼上具體的程式碼,結合著測試需求進行一個簡單