最近2018中文字幕在日韩欧美国产成人片_国产日韩精品一区二区在线_在线观看成年美女黄网色视频_国产精品一区三区五区_国产精彩刺激乱对白_看黄色黄大色黄片免费_人人超碰自拍cao_国产高清av在线_亚洲精品电影av_日韩美女尤物视频网站

RELATEED CONSULTING
相關(guān)咨詢
選擇下列產(chǎn)品馬上在線溝通
服務(wù)時(shí)間:8:30-17:00
你可能遇到了下面的問題
關(guān)閉右側(cè)工具欄

新聞中心

這里有您想知道的互聯(lián)網(wǎng)營銷解決方案
如何安裝spark依賴yarn執(zhí)行

這篇文章將為大家詳細(xì)講解有關(guān)如何安裝spark依賴yarn執(zhí)行,小編覺得挺實(shí)用的,因此分享給大家做個(gè)參考,希望大家閱讀完這篇文章后可以有所收獲。

創(chuàng)新互聯(lián)是一家集網(wǎng)站建設(shè),新建企業(yè)網(wǎng)站建設(shè),新建品牌網(wǎng)站建設(shè),網(wǎng)站定制,新建網(wǎng)站建設(shè)報(bào)價(jià),網(wǎng)絡(luò)營銷,網(wǎng)絡(luò)優(yōu)化,新建網(wǎng)站推廣為一體的創(chuàng)新建站企業(yè),幫助傳統(tǒng)企業(yè)提升企業(yè)形象加強(qiáng)企業(yè)競爭力??沙浞譂M足這一群體相比中小企業(yè)更為豐富、高端、多元的互聯(lián)網(wǎng)需求。同時(shí)我們時(shí)刻保持專業(yè)、時(shí)尚、前沿,時(shí)刻以成就客戶成長自我,堅(jiān)持不斷學(xué)習(xí)、思考、沉淀、凈化自己,讓我們?yōu)楦嗟钠髽I(yè)打造出實(shí)用型網(wǎng)站。

由于之前安裝hadoop版本是3.30  所以這里下載spark3 

spark下載地址      包含了對(duì)應(yīng)hadoop3的jar包   http://archive.apache.org/dist/spark/spark-3.0.1/spark-3.0.1-bin-hadoop3.2.tgz

完成之后解壓  tar -zxvf spark-3.0.1-bin-hadoop3.2.tgz   mv   spark-3.0.1-bin-hadoop3.2   spark-3 

修改hadoop配置文件/opt/module/hadoop/etc/hadoop/yarn-site.xml, 并分發(fā)

修改hadoop配置文件/opt/module/hadoop/etc/hadoop/yarn-site.xml, 并分發(fā)


     yarn.nodemanager.pmem-check-enabled
     false




     yarn.nodemanager.vmem-check-enabled
     false

修改配置文件 spark-env.sh 

#jdk路徑
export JAVA_HOME=/bigdata/jdk1.8.0_161
#yarn路徑
YARN_CONF_DIR=/bigdata/hadoop-3.3.0/etc/hadoop
#歷史服務(wù)配置
export SPARK_HISTORY_OPTS="
-Dspark.history.ui.port=18080 
-Dspark.history.fs.logDirectory=hdfs://hadoop1:9000/directory 
-Dspark.history.retainedApplications=30"

修改 spark-defaults.conf

spark.eventLog.enabled          true
#hdfs地址  路徑是先建好的  hdfs dfs -mkdir /directory
spark.eventLog.dir               hdfs://hadoop1:9000/directory
#歷史服務(wù)的web地址
spark.yarn.historyServer.address=hadoop1:18080
spark.history.ui.port=18080
#jar包托管在hdfs中的地址
spark.yarn.jars hdfs://hadoop1:9000/hadoop/spark_jars/*

將spark整合hadoop3的jar包傳到hdfs上

hdfs dfs -mkdir /hadoop
hdfs dfs -mkdir /hadoop/spark_jars
hdfs dfs -put /usr/local/spark-3/jars/* /hadoop/spark_jars

如何安裝spark依賴yarn執(zhí)行

啟動(dòng)歷史服務(wù)        sbin/start-history-server.sh

訪問ui沒有問題后創(chuàng)建一個(gè)測(cè)試任務(wù)

/bigdata/spark/bin/spark-submit --class mapTest --master yarn    --driver-memory 512m  --executor-memory 512m  --deploy-mode cluster   /spark-demo.jar

如何安裝spark依賴yarn執(zhí)行

完成

關(guān)于“如何安裝spark依賴yarn執(zhí)行”這篇文章就分享到這里了,希望以上內(nèi)容可以對(duì)大家有一定的幫助,使各位可以學(xué)到更多知識(shí),如果覺得文章不錯(cuò),請(qǐng)把它分享出去讓更多的人看到。


分享題目:如何安裝spark依賴yarn執(zhí)行
當(dāng)前網(wǎng)址:http://fisionsoft.com.cn/article/jggdoc.html