久久精品五月,日韩不卡视频在线观看,国产精品videossex久久发布 ,久久av综合

站長(zhǎng)資訊網(wǎng)
最全最豐富的資訊網(wǎng)站

Ubuntu 18.04下搭建單機(jī)Hadoop和Spark集群環(huán)境

Hadoop在整個(gè)大數(shù)據(jù)技術(shù)體系中占有至關(guān)重要的地位,是大數(shù)據(jù)技術(shù)的基礎(chǔ)和敲門磚,對(duì)Hadoop基礎(chǔ)知識(shí)的掌握程度會(huì)在一定程度決定在大數(shù)據(jù)技術(shù)的道路上能走多遠(yuǎn)。

最近想要學(xué)習(xí)Spark,首先需要搭建Spark的環(huán)境,Spark的依賴環(huán)境比較多,需要Java JDK、Hadoop的支持。我們就分步驟依次介紹各個(gè)依賴的安裝和配置。新安裝了一個(gè)Linux Ubuntu 18.04系統(tǒng),想在此系統(tǒng)上進(jìn)行環(huán)境搭建,詳細(xì)記錄一下過(guò)程。

訪問(wèn)Spark的官網(wǎng),閱讀Spark的安裝過(guò)程,發(fā)現(xiàn)Spark需要使用到hadoop,Java JDK等,當(dāng)然官網(wǎng)也提供了Hadoop free的版本。本文還是從安裝Java JDK開(kāi)始,逐步完成Spark的單機(jī)安裝。

Ubuntu 18.04下搭建單機(jī)Hadoop和Spark集群環(huán)境

1、Java JDK8的安裝

前往Oracle官網(wǎng)下載JDK8,選擇適合自己操作系統(tǒng)的版本,此處選擇Linux 64

https://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html

Ubuntu 18.04下搭建單機(jī)Hadoop和Spark集群環(huán)境

下載之后的包放到某個(gè)目錄下,此處放在/opt/java目錄

linuxidc@linuxidc:~/www.linuxidc.com$ sudo cp /home/linuxidc/www.linuxidc.com/jdk-8u231-linux-x64.tar.gz /opt/java/
[sudo] linuxidc 的密碼:
linuxidc@linuxidc:~/www.linuxidc.com$ cd /opt/java/
linuxidc@linuxidc:/opt/java$ ls
jdk-8u231-linux-x64.tar.gz

使用命令:tar -zxvf jdk-8u231-linux-x64.tar.gz 解壓縮

linuxidc@linuxidc:/opt/java$ sudo tar -zxf jdk-8u231-linux-x64.tar.gz
linuxidc@linuxidc:/opt/java$ ls
jdk1.8.0_231  jdk-8u231-linux-x64.tar.gz

Ubuntu 18.04下搭建單機(jī)Hadoop和Spark集群環(huán)境

Ubuntu 18.04下搭建單機(jī)Hadoop和Spark集群環(huán)境Ubuntu 18.04下搭建單機(jī)Hadoop和Spark集群環(huán)境

修改配置文件/etc/profile,使用命令:sudo nano /etc/profile

linuxidc@linuxidc:/opt/java$ sudo nano /etc/profile

在文件末尾增加以下內(nèi)容(具體路徑依據(jù)環(huán)境而定):

export JAVA_HOME=/opt/java/jdk1.8.0_231
export JRE_HOME=/opt/java/jdk1.8.0_231/jre
export PATH=${JAVA_HOME}/bin:$PATH

Ubuntu 18.04下搭建單機(jī)Hadoop和Spark集群環(huán)境

保存退出,在終端界面使用命令: source /etc/profile 使配置文件生效。

linuxidc@linuxidc:/opt/java$ source /etc/profile

使用java -version驗(yàn)證安裝是否成功,以下回顯表明安裝成功了。

linuxidc@linuxidc:/opt/java$ java -version
java version “1.8.0_231”
Java(TM) SE Runtime Environment (build 1.8.0_231-b11)
Java HotSpot(TM) 64-Bit Server VM (build 25.231-b11, mixed mode)
linuxidc@linuxidc:/opt/java$

Ubuntu 18.04下搭建單機(jī)Hadoop和Spark集群環(huán)境

2、安裝Hadoop

前往官網(wǎng)https://hadoop.apache.org/releases.html下載hadoop,此處選擇版本2.7.7

http://www.apache.org/dist/hadoop/core/hadoop-2.7.7/hadoop-2.7.7.tar.gz

hadoop需要ssh免密登陸等功能,因此先安裝ssh。

使用命令:

linuxidc@linuxidc:~/www.linuxidc.com$ sudo apt-get install ssh

Ubuntu 18.04下搭建單機(jī)Hadoop和Spark集群環(huán)境

linuxidc@linuxidc:~/www.linuxidc.com$ sudo apt-get install rsync

Ubuntu 18.04下搭建單機(jī)Hadoop和Spark集群環(huán)境

將下載的包放到某個(gè)目錄下,此處放在/opt/hadoop

linuxidc@linuxidc:~/www.linuxidc.com$ sudo cp /home/linuxidc/www.linuxidc.com/hadoop-2.7.7.tar.gz /opt/hadoop/

Ubuntu 18.04下搭建單機(jī)Hadoop和Spark集群環(huán)境

Ubuntu 18.04下搭建單機(jī)Hadoop和Spark集群環(huán)境

使用命令:tar -zxvf hadoop-2.7.7.tar.gz 進(jìn)行解壓縮

此處選擇偽分布式的安裝方式(Pseudo-Distributed)

修改解壓后的目錄下的子目錄文件 etc/hadoop/hadoop-env.sh,將JAVA_HOME路徑修改為本機(jī)JAVA_HOME的路徑,如下圖:

Ubuntu 18.04下搭建單機(jī)Hadoop和Spark集群環(huán)境

配置Hadoop的環(huán)境變量

使用命令:

linuxidc@linuxidc:/opt/hadoop/hadoop-2.7.7/etc/hadoop$ sudo nano /etc/profile

添加以下內(nèi)容:

export HADOOP_HOME=/opt/hadoop/hadoop-2.7.7

修改PATH變量,添加hadoop的bin目錄進(jìn)去

export PATH=${JAVA_HOME}/bin:${HADOOP_HOME}/bin:$PATH

Ubuntu 18.04下搭建單機(jī)Hadoop和Spark集群環(huán)境

修改解壓后的目錄下的子目錄文件 etc/hadoop/core-site.xml

linuxidc@linuxidc:/opt/hadoop/hadoop-2.7.7/etc/hadoop$ sudo nano core-site.xml

<configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://localhost:9000</value>
    </property>
</configuration>

如下圖:

Ubuntu 18.04下搭建單機(jī)Hadoop和Spark集群環(huán)境

修改解壓后的目錄下的子目錄文件 etc/hadoop/hdfs-site.xml

linuxidc@linuxidc:/opt/hadoop/hadoop-2.7.7/etc/hadoop$ sudo nano hdfs-site.xml

<configuration>
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
</configuration>

如下圖:

Ubuntu 18.04下搭建單機(jī)Hadoop和Spark集群環(huán)境

設(shè)置免密登陸

linuxidc@linuxidc:~/www.linuxidc.com$ ssh-keygen -t rsa -P ” -f ~/.ssh/id_rsa
Generating public/private rsa key pair.
Your identification has been saved in /home/linuxidc/.ssh/id_rsa.
Your public key has been saved in /home/linuxidc/.ssh/id_rsa.pub.
The key fingerprint is:
SHA256:zY+ELQc3sPXwTBRfKlTwntek6TWVsuQziHtu3N/6L5w linuxidc@linuxidc
The key’s randomart image is:
+—[RSA 2048]—-+
|        . o.*+. .|
|        + B o o.|
|        o o =o+.o|
|        B..+oo=o|
|        S.*. ==.+|
|        +.o .oo.|
|        .o.o… |
|          oo .E .|
|          ..  o==|
+—-[SHA256]—–+
linuxidc@linuxidc:~/www.linuxidc.com$ cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
linuxidc@linuxidc:~/www.linuxidc.com$ chmod 0600 ~/.ssh/authorized_keys

Ubuntu 18.04下搭建單機(jī)Hadoop和Spark集群環(huán)境

使用命令:ssh localhost 驗(yàn)證是否成功,如果不需要輸入密碼即可登陸說(shuō)明成功了。

linuxidc@linuxidc:~/www.linuxidc.com$ ssh localhost
Welcome to Ubuntu 18.04.3 LTS (GNU/Linux 5.4.0-999-generic x86_64)

 * Documentation:  https://help.ubuntu.com
 * Management:    https://landscape.canonical.com
 * Support:        https://ubuntu.com/advantage

 * Canonical Livepatch is available for installation.
  – Reduce system reboots and improve kernel security. Activate at:
    https://ubuntu.com/livepatch

188 個(gè)可升級(jí)軟件包。
0 個(gè)安全更新。

Your Hardware Enablement Stack (HWE) is supported until April 2023.
Last login: Sat Nov 30 23:25:35 2019 from 127.0.0.1

Ubuntu 18.04下搭建單機(jī)Hadoop和Spark集群環(huán)境

接下來(lái)需要驗(yàn)證Hadoop的安裝

a、格式化文件系統(tǒng)

linuxidc@linuxidc:/opt/hadoop/hadoop-2.7.7$ bin/hdfs namenode -format
19/11/30 23:29:06 INFO namenode.NameNode: STARTUP_MSG:
/************************************************************
STARTUP_MSG: Starting NameNode
STARTUP_MSG:  host = linuxidc/127.0.1.1
STARTUP_MSG:  args = [-format]
STARTUP_MSG:  version = 2.7.7
……

Ubuntu 18.04下搭建單機(jī)Hadoop和Spark集群環(huán)境

b、啟動(dòng)Namenode和Datanode

linuxidc@linuxidc:/opt/hadoop/hadoop-2.7.7$ sbin/start-dfs.sh
Starting namenodes on [localhost]
localhost: starting namenode, logging to /opt/hadoop/hadoop-2.7.7/logs/hadoop-linuxidc-namenode-linuxidc.out
localhost: starting datanode, logging to /opt/hadoop/hadoop-2.7.7/logs/hadoop-linuxidc-datanode-linuxidc.out
Starting secondary namenodes [0.0.0.0]
The authenticity of host ‘0.0.0.0 (0.0.0.0)’ can’t be established.
ECDSA key fingerprint is SHA256:OSXsQK3E9ReBQ8c5to2wvpcS6UGrP8tQki0IInUXcG0.
Are you sure you want to continue connecting (yes/no)? yes
0.0.0.0: Warning: Permanently added ‘0.0.0.0’ (ECDSA) to the list of known hosts.
0.0.0.0: starting secondarynamenode, logging to /opt/hadoop/hadoop-2.7.7/logs/hadoop-linuxidc-secondarynamenode-linuxidc.out

Ubuntu 18.04下搭建單機(jī)Hadoop和Spark集群環(huán)境

c、瀏覽器訪問(wèn)http://localhost:50070

Ubuntu 18.04下搭建單機(jī)Hadoop和Spark集群環(huán)境

3、Scala安裝:

下載地址:https://www.scala-lang.org/download/2.11.8.html

Ubuntu 18.04下搭建單機(jī)Hadoop和Spark集群環(huán)境

下載好后解壓到:/opt/scala

linuxidc@linuxidc:~/下載$ sudo tar zxf scala-2.11.8.tgz -C /opt/scala
[sudo] linuxidc 的密碼:
linuxidc@linuxidc:~/下載$ cd /opt/scala
linuxidc@linuxidc:/opt/scala$ ls
scala-2.11.8

Ubuntu 18.04下搭建單機(jī)Hadoop和Spark集群環(huán)境

配置環(huán)境變量:

linuxidc@linuxidc:/opt/scala$ sudo nano /etc/profile

添加:

export SCALA_HOME=/opt/scala/scala-2.11.8

 Ubuntu 18.04下搭建單機(jī)Hadoop和Spark集群環(huán)境

source /etc/profile

4、安裝spark

前往spark官網(wǎng)下載spark

https://spark.apache.org/downloads.html

此處選擇版本如下:

spark-2.4.4-bin-hadoop2.7

將spark放到某個(gè)目錄下,此處放在/opt/spark

使用命令:tar -zxvf spark-2.4.0-bin-hadoop2.7.tgz 解壓縮即可

linuxidc@linuxidc:~/www.linuxidc.com$ sudo cp /home/linuxidc/www.linuxidc.com/spark-2.4.4-bin-hadoop2.7.tgz /opt/spark/
[sudo] linuxidc 的密碼:
linuxidc@linuxidc:~/www.linuxidc.com$ cd /opt/spark/
linuxidc@linuxidc:/opt/spark$ ls
spark-2.4.4-bin-hadoop2.7.tgz

Ubuntu 18.04下搭建單機(jī)Hadoop和Spark集群環(huán)境

linuxidc@linuxidc:/opt/spark$ sudo tar -zxf spark-2.4.4-bin-hadoop2.7.tgz
[sudo] linuxidc 的密碼:
linuxidc@linuxidc:/opt/spark$ ls
spark-2.4.4-bin-hadoop2.7  spark-2.4.4-bin-hadoop2.7.tgz

Ubuntu 18.04下搭建單機(jī)Hadoop和Spark集群環(huán)境

使用命令: ./bin/run-example SparkPi 10 測(cè)試spark的安裝

配置環(huán)境變量SPARK_HOME

linuxidc@linuxidc:/opt/spark/spark-2.4.4-bin-hadoop2.7$ sudo nano /etc/profile

export SPARK_HOME=/opt/spark/spark-2.4.4-bin-hadoop2.7
export PATH=${JAVA_HOME}/bin:${HADOOP_HOME}/bin:${SPARK_HOME}/bin:$PATH

Ubuntu 18.04下搭建單機(jī)Hadoop和Spark集群環(huán)境

source /etc/profile

配置配置spark-env.sh

進(jìn)入到spark/conf/

sudo cp /opt/spark/spark-2.4.4-bin-hadoop2.7/conf/spark-env.sh.template /opt/spark/spark-2.4.4-bin-hadoop2.7/conf/spark-env.sh

linuxidc@linuxidc:/opt/spark/spark-2.4.4-bin-hadoop2.7/conf$ sudo nano spark-env.sh

export JAVA_HOME=/opt/java/jdk1.8.0_231
export HADOOP_HOME=/opt/hadoop/hadoop-2.7.7
export HADOOP_CONF_DIR=/opt/hadoop/hadoop-2.7.7/etc/hadoop
export SPARK_HOME=/opt/spark/spark-2.4.4-bin-hadoop2.7
export SCALA_HOME=/opt/scala/scala-2.11.8
export SPARK_MASTER_IP=127.0.0.1
export SPARK_MASTER_PORT=7077
export SPARK_MASTER_WEBUI_PORT=8099
export SPARK_WORKER_CORES=3
export SPARK_WORKER_INSTANCES=1
export SPARK_WORKER_MEMORY=5G
export SPARK_WORKER_WEBUI_PORT=8081
export SPARK_EXECUTOR_CORES=1
export SPARK_EXECUTOR_MEMORY=1G
export LD_LIBRARY_PATH=${LD_LIBRARY_PATH}:$HADOOP_HOME/lib/native

Ubuntu 18.04下搭建單機(jī)Hadoop和Spark集群環(huán)境

Java,Hadoop等具體路徑根據(jù)自己實(shí)際環(huán)境設(shè)置。

啟動(dòng)bin目錄下的spark-shell

Ubuntu 18.04下搭建單機(jī)Hadoop和Spark集群環(huán)境

可以看到已經(jīng)進(jìn)入到scala環(huán)境,此時(shí)就可以編寫代碼啦。

spark-shell的web界面http://127.0.0.1:4040

Ubuntu 18.04下搭建單機(jī)Hadoop和Spark集群環(huán)境

暫時(shí)先這樣,如有什么疑問(wèn),請(qǐng)?jiān)贚inux公社下面的評(píng)論欄里提出。

贊(0)
分享到: 更多 (0)
?
網(wǎng)站地圖   滬ICP備18035694號(hào)-2    滬公網(wǎng)安備31011702889846號(hào)
久久精品五月,日韩不卡视频在线观看,国产精品videossex久久发布 ,久久av综合
美女精品在线观看| 久久国产精品色av免费看| 亚洲欧美在线综合| 亚洲不卡av不卡一区二区| 国产精品久久久久久久久久齐齐| 久久uomeier| 国产精品大片| 婷婷综合电影| 视频在线观看91| 一本色道久久精品| 色一区二区三区四区| 麻豆一区二区三| 国产亚洲观看| 国产亚洲精品美女久久久久久久久久| 欧美日韩国产一区精品一区| 日韩欧美不卡| 亚洲一级少妇| 欧洲av不卡| 不卡福利视频| 午夜精品成人av| 国产一区精品福利| 人人精品久久| 青青青国产精品| 日本不卡的三区四区五区| 日韩中文欧美在线| 999国产精品视频| 久久九九国产| 激情久久久久久| 欧洲毛片在线视频免费观看| 成人羞羞视频在线看网址| 亚洲伦乱视频| 精品中文一区| 久久不射中文字幕| 中文字幕一区二区三区日韩精品 | 中文日韩在线| 日韩欧美中文在线观看| 麻豆国产91在线播放| 成人久久久久| 日韩视频一二区| а√在线中文在线新版| 伊人成人网在线看| 国产精品欧美大片| 久久精品电影| 日韩精品第一| 神马久久午夜| 性色av一区二区怡红| 美女尤物国产一区| 亚洲成人一区| 国产精品传媒麻豆hd| 91av亚洲| 亚洲永久精品唐人导航网址| 精品91福利视频| 丝袜诱惑制服诱惑色一区在线观看| 欧美天堂一区| 蜜臀91精品国产高清在线观看| 欧美精品影院| 亚洲一级网站| 国产精久久久| 久久亚洲风情| 粉嫩av一区二区三区四区五区| 亚洲一区激情| 国产成人久久精品一区二区三区| 首页国产欧美久久| 欧美天堂视频| 免费观看在线综合| 97精品国产福利一区二区三区| 石原莉奈在线亚洲二区| 国产va免费精品观看精品视频| 免费观看在线综合色| 日韩电影二区| 国产精品久久久久久久久免费高清| 一区在线视频观看| 黄色在线观看www| 日韩中文视频| 欧美男人天堂| 日韩黄色免费网站| 国产综合色产| 国产成人精选| 日韩中文av| 久久久人人人| 另类小说一区二区三区| 中文字幕一区二区三区四区久久 | 久久av在线| 在线看片福利| 麻豆视频久久| 日韩在线视频一区二区三区| 欧美日韩国产一区精品一区| 日韩综合在线| 国产日韩在线观看视频| 91久久在线| 视频二区不卡| 国产一区日韩| 久久99精品久久久野外观看| 亚洲精品免费观看| 午夜一级久久| 欧美不卡在线| 欧产日产国产精品视频| 国语对白精品一区二区| 日韩精品第一| 亚洲bt欧美bt精品777| 久久国产99| 在线一区欧美| 欧美日韩国产在线观看网站| 成人精品久久| 久久影视三级福利片| 欧美日韩夜夜| 日本亚洲欧美天堂免费| 人人精品人人爱| 91久久亚洲| 在线 亚洲欧美在线综合一区| 国产精品久久久久av电视剧| 精品一区视频| 蜜桃久久久久| 国产精品mm| 久久久久伊人| 久久久精品国产**网站| 久久爱www.| 欧美国产另类| 国产精品欧美日韩一区| 国产日韩欧美一区二区三区 | 亚洲欧美网站在线观看| 男女激情视频一区| 美女精品在线| 蜜臀av国产精品久久久久 | 午夜av不卡| 涩涩av在线| 久久国产亚洲精品| 不卡一区综合视频| 中国女人久久久| 免费视频久久| 综合欧美亚洲| 日韩一区二区三免费高清在线观看 | 国产伦理久久久久久妇女| 国产日韩欧美一区二区三区 | 日韩视频不卡| 免费视频最近日韩| 日本亚洲视频| 国产精品99久久久久久董美香| 精品亚洲自拍| 青青青免费在线视频| 激情丁香综合| 中文精品视频| 日韩黄色免费网站| 麻豆精品视频在线| 日韩电影在线视频| 99视频精品| 日韩激情网站| 久久99蜜桃| 日本欧美不卡| 麻豆久久精品| 国产一级成人av| 日韩综合在线| re久久精品视频| 亚洲日本三级| 欧美xxxx性| 欧美手机在线| 免费美女久久99| 国产精品亚洲综合在线观看| 9999国产精品| 亚洲综合另类| 国产精品99久久免费| 亚洲性色av| 中文字幕亚洲影视| 国产一区二区色噜噜| 亚洲国产不卡| 国产免费久久| 欧美日韩在线播放视频| 日韩午夜视频在线| 丁香六月综合| 亚洲丝袜美腿一区| 国产成人免费精品| 婷婷精品进入| 国产精品一区二区美女视频免费看 | 国产区精品区| 国产99久久| 日韩高清不卡在线| 播放一区二区| 日韩精品视频在线看| 日韩精品中文字幕第1页| 影音先锋久久精品| 色偷偷色偷偷色偷偷在线视频| 亚洲一二av| 日韩欧美精品| 欧美伊人久久| 色婷婷精品视频| 日韩高清一区| 亚洲二区免费| 欧美激情麻豆| 亚洲欧美激情诱惑| 精品国产精品国产偷麻豆| 久久av一区二区三区| 精品久久久久中文字幕小说| 久久午夜精品一区二区| 福利精品在线| 亚洲免费福利一区| 亚洲综合在线电影| 国产欧美亚洲一区| av不卡在线| 日韩精品诱惑一区?区三区| 亚洲欧洲av|