久久精品五月,日韩不卡视频在线观看,国产精品videossex久久发布 ,久久av综合

站長(zhǎng)資訊網(wǎng)
最全最豐富的資訊網(wǎng)站

Ubuntu 18.04.1上安裝Hadoop 3.1.1集群詳解

本文將介紹如何在基于Ubuntu的系統(tǒng)上安裝多節(jié)點(diǎn)Hadoop 3.1.1集群,作者將在Ubuntu 18.04.1上安裝一個(gè)包含HDFS的三節(jié)點(diǎn)Hadoop集群。

首先,我們需要為集群創(chuàng)建三個(gè)虛擬機(jī),創(chuàng)建一個(gè)具有4個(gè)vCPU,4 GB內(nèi)存和40 GB硬盤空間的Hadoop Master服務(wù)器;為每個(gè)節(jié)點(diǎn)創(chuàng)建兩個(gè)帶有4個(gè)vCPU,8 GB內(nèi)存和40 GB硬盤空間的Hadoop節(jié)點(diǎn)。

本文的三臺(tái)服務(wù)器安裝了Ubuntu Server 18.04.1,安裝了所有更新并重新啟動(dòng),一定要確保使用靜態(tài)IP地址和內(nèi)部DNS解析配置每個(gè)服務(wù)器,或?qū)⒚總€(gè)服務(wù)器添加到/ etc / hosts文件。

準(zhǔn)備運(yùn)行Hadoop服務(wù)器

首先,我們需要安裝Oracle Java 8,因?yàn)閺腢buntu 18.04.1開始,Java 8不再可用。

# add-apt-repository ppa:webupd8team/java
# apt update
# apt install -y oracle-java8-set-default

接受許可條款,并下載Hadoop二進(jìn)制文件

# wget http://apache.claz.org/hadoop/common/hadoop-3.1.1/hadoop-3.1.1.tar.gz

解壓縮歸檔并將其移至/ usr / local /

# tar -xzvf hadoop-3.1.1.tar.gz
# mv hadoop-3.1.1 /usr/local/hadoop

更新默認(rèn)環(huán)境變量以包含JAVA_HOME和Hadoop二進(jìn)制目錄。

首先,我們需要知道Java的安裝位置,運(yùn)行以下命令查找。

# update-alternatives –display java
java – manual mode
  link best version is /usr/lib/jvm/java-8-oracle/jre/bin/java
  link currently points to /usr/lib/jvm/java-8-oracle/jre/bin/java
  link java is /usr/bin/java
  slave java.1.gz is /usr/share/man/man1/java.1.gz
/usr/lib/jvm/java-8-oracle/jre/bin/java – priority 1081
  slave java.1.gz: /usr/lib/jvm/java-8-oracle/man/man1/java.1.gz

如上所示,JAVA_HOME應(yīng)設(shè)置為/ usr / lib / jvm / java-8-oracle / jre。

打開/etc/environment并更新PATH行以包含Hadoop二進(jìn)制目錄。

PATH=”/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin:/usr/games:/usr/local/games:/usr/local/hadoop/bin:/usr/local/hadoop/sbin”

為JAVA_HOME變量和YARN_RESOURCEMANAGER_OPTS變量添加一行。

vim
YARN_RESOURCEMANAGER_OPTS=”–add-modules=ALL-SYSTEM”

確保該目錄與上面的update-alternatives選項(xiàng)減去bin/java部分的輸出相匹配。

接下來(lái),我們將添加一個(gè)hadoop用戶并為他們提供正確的權(quán)限。

# adduser hadoop
# usermod -aG hadoop hadoop
# chown hadoop:root -R /usr/local/hadoop
# chmod g+rwx -R /usr/local/hadoop

以hadoop用戶身份登錄并生成SSH密鑰,只需要在Hadoop Master上完成此步驟。

# su – hadoop
# ssh-keygen -t rsa

接受ssh-keygen的所有默認(rèn)值。

現(xiàn)在以hadoop用戶身份登錄并將SSH密鑰復(fù)制到所有Hadoop節(jié)點(diǎn)。 同樣,只需要在Hadoop Master上完成此步驟。

# su – hadoop
$ ssh-copy-id hadoop@hadoop1.admintome.lab
$ ssh-copy-id hadoop@hadoop2.admintome.lab
$ ssh-copy-id hadoop@hadoop3.admintome.lab

配置Hadoop主服務(wù)器

打開/usr/local/hadoop/etc/hadoop/core-site.xml文件并輸入以下內(nèi)容:

<configuration>
  <property>
    <name>fs.default.name</name>
    <value>hdfs://hadoop1.admintome.lab:9000</value>
  </property>
</configuration>

保存并退出。

接下來(lái),打開/usr/local/hadoop/etc/hadoop/hdfs-site.xml文件并添加以下內(nèi)容:

<configuration>
  <property>
    <name>dfs.namenode.name.dir</name>
    <value>/usr/local/hadoop/data/nameNode</value>
  </property>
  <property>
    <name>dfs.datanode.data.dir</name>
    <value>/usr/local/hadoop/data/dataNode</value>
  </property>
  <property>
    <name>dfs.replication</name>
    <value>2</value>
  </property>
</configuration>

保存并退出。

打開/usr/local/hadoop/etc/hadoop/workers文件并添加以下兩行(每個(gè)Hadoop節(jié)點(diǎn)一行)

hadoop2.admintome.lab
hadoop3.admintome.lab

保存并退出。

將配置文件從Hadoop Master復(fù)制到每個(gè)Hadoop節(jié)點(diǎn)。

# scp /usr/local/hadoop/etc/hadoop/* hadoop2.admintome.lab:/usr/local/hadoop/etc/hadoop/
# scp /usr/local/hadoop/etc/hadoop/* hadoop3.admintome.lab:/usr/local/hadoop/etc/hadoop/

格式化HDFS文件系統(tǒng)

$ source /etc/environmnet
$ hdfs namenode -format

現(xiàn)在可以啟動(dòng)HDFS:

hadoop@hadoop1:~$ start-dfs.sh
Starting namenodes on [hadoop1.admintome.lab]
Starting datanodes
Starting secondary namenodes [hadoop1]
hadoop@hadoop1:~$

通過(guò)在所有Hadoop服務(wù)器上以Hadoop用戶身份運(yùn)行jps命令來(lái)驗(yàn)證所有內(nèi)容是否正確啟動(dòng)。

在Hadoop Master上你應(yīng)該可以看到如下結(jié)果:

hadoop@hadoop1:~$ jps
13634 Jps
13478 SecondaryNameNode
13174 NameNode

在每個(gè)Hadoop節(jié)點(diǎn)上,你應(yīng)該可以看到:

hadoop@hadoop2:~$ jps
8672 Jps
8579 DataNode
HDFS Web UI

HDFS Web UI

現(xiàn)在,我們可以通過(guò)瀏覽到Hadoop主服務(wù)器端口9870來(lái)訪問(wèn)HDFS Web UI。

http://hadoop1.admintome.lab:9870

可以看到如下UI:

Ubuntu 18.04.1上安裝Hadoop 3.1.1集群詳解

如上所示,我們的HDFS文件系統(tǒng)上有近60 GB的空閑空間。

開始運(yùn)行Yarn

現(xiàn)在HDFS正在運(yùn)行,我們已準(zhǔn)備好啟動(dòng)Yarn調(diào)度程序。

Hadoop本身需要運(yùn)行任務(wù),因此我們需要Yarn以在Hadoop集群上合理安排任務(wù)。

export HADOOP_HOME=”/usr/local/hadoop”
export HADOOP_COMMON_HOME=$HADOOP_HOME
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
export HADOOP_HDFS_HOME=$HADOOP_HOME
export HADOOP_MAPRED_HOME=$HADOOP_HOME
export HADOOP_YARN_HOME=$HADOOP_HOME

運(yùn)行以下命令以啟動(dòng)Yarn:

$ start-yarn.sh
Starting resourcemanager
Starting nodemanagers

我們可以通過(guò)以下命令來(lái)驗(yàn)證是否可以正確啟動(dòng):

$ yarn node -list
2018-08-15 04:40:26,688 INFO client.RMProxy: Connecting to ResourceManager at hadoop1.admintome.lab/192.168.1.35:8032
Total Nodes:2
        Node-Id      Node-State  Node-Http-Address  Number-of-Running-Containers
hadoop3.admintome.lab:35337          RUNNING  hadoop3.admintome.lab:8042                            0
hadoop2.admintome.lab:38135          RUNNING  hadoop2.admintome.lab:8042                            0

沒有任何正在運(yùn)行的容器,因?yàn)槲覀冞€沒有開始任何工作。

Hadoop Web UI

我們可以通過(guò)以下URL來(lái)查看Hadoop Web UI:

http://hadoop1.admintome.lab:8088/cluster

替換Hadoop Master主機(jī)名:

Ubuntu 18.04.1上安裝Hadoop 3.1.1集群詳解

運(yùn)行Hadoop任務(wù)示例

我們現(xiàn)在可以運(yùn)行Hadoop任務(wù)示例并在集群上安排它,我們將運(yùn)行的示例是使用MapReduce來(lái)計(jì)算PI。

運(yùn)行以下命令來(lái)運(yùn)行作業(yè):

yarn jar /usr/local/hadoop/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.1.1.jar pi 16 1000

完成整個(gè)過(guò)程將需要幾分鐘的時(shí)間。完成后,應(yīng)該可以看到它已經(jīng)開始計(jì)算PI:

Job Finished in 72.973 seconds
Estimated value of Pi is 3.1425000000000000000

贊(0)
分享到: 更多 (0)
?
網(wǎng)站地圖   滬ICP備18035694號(hào)-2    滬公網(wǎng)安備31011702889846號(hào)
久久精品五月,日韩不卡视频在线观看,国产精品videossex久久发布 ,久久av综合
麻豆91在线播放| 精品国产aⅴ| 99久久精品费精品国产| 成人午夜毛片| 福利一区视频| av日韩中文| 在线一区av| 日韩精品1区| 久久九九99| 久久久久久久欧美精品| 国产亚洲毛片在线| 免费在线观看成人| 亚洲精品亚洲人成在线观看| 日韩一区免费| 欧美偷窥清纯综合图区| 国产精品男女| 久久中文字幕一区二区三区| 精品国产鲁一鲁****| 天堂av在线| 欧美日韩在线网站| 免费精品视频| 日韩精品一区二区三区中文在线 | 免费不卡中文字幕在线| 久久国产中文字幕| 婷婷久久一区| 亚洲制服欧美另类| 美女视频黄免费的久久| 亚洲精品永久免费视频| 蜜臀av免费一区二区三区| 老鸭窝毛片一区二区三区| 亚洲久久视频| 国产高清视频一区二区| a国产在线视频| 午夜精品影院| 日韩在线黄色| 荡女精品导航| 欧美成人午夜| 日韩精品中文字幕吗一区二区 | 国产精品日韩久久久| 日韩高清不卡一区二区| 国产精品亲子伦av一区二区三区 | 亚洲一区二区三区高清不卡| 综合色就爱涩涩涩综合婷婷| 国产精品.xx视频.xxtv| 精品一区二区三区的国产在线观看| 日韩精品1区| 亚洲精品无播放器在线播放| 国产精品多人| 欧美三级精品| 亚洲综合婷婷| av资源中文在线| 蜜臀精品久久久久久蜜臀| 国产精品porn| 9色精品在线| 麻豆国产欧美日韩综合精品二区| 欧美成人精品| 国产精品s色| 午夜在线精品| 国产一区二区三区天码| 亚洲黄色影院| 精品一区av| 蜜臀av一区二区三区| 久久久久久一区二区| 婷婷视频一区二区三区| 欧美sm一区| 国产日韩免费| 婷婷亚洲综合| 精品视频自拍| 亚洲资源网站| 99久久婷婷这里只有精品| 国产精品中文字幕制服诱惑| 激情五月综合| 精品视频网站| 日本不卡高清视频| 色天使综合视频| 国产精品3区| 亚洲制服欧美另类| 1000部精品久久久久久久久| 国产精品4hu.www| 免费国产亚洲视频| 人人精品亚洲| 久久这里只有| 日韩成人午夜精品| 亚洲成人免费| 四虎国产精品免费观看| 日韩不卡在线观看日韩不卡视频| 国产99精品一区| 精品久久影院| 欧美午夜三级| 亚洲欧美视频一区二区三区| 日韩一区亚洲二区| 久久亚洲黄色| 欧美久久一区二区三区| 国产亚洲毛片| 国产综合婷婷| 日韩欧美午夜| 久久一区视频| 国产日韩1区| 亚洲一级大片| 狠狠久久婷婷| 电影天堂国产精品| 成人在线观看免费视频| 国产精品永久| 日本午夜免费一区二区| 久久av在线| 不卡视频在线| 在线日韩一区| 久久久国产精品一区二区中文| 久久精品国产网站| 国产精品嫩草影院在线看| 日韩在线电影| 日本在线视频一区二区| 日韩欧美中文字幕电影| 一区二区高清| 蜜桃视频一区二区三区| 亚洲免费播放| 99亚洲视频| 丝袜美腿亚洲色图| 视频一区视频二区中文字幕| 亚洲二区免费| 亚洲手机在线| 亚洲大片在线| 午夜精品网站| 亚洲欧美日本国产专区一区| 在线视频亚洲| 在线亚洲成人| 日韩精品一二三| 亚洲三级av| 奇米亚洲欧美| 欧美精品97| 精品久久影院| 日韩中文字幕高清在线观看| 成人福利av| 亚洲成人二区| 成人av二区| 性一交一乱一区二区洋洋av| 中文字幕亚洲精品乱码| 日韩在线观看中文字幕| 日韩精彩视频在线观看| 国产精品伊人| 成人精品国产亚洲| 久久久久免费av| 日韩视频一区| 日韩三级视频| 久久国产精品美女| 欧美日韩国产观看视频| 久久精品青草| 国产视频亚洲| 日韩精品三区四区| 国产精品v日韩精品v欧美精品网站| 精品一区二区三区在线观看视频 | 深夜视频一区二区| 日韩一区二区免费看| 亚洲三区欧美一区国产二区| 国产欧美一区二区三区国产幕精品 | 国产午夜一区| 韩国女主播一区二区三区| 久久亚洲在线| 自拍自偷一区二区三区| 欧美国产另类| 久久久久久久久99精品大| 视频一区视频二区中文| 国产精品久久久久毛片大屁完整版| 久久精品伊人| 天堂网在线观看国产精品| 亚洲字幕久久| 久久精品伊人| 亚洲免费黄色| 久久国产三级| 久久精品免费一区二区三区 | 日本美女一区| 老司机精品久久| 国产精品一区二区三区av麻| 在线亚洲人成| 一区二区亚洲视频| 精品国产鲁一鲁****| 一区二区视频欧美| 国产精品综合| 欧美 日韩 国产一区二区在线视频 | 精品久久久中文字幕| 精品中文字幕一区二区三区av| 日韩激情网站| 久久蜜桃资源一区二区老牛| 亚洲精品成人一区| 麻豆视频在线观看免费网站黄 | 日韩欧美一区二区三区在线观看 | 亚洲一区二区三区四区电影| 麻豆成人综合网| 悠悠资源网久久精品| 国产精品videossex| 狠狠久久婷婷| 久久影视三级福利片| 在线亚洲激情| 国产一区二区三区黄网站 | 日本成人精品| 国产在线欧美| 久久97视频| 亚洲一区二区动漫| 国产高潮在线| 欧美一区二区三区久久精品|