<menuitem id="uhyqr"><label id="uhyqr"></label></menuitem>

          1. 藍鷗旗下品牌:鷗課學院
            全國咨詢電話:13152008057
            您的位置: 首頁 > 技術文章 > 【干貨】簡單三步在Mac上安裝Hadoop

            【干貨】簡單三步在Mac上安裝Hadoop

            2017-05-22 藍鷗
            17270人 瀏覽:

              一、安裝Homebrew(已安裝的可以省略這一步)

              HomebrewOSX中的方便的套件管理工具。采用Homebrew安裝Hadoop非常簡潔方便(中文官網:http://brew.sh/index_zh-cn.html)

              復制下面代碼在終端中運行就可以得到安裝:

              /usr/bin/ruby -e "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/master/install)"

              二、安裝JDK(已安裝的可以省略這一步)

              去Oracle官網下載對應的JDK

              三、SSH 免密碼的設置

              1、安裝ssh

              直接 sudo apt-get install openssh-server

              2、查看ssh運行狀態(tài)

              ps -e | grep ssh

              如果發(fā)現(xiàn) sshd ssh-agent 即表明 ssh服務基本運行正常

              3、生成公鑰和私鑰

              ssh-keygen -t rsa -P ""

              4、將公鑰追加到文件

              cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys

              5、測試ssh localhost

              如果發(fā)現(xiàn)不用輸入密碼就可以登錄那么 ssh無密碼機制就算建立成功了。

              6、失敗原因之一:.ssh及其下屬子文件的權限問題:

              首選.ssh目錄權限是700, 兩個dsa rsa的 私鑰權限是600,其余文件權限是644.

              下面列出.ssh目錄及子文件的權限表:

              drwx------ 2 hadoop hadoop 4096 2014-06-02 15:32 .

              drwxr-xr-x 34 hadoop hadoop 4096 2014-06-02 15:06 ..

              -rw-r--r-- 1 hadoop hadoop 2252 2014-06-02 15:32 authorized_keys

              -rw------- 1 hadoop hadoop 668 2014-06-02 15:11 id_dsa

              -rw-r--r-- 1 hadoop hadoop 615 2014-06-02 15:11 id_dsa.pub

              -rw------- 1 hadoop hadoop 1675 2014-06-02 15:32 id_rsa

              -rw-r--r-- 1 hadoop hadoop 407 2014-06-02 15:32 id_rsa.pub

              -rw-r--r-- 1 hadoop hadoop 442 2014-06-02 15:08 known_hosts

              7、.ssh的父目錄的權限問題(我的問題就出現(xiàn)在這里):

              .ssh的父目錄文件權限應該是755,即所屬用戶的 用戶文件 (/home下屬的一個用戶文件)。

              三、安裝Hadoop

              運用brew安裝hadoop代碼如下:

              $ brew install hadoop

              hadoop就安裝成功了,我安裝時最新為2.7.3。

              hadoop將按預定的路徑安裝(/usr/local/Cellar/hadoop/2.7.3)

              查看其安裝目錄可以用brew list hadoop;

              1.配置相關的環(huán)境變量

              打開終端:

              輸入 vi .bash_profile

              修改后最終樣子:

              export JAVA_HOME=/Library/Java/JavaVirtualMachines/jdk1.8.0_91.jdk/Contents/Home

              export JRE_HOME=$JAVA_HOME/jre

              export HADOOP_HOME=/usr/local/Cellar/hadoop/2.7.3

              export HADOOP_HOME_WARN_SUPPRESS=1

              export CLASS_HOME=$JAVA_HOME/lib:$JRE_HOME/lib:$CLASSPATH

              export PATH=$JAVA_HOME/bin:$JRE_HOME/bin:$HADOOP_HOME/bin:${PATH}

              2.配置Hadoop相關文件

              修改/usr/local/Cellar/hadoop/2.7.3/libexec/etc/hadoop/hadoop-env.sh 文件

              進入到 /usr/local/Cellar/hadoop/2.7.3/libexec/etc/hadoop (就是Hadoop的安裝目錄下)

              vi hadoop-env.sh

              需要修改的地方:

              # The java implementation to use.

              export JAVA_HOME="/Library/Java/JavaVirtualMachines/jdk1.8.0_91.jdk/Contents/Home"

              # Extra Java runtime options. Empty by default.

              #export HADOOP_OPTS="$HADOOP_OPTS -Djava.net.preferIPv4Stack=true"

              export HADOOP_OPTS="-Djava.security.krb5.realm=OX.AC.UK -Djava.security.krb5.kdc=kdc0.ox.ac.uk:kdc1.ox.ac.uk"

              # The maximum amount of heap to use, in MB. Default is 1000.

              export HADOOP_HEAPSIZE=2000

              #export HADOOP_NAMENODE_INIT_HEAPSIZE=""

              修改/usr/local/Cellar/hadoop/2.7.3/libexec/etc/hadoop/core-site.xml 文件

              file0003.jpeg

              修改后的

              修改/usr/local/Cellar/hadoop/2.7.3/libexec/etc/hadoop/hdfs-site.xml 文件

            file0004.jpeg

              修改/usr/local/Cellar/hadoop/2.7.3/libexec/etc/hadoop/mapred-site.xml.template 文件

            file0005.jpeg

              配置完成后

              終端運行:  hadoop namenode -format

            file0006.jpeg

            file0007.jpeg

              運行成功效果圖

              進入:/usr/local/Cellar/hadoop/2.7.3/libexec/sbin

              運行 :

              sh start-all.sh

              或者:sh start-dfs.sh 和 sh start-yarn.sh

            file0008.jpeg

            file0009.jpeg

              測試命令: jps

            file0010.jpeg

              成功的效果圖

              打開以下網址可以測試是否成功:

              Resource Manager : http://localhost:50070

            file0011.jpeg

              正常打開的樣子

              JobTracker : http://localhost:8088

            file0012.jpeg

              正常打開的樣子

              Specific Node Information : http://localhost:8042

            file0013.jpeg

              正常打開的樣子


            Hadoop相關課程推薦——

              大數據Hadoop入門必看

            1. 廣告1
            2. 廣告2
            3. 廣告3
            4. 廣告4
            尹人香蕉久久99天天拍,中文字幕永久在线中文免费,久久久久噜噜噜亚洲熟女综合,麻豆av在线免费观看精品
                  <menuitem id="uhyqr"><label id="uhyqr"></label></menuitem>