上面的命令是要在 Slave01的機器上進行 的,并且使用hadoop用戶今次那個操作。
最后,我們來回到Master機器上面進行,ssh驗證。
SSH驗證的命令很簡單,格式如下:
SSH <遠程IP && 域名>
所以,這里咱們在master機器上登錄slave01機器上實驗下,看是否還需要進行密碼輸入。
ssh slave01.hadoop

通過上面的命令窗口可以看到,我們已經(jīng)成功的從Master機器上面無密碼的登錄到Slave01機器上面了。那么說明剛才的配置生效了。
參照上面的步驟將各個Slave節(jié)點配置完成。
這里需要配置的剩下的兩個Slave節(jié)點進行無密碼登錄了,詳細的操作過程參照上面的流程就可以了,需要的注意的是: 在Master生成密鑰只需要生成一次就可以了,不要再次生成!因為每次生成以為著所有的節(jié)點都需要重新配置。
配置完成之后的效果,就是要保證在master機器上面的hadoop用戶能夠無需密碼的登錄到各個slave節(jié)點上進行操作就可以。


經(jīng)過上面的操作,已經(jīng)確保我們的Master機器可以毫無障礙的操作各個子節(jié)點Slave了。
參照上面的步驟將各個Slave節(jié)點SSH到Master機器。
我們知道,經(jīng)過上面的一系列操作之后,我們的Master主節(jié)點可以順利的操控各個Slave節(jié)點了,但是,這里需要注意的是,為了保證各個Slave機器和Master機器進行通信。
需要 保證各個Slave節(jié)點能夠無密碼登錄Master機器 ,操作步驟如上面。
這么操作的理由很簡單, 各個Slave子節(jié)點干完Master分配的任務(wù)之后,需要有權(quán)限反饋至他們的老大Master!


好了,到此,我們已經(jīng)完成了整個集群的SSH配置了。
這里再次強調(diào),上面的步驟要一定完成驗證,要不以后的Hadoop操作會很出現(xiàn)各種詭異的問題,讓你措手不及,這都是經(jīng)驗!!
4、配置Hadoop集群配置。
好了,到此我們需要對各個機器上面的Hadoop進行配置了。我們知道這里的所有的機器都是從一臺機器上面的拷貝過來,因為我們在這個機器上面已經(jīng)安裝了單實例的Hadoop,參照上一篇文章。
那么,下一步的步驟就是將這個單節(jié)點的配置成一個真正的分布式集群,充分利用我們剛才搭建的幾臺Server進行性能的最大發(fā)揮。
這里的配置不是很多,只需要更改一下幾個文件就可以了。
首先進行slaves文件的配置,指定該集群的各個Slave節(jié)點的位置( 以hadoop用戶進行操作)。
這個只需要在Master的機器上面進行就可以了,當然,如果不介意可以保持所有的機器上面的Hadoop配置一樣就可以了。執(zhí)行命令如下
vim /usr/hadoop/hadoop-2.6.4/etc/hadoop/slaves
然后,將各個Slave的IP或者機器名寫入就可以了,一臺機器一行數(shù)據(jù)。這里我寫的是IP.

這樣就可以了。
然后,在更改hdfs-site.xml文件中的dfs.replication屬性值。
關(guān)于這個值我之前已經(jīng)解釋過了,因為我們現(xiàn)在不是單臺機器了,所以將這個節(jié)點更改成3或者更大的數(shù),因為咱們就四臺機器,所以這里就配置成3可以了。記?。?只能是奇數(shù)!
vim /usr/hadoop/hadoop-2.6.4/etc/hadoop/hdfs-site.xml
dfs.replication
3

這里需要注意的是, 所有的機器都要這樣配置 。
5 、啟動Hadoop集群,驗證是否成功。
到此,我們基本完成了一個Hadoop完全分布式的集群配置。下面的內(nèi)容就是我們來驗證一下是否可用。