1.希图干活

  首先先不看理论,搭建起意况之后再看;

  搭建伪布满式是为了参谋条件,调节和测量试验方便。

  计算机是win10,用的虚拟机VMware Workstation 12
Pro,跑的Linux系统是centos6.5 ,装的hadoop2.6.0,jdk1.8;

  1.预备专业

  策动工作:把JDK和Hadoop安装包上传到linux系统(hadoop用户的根目录)

  系统情况:IP:192.168.80.99,

  linux用户:

  root/123456,hadoop/123456

  主机名:node

  把防火墙关闭,root实践:service iptables stop

  2.jdk安装

  1.在hadoop用户的根目录,Jdk解压,(hadoop用户操作)tar -zxvf
jdk-8u65-linux-x64.tar.gz 解压完毕后,在hadoop用户的根目录有四个jdk1.8.0_65目录

  2.配置情状变量,要求修改/etc/profile文件(root用户操作)切到root用户,输入su命令 vi /etc/profile 进去编辑器后,输入i,进入vi编辑器的插入情势在profile文件最终加多

JAVA_HOME=/home/hadoop/jdk1.8.0_65

export PATH=$PATH:$JAVA_HOME/bin

  编辑达成后,按下esc退出插入情势输入:,这时在左下角有五个冒号的标记

  q   退出不保留

  wq  保存退出

  q!   强制退出

  3.把修改的情况变量生效(hadoop用户操作)

  执行source /etc/profile

  4.施行 java -version 查看版本,纵然成功验证jdk配置成功

  

  3.Hadoop 安装

   1.在hadoop用户的根目录,解压(hadoop用户操作)

    tar -zxvf hadoop-2.6.0.tar.gz

   解压完毕在hadoop用户的根目录下有二个hadoop-2.6.0目录

  2.改造配置文件hadoop-2.6.0/etc/hadoop/hadoop-env.sh(hadoop用户操作)

    export JAVA_HOME=/home/hadoop/jdk1.8.0_65

  3.修改配置文件hadoop-2.6.0/etc/hadoop/core-site.xml,加多(hadoop用户操作)

  

<property>

<name>fs.defaultFS</name>

<value>hdfs://node:9000</value>

</property>

  4.改动配置文件hadoop-2.6.0/etc/hadoop/hdfs-site.xml,增添(hadoop用户操作)

  

<property>

<name>dfs.replication</name>

<value>1</value>

</property>

  5.更动修改配置文件hadoop-2.6.0/etc/hadoop/mapred-site.xml (hadoop用户操作),那么些文件没有,须要复制一份

    cp etc/hadoop/mapred-site.xml.template
etc/hadoop/mapred-site.xml

    添加

<property>

        <name>mapreduce.framework.name</name>

        <value>yarn</value>

    </property>

  6.改造配置文件hadoop-2.6.0/etc/hadoop/yarn-site.xml,增多(hadoop用户操作)

<property>

        <name>yarn.nodemanager.aux-services</name>

        <value>mapreduce_shuffle</value>

    </property>

  

  7.修改主机名称(root用户操作),重启生效

    vi /etc/sysconfig/network

  修改HOSTNAME的值为用户名

  8.修改/etc/hosts文件(root用户操作),增添: ip 主机名称

    192.168.44.199(用自个儿的ip,下面讲哪些获取)  node

  附:查看ip地址

  编辑–>虚构互连网编辑器

895959.com 1

  net格局,选DHCP设置,得到ip地址早先

895959.com 2

  

 net设置,获得网关

895959.com 3

895959.com,点左边小计算机,选取 VPN Connections–>Configue VPN

895959.com 4

选中eth0,点有侧边edit

895959.com 5

选用IP Settings
,依据本身的ip按图修改,Address就是你的ip地址,在初叶ip地址和竣事ip地址之间接选举二个就行

895959.com 6

  9.格式化HDFS,在hadoop解压目录下,试行如下命令:(hadoop用户操作)

    bin/hdfs namenode -format

  注意:格式化只可以操作一回,假如因为某种原因,集群不能用,
要求重新格式化,需求把上一次格式化的新闻删除,在/tmp目录里进行 rm –rf *

  10.起始集群,在hadoop解压目录下,实施如下命令:(hadoop用户操作,截图用机后来改过,主机为gp)

    运行集群:sbin/start-all.sh
  必要输入玖次当前用户的密码(通过配备ssh互信化解,截图用机已经布置过ssh不用输密码)

895959.com 7

   运转后,在命令行输入jps有以下输出

895959.com 8

关门集群:sbin/stop-all.sh  要求输入九次当前用户的密码(通过计划ssh互信消除,作者的同上)

 895959.com 9

  4.SSH互信配置(hadoop用户操作)
  rsa加密方法,公钥和私钥
  1.生成公钥和私钥
  在命令行实行ssh-keygen,然后回车,然后会唤起输入内容,什么都不用写,一路回车
  在hadoop用户根目录下,有一个.ssh目录
  id_rsa 私钥
  id_rsa.pub 公钥
  known_hosts 通过SSH链接到本主机,都会在此处有记录
  2.把公钥给信任的主机(本机)
  在命令行输入ssh-copy-id 主机名称
  ssh-copy-id hadoop
  复制的进度中要求输入信任主机的密码
  3.认证,在命令行输入:ssh 信任主机名称
  ssh hadoop
  若无提示输入密码,则配备成功

 895959.com 10

   至此,马到成功。