失效链接处理 |
hadoop安装与部署 PDF 下载
本站整理下载:
相关截图:
主要内容:
第一步,设置ssh无密钥登录
1、生成namenode ssh公钥私钥
ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa
2、把公钥拷贝到其他datanode机器
scp ~/.ssh/id_rsa.pub root@ip:/home/
3、把公钥拷贝到日志文件
cat /home/id_rsa.pub >> ~/.ssh/authorized_keys
如果提示无ssh文件夹,则执行生成公钥命令创建文件夹
4、测试
ssh <ip> 不需要密码登录则成功
第二步,安装jdk配置环境变量
第三步,解压hadoop包
// 以下步骤可先配置一台机器,其他机器直接复制即可
第四步,修改hadoop-env.sh文件
hadoop/etc/hadoop/hadoop-env.sh
内容:export JAVA_HOME=/usr/java/latest // jdk
第五步,修改core-site.xml文件
hadoop/etc/hadoop/core-site.xml
内容:<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://localhost:9000</value>
//name_node的数据传输地址与端口
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/opt/hadoop</value>
//hadoop临时文件目录
</property>
</configuration>
第六步,修改hdfs-site.xml文件
hadoop/etc/hdfs-site.xml
内容:<configuration>
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>ip:50090</value>
// seconnamenode http请求地址
</property>
<property>
<name>dfs.namenode.secondary.https-address</name>
<value>ip:50091</value>
//seconnamenode https请求地址
</property>
</configuration>
第七步,修改slaves文件
hadoop/etc/slaves
// 表示配置datanode机器
ip1
ip2
...
// ip代表每台datanode地址
第八步,配置masters
// 没有此文件则创建一个即可
hadoop/etc/masters
// 表示配置seconnamenode主机
Ip
// ip代表seconnamenode地址
第九步,把haddop文件夹复制到其他机器
scp -r hadoop root@ip:/home/
第十步,配置每台机器的hadoop环境变量
vi /etc/profile
export HADOOP_HOME=hadoop路径
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
保存
加载环境变量
source /etc/profile
第十一步,第一次启动时先格式化hadoop
hdfs namenode -format//在namenode机器上执行
第十二步,启动hadoop
start-dfs.sh
stop.dfs.sh //停止
|