当hadoop采用分布式模式部署和运行时,存储采用分布式文件系统HDFS,此时HDFS名称节点和数据节点位于不同的机器上;
数据就可以分布到多个节点,不同的数据节点上的数据计算可以并行执行了,这时候MR才能发挥其本该有的作用;
没那么多机器怎么办~~~~多几个虚拟机不就行了
电脑存储不够的可以使用链接克隆的方式
以其中一个slave节点为例
由于本节点启动时默认没有启动网卡,所以就不关闭了,
vi /etc/sysconfig/network-scripts/ifcfg-ens160
修改成如下地址:
[root@node1 hadoop]# vi /etc/sysconfig/network-scripts/ifcfg-ens160
[root@node1 hadoop]# systemctl enable NetworkManager
Created symlink /etc/systemd/system/multi-user.target.wants/NetworkManager.service → /usr/lib/systemd/system/NetworkManager.service.
Created symlink /etc/systemd/system/dbus-org.freedesktop.nm-dispatcher.service → /usr/lib/systemd/system/NetworkManager-dispatcher.service.
Created symlink /etc/systemd/system/network-online.target.wants/NetworkManager-wait-online.service → /usr/lib/systemd/system/NetworkManager-wait-online.service.
[root@node1 hadoop]# systemctl start NetworkManager
[root@node1 hadoop]#
为了便于区分节点,我们还需要修改各个节点的主机名
修改之后的具体配置如下
节点 | 节点名 | ip |
---|---|---|
master | master | 192.168.8.135 |
slave1 | slave1 | 192.168.8.136 |
slave2 | slave2 | 192.168.8.137 |
slave3 | slave3 | 192.168.8.138 |
然后在虚拟机各个节点中添加映射关系
记得修改之后重启虚拟机
之后登录虚拟机就很容易辨认出当前是处于Master节点上进行操作,不会和Slave节点产生混淆。
重启之后测试一下配置是否成功
#ping 3次就停止
ping slave1 -c 3
其他的节点自己测试一下就可以,这里不再展示
如果ping不通:
1,可能你没有重启机器
2,配置的文件内容检查一下
上一篇:Mysql中的函数和触发器