一、准备环境
# 安装hadoop sudo apt-get update sudo apt-get install -y hadoop # 修改hadoop配置文件 sudo nano /etc/hadoop/core-site.xml
在core-site.xml中添加如下内容:
fs.defaultFS
hdfs://localhost:9000
保存并退出nano。
依次打开以下文件,并在每个文件中添加以下内容:
# 修改hadoop配置文件
sudo nano /etc/hadoop/hdfs-site.xml
dfs.namenode.name.dir
/usr/local/hadoop/hadoop_data/hdfs/namenode
dfs.namenode.checkpoint.dir
/usr/local/hadoop/hadoop_data/hdfs/namesecondary
dfs.replication
1
# 设置hadoop环境变量
sudo nano /etc/profile.d/hadoop.sh
export HADOOP_HOME=/usr/local/hadoop
export HADOOP_MAPRED_HOME=$HADOOP_HOME
export HADOOP_COMMON_HOME=$HADOOP_HOME
export HADOOP_HDFS_HOME=$HADOOP_HOME
export YARN_HOME=$HADOOP_HOME
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export PATH=$PATH:$HADOOP_HOME/sbin:$HADOOP_HOME/bin
二、格式化namenode
执行以下命令格式化namenode:
hadoop namenode -format
三、启动hadoop集群
启动hadoop集群:
# 启动hadoop start-all.sh # 查看hadoop运行状态 jps
四、验证
验证namenode是否已经格式化成功:
hadoop fs -ls /
如果看到以下输出,则表示已经成功格式化namenode:
Found 1 items drwxr-xr-x - hadoop supergroup 0 2018-06-15 12:09 /user
五、注意事项
每次启动hadoop集群前都需要执行格式化namenode的操作。
在实际生产环境中,需要根据具体需求对hadoop配置文件进行进一步修改。
原创文章,作者:UDUA,如若转载,请注明出处:https://www.506064.com/n/132816.html
微信扫一扫
支付宝扫一扫