一、準備環境
# 安裝hadoop sudo apt-get update sudo apt-get install -y hadoop # 修改hadoop配置文件 sudo nano /etc/hadoop/core-site.xml
在core-site.xml中添加如下內容:
fs.defaultFS hdfs://localhost:9000
保存並退出nano。
依次打開以下文件,並在每個文件中添加以下內容:
# 修改hadoop配置文件 sudo nano /etc/hadoop/hdfs-site.xml dfs.namenode.name.dir /usr/local/hadoop/hadoop_data/hdfs/namenode dfs.namenode.checkpoint.dir /usr/local/hadoop/hadoop_data/hdfs/namesecondary dfs.replication 1 # 設置hadoop環境變量 sudo nano /etc/profile.d/hadoop.sh export HADOOP_HOME=/usr/local/hadoop export HADOOP_MAPRED_HOME=$HADOOP_HOME export HADOOP_COMMON_HOME=$HADOOP_HOME export HADOOP_HDFS_HOME=$HADOOP_HOME export YARN_HOME=$HADOOP_HOME export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native export PATH=$PATH:$HADOOP_HOME/sbin:$HADOOP_HOME/bin
二、格式化namenode
執行以下命令格式化namenode:
hadoop namenode -format
三、啟動hadoop集群
啟動hadoop集群:
# 啟動hadoop start-all.sh # 查看hadoop運行狀態 jps
四、驗證
驗證namenode是否已經格式化成功:
hadoop fs -ls /
如果看到以下輸出,則表示已經成功格式化namenode:
Found 1 items drwxr-xr-x - hadoop supergroup 0 2018-06-15 12:09 /user
五、注意事項
每次啟動hadoop集群前都需要執行格式化namenode的操作。
在實際生產環境中,需要根據具體需求對hadoop配置文件進行進一步修改。
原創文章,作者:UDUA,如若轉載,請註明出處:https://www.506064.com/zh-hant/n/132816.html