首页 技术 正文
技术 2022年11月14日
0 收藏 835 点赞 2,943 浏览 4660 个字

三台机器: Hmaster 172.168.2.3、Hslave1 172.168.2.4、Hslave2 172.168.2.6

JDK:1.8.49OS:red hat 5.4 64 (由于后期发现有一些由于系统lib库版本太低、python版本太低、java运行环境版本太低等问题,降低了搭建效率,应该用至少是7及以上的OS版本。尤其是无法使用本地库的问题必须得由升级操作系统很多组件来解决,如glib库等)1、配置hostname /etc/system/network     域名映射   /etc/hosts  每个机器都有3条映射信息2、增加用户hadoop,设置三台机器间免密通信        ssh-keygen -t rsa        cat id_rsa.pub >> authorized_keys         scp id_rsa.pub  hadoop@172.168.2.4:~/.ssh/id_rsa.pub_sl        scp id_rsa.pub https://www.shuzhiduo.com/A/D854YDOxdE/hadoop@172.168.2.6:~/.ssh/id_rsa.pub_sl        cat id_rsa.pub_sl >> authorized_keys         chmod 700 ~/.ssh
        chmod 600 ~/.ssh/authorized_keys3、升级JDK   rpm -ivh jdk-8u91-linux-x64.rpmvi .bash_profileexport JAVA_HOME=/usr/java/jdk1.8.0_91 export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jarexport PATH=$JAVA_HOME/bin:$PATHexport HADOOP_HOME=/home/hadoop/hadoop-2.6.4/   4、 配置三个节点都创建这三个文件夹 [https://www.shuzhiduo.com/A/D854YDOxdE/hadoop@Hmaster ~]$ mkdir -p hadoop/tmp[https://www.shuzhiduo.com/A/D854YDOxdE/hadoop@Hmaster ~]$ mkdir -p dfs/data

[https://www.shuzhiduo.com/A/D854YDOxdE/hadoop@Hmaster ~]$ mkdir -p dfs/name

主要涉及的配置文件有7个:都在/hadoop/etc/hadoop文件夹下,可以用gedit命令对其进行编辑。

~/hadoop/etc/hadoop/hadoop-env.sh  –>修改JAVA_HOME
~/hadoop/etc/hadoop/yarn-env.sh  –>修改JAVA_HOME
~/hadoop/etc/hadoop/slaves  –>>增加slave节点 
~/hadoop/etc/hadoop/core-site.xml  –>>增加hadoop核心配置
~/hadoop/etc/hadoop/hdfs-site.xml  –>>增加hdfs配置信息(namenode、datanode端口和目录位置)
~/hadoop/etc/hadoop/mapred-site.xml –>>增加mapreduce配置(使用yarn框架、jobhistory使用地址以及web地址)

~/hadoop/etc/hadoop/yarn-site.xml –>>增加resource manager

[https://www.shuzhiduo.com/A/D854YDOxdE/hadoop@Hmaster ~]$ cd /home/hadoop/hadoop-2.6.4/etc/hadoop/vi hadoop-env.shexport JAVA_HOME=/usr/java/jdk1.8.0_91vi yarn-env.shJAVA_HOME=/usr/java/jdk1.8.0_91vi core-site.xml<configuration>        <property>                <name>hadoop.tmp.dir</name>                <value>/home/hadoop/hadoop/tmp</value>                <description>Abase for other temporary directories.</description>        </property>        <property>                <name>fs.defaultFS</name>                <value>hdfs://Hmaster:9000</value>        </property>        <property>                <name>io.file.buffer.size</name>                <value>4096</value>        </property></configuration>vi hdfs-site.xml<configuration>        <property>                <name>dfs.namenode.name.dir</name>                <value>file:///home/hadoop/dfs/name</value>        </property>        <property>                <name>dfs.datanode.data.dir</name>                <value>file:///home/hadoop/dfs/data</value>        </property>        <property>                <name>dfs.replication</name>                <value>2</value>        </property>    <property>        <name>dfs.namenode.secondary.http-address</name>        <value>Hmaster:50090</value>    </property></configuration>vi mapred-site.xml<configuration>        <property>                <name>mapreduce.framework.name</name>                <value>yarn</value>                <final>true</final>        </property>     <property>        <name>mapreduce.jobtracker.http.address</name>        <value>Hmaster:50030</value>    </property>    <property>        <name>mapreduce.jobhistory.address</name>        <value>Hmaster:10020</value>    </property>    <property>        <name>mapreduce.jobhistory.webapp.address</name>        <value>Hmaster:19888</value>    </property>        <property>                <name>mapred.job.tracker</name>                <value>http://Hmaster:9001</value>        </property></configuration>vi yarn-site.xml   <configuration><!– Site specific YARN configuration properties –><property>                <name>yarn.resourcemanager.hostname</name>                <value>Hmaster</value>        </property>     <property>        <name>yarn.nodemanager.aux-services</name>        <value>mapreduce_shuffle</value>    </property>    <property>        <name>yarn.resourcemanager.address</name>        <value>Hmaster:8032</value>    </property>    <property>        <name>yarn.resourcemanager.scheduler.address</name>        <value>Hmaster:8030</value>    </property>    <property>        <name>yarn.resourcemanager.resource-tracker.address</name>        <value>Hmaster:8031</value>    </property>    <property>        <name>yarn.resourcemanager.admin.address</name>        <value>Hmaster:8033</value>    </property>    <property>        <name>yarn.resourcemanager.webapp.address</name>        <value>Hmaster:8088</value>    </property></configuration>vi mastersHmaster       vi slavesHslave1Hslave25、拷贝及配置scp -r hadoop-2.6.4/ hadoop@172.168.2.4:~/scp -r hadoop-2.6.4/ https://www.shuzhiduo.com/A/D854YDOxdE/hadoop@172.168.2.6:~/复制Hmaster的.bash_profile的配置到slave修改/etc/sysconfig/network6、测试格式化namenode:hdfs namenode -format  三个节点都执行启动hdfs:/sbin/start-dfs.sh 启动yarn:./sbin/start-yarn.sh上传一个文件,才能正常查看到状态查看集群状态:hadoop dfsadmin -reporthttp://172.168.2.3:50070/

相关推荐
python开发_常用的python模块及安装方法
adodb:我们领导推荐的数据库连接组件bsddb3:BerkeleyDB的连接组件Cheetah-1.0:我比较喜欢这个版本的cheeta…
日期:2022-11-24 点赞:878 阅读:9,090
Educational Codeforces Round 11 C. Hard Process 二分
C. Hard Process题目连接:http://www.codeforces.com/contest/660/problem/CDes…
日期:2022-11-24 点赞:807 阅读:5,567
下载Ubuntn 17.04 内核源代码
zengkefu@server1:/usr/src$ uname -aLinux server1 4.10.0-19-generic #21…
日期:2022-11-24 点赞:569 阅读:6,415
可用Active Desktop Calendar V7.86 注册码序列号
可用Active Desktop Calendar V7.86 注册码序列号Name: www.greendown.cn Code: &nb…
日期:2022-11-24 点赞:733 阅读:6,187
Android调用系统相机、自定义相机、处理大图片
Android调用系统相机和自定义相机实例本博文主要是介绍了android上使用相机进行拍照并显示的两种方式,并且由于涉及到要把拍到的照片显…
日期:2022-11-24 点赞:512 阅读:7,824
Struts的使用
一、Struts2的获取  Struts的官方网站为:http://struts.apache.org/  下载完Struts2的jar包,…
日期:2022-11-24 点赞:671 阅读:4,907