摘要:是源码,要编译才能用。的是给位机器用的,想在位机器上用只能用编译的。解压配置环境变量在和中添加环境变量添加环境变量修改修改修改文件修改在文件中添加镜像启动集群进入到每个节点执行每个节点配置查看地址配置启动查看参考
docker安装
安装
yum install -y epel-releas yum install docker-io
加入开机启动
chkconfig docker on
启动docker
service docker start
拉取基础镜像 centos
centos镜像
sudo docker pull insaneworks/centos
制作Hadoop镜像
进入centos容器
sudo docker run -it -h master --name master insaneworks/centos /bin/bash
装gcc
yum install -y gcc
装vim
yum install -y vim
装lrzsz
yum install -y lrzsz
装ssh
yum -y install openssh-server yum -y install openssh-clients
修改ssh配置
vim /etc/ssh/sshd_config 放开 PermitEmptyPasswords no 更改 UsePAM no 放开 PermitRootLogin yes
启动sshd
service sshd start
ssh密码设置
ssh-keygen -t rsa -P "" -f ~/.ssh/id_dsa cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys
ssh连master
ssh master
安装java
在docker容器中安装Java(从宿主机向docker容器中拷贝文件)
安装tar
yum install -y tar
下载Hadoop
http://mirror.bit.edu.cn/apache/hadoop/common/hadoop-2.8.2/hadoop-2.8.2.tar.gz tar.gz是已经编译好的了,解压改改配置文件就能用。src.tar.gz是源码,要编译才能用。tar.gz的是给32位机器用的,想在64位机器上用只能用编译的。
解压
tar zxvf hadoop-2.8.2.tar.gz
配置环境变量
export HADOOP_HOME=/home/hadoop/hadoop-2.8.2 export PATH=$JAVAHOME/bin:$HADOOP_HOME/bin:$PATH
在hadoop-env.sh 和 yarn-env.sh中添加环境变量
vim hadoop-env.sh vim yarn-env.sh 添加环境变量 export JAVA_HOME=/usr/java/jdk1.7.0_75
修改 hadoop core-site.xml
fs.defaultFS hdfs://master:9000 io.file.buffer.size 131702 hadoop.tmp.dir file:/mnt/hadoop-2.8.2/tmp
修改hdfs-site.xml
dfs.namenode.name.dir file:/mnt/hadoop-2.8.2/dfs/name dfs.datanode.data.dir file:/mnt/hadoop-2.8.2/dfs/data dfs.replication 2 dfs.namenode.secondary.http-address master:9001 dfs.webhdfs.enabled true
修改mapred-site.xml文件
mapreduce.framework.name yarn mapreduce.jobhistory.address master:10020 mapreduce.jobhistory.webapp.address master:19888
修改yarn-site.xml
yarn.nodemanager.aux-services mapreduce_shuffle yarn.nodemanager.auxservices.mapreduce.shuffle.class org.apache.hadoop.mapred.ShuffleHandler yarn.resourcemanager.address master:8032 yarn.resourcemanager.scheduler.address master:8030 yarn.resourcemanager.resource-tracker.address master:8031 yarn.resourcemanager.admin.address master:8033 yarn.resourcemanager.webapp.address master:8088 yarn.nodemanager.resource.memory-mb 1024
在slaves文件中添加
slave1 slave2 slave3
ldd
yum install -y wget wget http://ftp.gnu.org/gnu/glibc/glibc-2.14.tar.gz tar zxvf glibc-2.14.tar.gz cd glibc-2.14 mkdir build cd build ../configure --prefix=/usr/local/glibc-2.14 make make install ln -sf /usr/local/glibc-2.14/lib/libc-2.14.so /lib64/libc.so.6 ldd /home/hadoop/hadoop-2.6.0/lib/native/libhadoop.so.1.0.0
commit镜像
docker commit master hadoop
启动hadoop集群
docker rm master sudo docker run -it -p 50070:50070 -p 19888:19888 -p 8088:8088 -h master --name master hadoop /bin/bash sudo docker run -it -h slave1 --name slave1 hadoop /bin/bash sudo docker run -it -h slave2 --name slave2 hadoop /bin/bash sudo docker run -it -h slave3 --name slave3 hadoop /bin/bash
进入到每个节点执行
source /etc/profile service sshd start
每个节点配置hosts
查看IP地址 docker inspect --format="{{.NetworkSettings.IPAddress}}" master 配置hosts 172.42.0.42 master 172.42.0.46 slave1 172.42.0.47 slave2 172.42.0.48 slave3
启动hadoop
./sbin/start-all.sh
查看
jps
参考:
http://blog.csdn.net/xu470438000/article/details/50512442 http://www.tashan10.com/yong-dockerda-jian-hadoopwei-fen-bu-shi-ji-qun/ http://www.thebigdata.cn/Hadoop/30208.html http://www.cnblogs.com/songfy/p/4716431.html
文章版权归作者所有,未经允许请勿转载,若此文章存在违规行为,您可以联系管理员删除。
转载请注明本文地址:https://www.ucloud.cn/yun/27097.html
摘要:总之,项目还算很受欢迎吧,这篇博客将介绍项目的升级版。一项目介绍将打包到镜像中,就可以快速地在单个机器上搭建集群,这样可以方便新手测试和学习。之前的版本使用为集群提供服务,由于网络功能更新,现在并不需要了。运行参考第二部分启动,并运行。 摘要: kiwenlau/hadoop-cluster-docker是去年参加Docker巨好玩比赛开发的,得了二等奖并赢了一块苹果手表,目前这个项目...
摘要:本文详细介绍了基于进行集群资源调度的数人云,如何部署集群。数人云集群正是通过进行集群资源调度,因此,数人云部署集群,有着天然的优势。 Spark 是 UC Berkeley AMP lab 开源的类 Hadoop MapReduce 的通用的并行计算框架,Spark 基于 map reduce 算法实现的分布式计算,拥有 Hadoop MapReduce 所具有的优点,并且 能更好地适...
摘要:分享之前我还是要说下我自己创建的大数据交流群,不管是学生还是大神,都欢迎加入一起探讨总体上采用架构,如图所示,其中,被称为,被称为,负责对各个上的资源进行统一管理和调度。 为了能够对集群中的资源进行统一管理和调度,Hadoop 2.0引入了数据操作系统YARN。YARN的引入,大大提高了集群的资源利用率,并降低了集群管理成本。首先,YARN允许多个应用程序运行在一个集群中,并将资源...
摘要:业内哪些事情值得关注大数据解决方案提供商上市。加密过程是端到端的,这意味着数据只能在应用程序解密。计划未来支持部署在多机房,实现跨机房容灾,零丢失率,低延时。目前支持此种方式的数据类型有。 时代在变迁,市场在变化,周边的软硬件环境也突飞猛进般的发展,同时企业的业务需求也不断升级,从规模到成本都有较高的要求,这刺激Hadoop生态圈的变革。据AMR研究显示,到2020年Hadoop将拥有502...
摘要:和,容器中的这三个文件不存在于镜像,而是存在于,在启动容器的时候,通过的形式将这些文件挂载到容器内部。 基于docker1.7.03.1单机上部署hadoop2.7.3分布式集群 [TOC] 声明 文章均为本人技术笔记,转载请注明出处:[1] https://segmentfault.com/u/yzwall[2] blog.csdn.net/j_dark/ 0 docker版本与ha...
阅读 855·2019-08-30 14:24
阅读 856·2019-08-30 14:13
阅读 1690·2019-08-29 17:21
阅读 2456·2019-08-29 13:44
阅读 1522·2019-08-29 11:04
阅读 325·2019-08-26 10:44
阅读 2457·2019-08-23 14:04
阅读 787·2019-08-23 12:08