资讯专栏INFORMATION COLUMN

Hadoop on Docker

fizz / 1628人阅读

摘要:是源码,要编译才能用。的是给位机器用的,想在位机器上用只能用编译的。解压配置环境变量在和中添加环境变量添加环境变量修改修改修改文件修改在文件中添加镜像启动集群进入到每个节点执行每个节点配置查看地址配置启动查看参考

docker安装

安装

</>复制代码

  1. yum install -y epel-releas
  2. yum install docker-io

加入开机启动

</>复制代码

  1. chkconfig docker on

启动docker

</>复制代码

  1. service docker start

拉取基础镜像 centos

centos镜像

</>复制代码

  1. sudo docker pull insaneworks/centos

制作Hadoop镜像

进入centos容器

</>复制代码

  1. sudo docker run -it -h master --name master insaneworks/centos /bin/bash

装gcc

</>复制代码

  1. yum install -y gcc

装vim

</>复制代码

  1. yum install -y vim

装lrzsz

</>复制代码

  1. yum install -y lrzsz

装ssh

</>复制代码

  1. yum -y install openssh-server
  2. yum -y install openssh-clients

修改ssh配置

</>复制代码

  1. vim /etc/ssh/sshd_config
  2. 放开 PermitEmptyPasswords no
  3. 更改 UsePAM no
  4. 放开 PermitRootLogin yes

启动sshd

</>复制代码

  1. service sshd start

ssh密码设置

</>复制代码

  1. ssh-keygen -t rsa -P "" -f ~/.ssh/id_dsa
  2. cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys

ssh连master

</>复制代码

  1. ssh master

安装java

在docker容器中安装Java(从宿主机向docker容器中拷贝文件)

安装tar

</>复制代码

  1. yum install -y tar

下载Hadoop

</>复制代码

  1. http://mirror.bit.edu.cn/apache/hadoop/common/hadoop-2.8.2/hadoop-2.8.2.tar.gz
  2. tar.gz是已经编译好的了,解压改改配置文件就能用。src.tar.gz是源码,要编译才能用。tar.gz的是给32位机器用的,想在64位机器上用只能用编译的。

解压

</>复制代码

  1. tar zxvf hadoop-2.8.2.tar.gz

配置环境变量

</>复制代码

  1. export HADOOP_HOME=/home/hadoop/hadoop-2.8.2
  2. export PATH=$JAVAHOME/bin:$HADOOP_HOME/bin:$PATH

hadoop-env.shyarn-env.sh中添加环境变量

</>复制代码

  1. vim hadoop-env.sh
  2. vim yarn-env.sh
  3. 添加环境变量
  4. export JAVA_HOME=/usr/java/jdk1.7.0_75

修改 hadoop core-site.xml

</>复制代码

  1. fs.defaultFS
  2. hdfs://master:9000
  3. io.file.buffer.size
  4. 131702
  5. hadoop.tmp.dir
  6. file:/mnt/hadoop-2.8.2/tmp

修改hdfs-site.xml

</>复制代码

  1. dfs.namenode.name.dir
  2. file:/mnt/hadoop-2.8.2/dfs/name
  3. dfs.datanode.data.dir
  4. file:/mnt/hadoop-2.8.2/dfs/data
  5. dfs.replication
  6. 2
  7. dfs.namenode.secondary.http-address
  8. master:9001
  9. dfs.webhdfs.enabled
  10. true

修改mapred-site.xml文件

</>复制代码

  1. mapreduce.framework.name
  2. yarn
  3. mapreduce.jobhistory.address
  4. master:10020
  5. mapreduce.jobhistory.webapp.address
  6. master:19888

修改yarn-site.xml

</>复制代码

  1. yarn.nodemanager.aux-services
  2. mapreduce_shuffle
  3. yarn.nodemanager.auxservices.mapreduce.shuffle.class
  4. org.apache.hadoop.mapred.ShuffleHandler
  5. yarn.resourcemanager.address
  6. master:8032
  7. yarn.resourcemanager.scheduler.address
  8. master:8030
  9. yarn.resourcemanager.resource-tracker.address
  10. master:8031
  11. yarn.resourcemanager.admin.address
  12. master:8033
  13. yarn.resourcemanager.webapp.address
  14. master:8088
  15. yarn.nodemanager.resource.memory-mb
  16. 1024

slaves文件中添加

</>复制代码

  1. slave1
  2. slave2
  3. slave3

ldd

</>复制代码

  1. yum install -y wget
  2. wget http://ftp.gnu.org/gnu/glibc/glibc-2.14.tar.gz
  3. tar zxvf glibc-2.14.tar.gz
  4. cd glibc-2.14
  5. mkdir build
  6. cd build
  7. ../configure --prefix=/usr/local/glibc-2.14
  8. make
  9. make install
  10. ln -sf /usr/local/glibc-2.14/lib/libc-2.14.so /lib64/libc.so.6
  11. ldd /home/hadoop/hadoop-2.6.0/lib/native/libhadoop.so.1.0.0

commit镜像

</>复制代码

  1. docker commit master hadoop

启动hadoop集群

</>复制代码

  1. docker rm master
  2. sudo docker run -it -p 50070:50070 -p 19888:19888 -p 8088:8088 -h master --name master hadoop /bin/bash
  3. sudo docker run -it -h slave1 --name slave1 hadoop /bin/bash
  4. sudo docker run -it -h slave2 --name slave2 hadoop /bin/bash
  5. sudo docker run -it -h slave3 --name slave3 hadoop /bin/bash

进入到每个节点执行

</>复制代码

  1. source /etc/profile
  2. service sshd start

每个节点配置hosts

</>复制代码

  1. 查看IP地址
  2. docker inspect --format="{{.NetworkSettings.IPAddress}}" master
  3. 配置hosts
  4. 172.42.0.42 master
  5. 172.42.0.46 slave1
  6. 172.42.0.47 slave2
  7. 172.42.0.48 slave3

启动hadoop

</>复制代码

  1. ./sbin/start-all.sh

查看

</>复制代码

  1. jps

参考:

</>复制代码

  1. http://blog.csdn.net/xu470438000/article/details/50512442
  2. http://www.tashan10.com/yong-dockerda-jian-hadoopwei-fen-bu-shi-ji-qun/
  3. http://www.thebigdata.cn/Hadoop/30208.html
  4. http://www.cnblogs.com/songfy/p/4716431.html

文章版权归作者所有,未经允许请勿转载,若此文章存在违规行为,您可以联系管理员删除。

转载请注明本文地址:https://www.ucloud.cn/yun/27097.html

相关文章

  • 基于Docker搭建Hadoop集群之升级版

    摘要:总之,项目还算很受欢迎吧,这篇博客将介绍项目的升级版。一项目介绍将打包到镜像中,就可以快速地在单个机器上搭建集群,这样可以方便新手测试和学习。之前的版本使用为集群提供服务,由于网络功能更新,现在并不需要了。运行参考第二部分启动,并运行。 摘要: kiwenlau/hadoop-cluster-docker是去年参加Docker巨好玩比赛开发的,得了二等奖并赢了一块苹果手表,目前这个项目...

    Zoom 评论0 收藏0

发表评论

0条评论

最新活动
阅读需要支付1元查看
<