国产xxxx99真实实拍_久久不雅视频_高清韩国a级特黄毛片_嗯老师别我我受不了了小说

資訊專欄INFORMATION COLUMN

Hadoop on Docker

fizz / 1506人閱讀

摘要:是源碼,要編譯才能用。的是給位機(jī)器用的,想在位機(jī)器上用只能用編譯的。解壓配置環(huán)境變量在和中添加環(huán)境變量添加環(huán)境變量修改修改修改文件修改在文件中添加鏡像啟動(dòng)集群進(jìn)入到每個(gè)節(jié)點(diǎn)執(zhí)行每個(gè)節(jié)點(diǎn)配置查看地址配置啟動(dòng)查看參考

docker安裝

安裝

yum install -y epel-releas
yum install docker-io

加入開機(jī)啟動(dòng)

chkconfig docker on

啟動(dòng)docker

service docker start

拉取基礎(chǔ)鏡像 centos

centos鏡像

sudo docker pull insaneworks/centos

制作Hadoop鏡像

進(jìn)入centos容器

sudo docker run -it -h master --name master insaneworks/centos /bin/bash

裝gcc

yum install -y gcc

裝vim

yum install -y vim

裝lrzsz

yum install -y lrzsz

裝ssh

yum -y install openssh-server

yum -y install openssh-clients

修改ssh配置

vim /etc/ssh/sshd_config

放開 PermitEmptyPasswords no

更改 UsePAM no

放開 PermitRootLogin yes

啟動(dòng)sshd

service sshd start

ssh密碼設(shè)置

ssh-keygen -t rsa -P "" -f ~/.ssh/id_dsa

cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys

ssh連master

ssh master    

安裝java

在docker容器中安裝Java(從宿主機(jī)向docker容器中拷貝文件)

安裝tar

yum install -y tar

下載Hadoop

http://mirror.bit.edu.cn/apache/hadoop/common/hadoop-2.8.2/hadoop-2.8.2.tar.gz    

tar.gz是已經(jīng)編譯好的了,解壓改改配置文件就能用。src.tar.gz是源碼,要編譯才能用。tar.gz的是給32位機(jī)器用的,想在64位機(jī)器上用只能用編譯的。

解壓

tar zxvf hadoop-2.8.2.tar.gz

配置環(huán)境變量

export HADOOP_HOME=/home/hadoop/hadoop-2.8.2
export PATH=$JAVAHOME/bin:$HADOOP_HOME/bin:$PATH

hadoop-env.shyarn-env.sh中添加環(huán)境變量

vim hadoop-env.sh
vim yarn-env.sh

添加環(huán)境變量
export JAVA_HOME=/usr/java/jdk1.7.0_75

修改 hadoop core-site.xml



fs.defaultFS
hdfs://master:9000


io.file.buffer.size
131702


hadoop.tmp.dir
file:/mnt/hadoop-2.8.2/tmp

   

修改hdfs-site.xml



dfs.namenode.name.dir
file:/mnt/hadoop-2.8.2/dfs/name


dfs.datanode.data.dir
file:/mnt/hadoop-2.8.2/dfs/data


dfs.replication
2


dfs.namenode.secondary.http-address
master:9001


dfs.webhdfs.enabled
true

修改mapred-site.xml文件



mapreduce.framework.name
yarn


mapreduce.jobhistory.address
master:10020


mapreduce.jobhistory.webapp.address
master:19888


修改yarn-site.xml



yarn.nodemanager.aux-services
mapreduce_shuffle


yarn.nodemanager.auxservices.mapreduce.shuffle.class
org.apache.hadoop.mapred.ShuffleHandler


yarn.resourcemanager.address
master:8032


yarn.resourcemanager.scheduler.address
master:8030


yarn.resourcemanager.resource-tracker.address
master:8031


yarn.resourcemanager.admin.address
master:8033


yarn.resourcemanager.webapp.address
master:8088


yarn.nodemanager.resource.memory-mb
1024

slaves文件中添加

slave1
slave2
slave3

ldd

yum install -y wget

wget http://ftp.gnu.org/gnu/glibc/glibc-2.14.tar.gz

tar zxvf glibc-2.14.tar.gz

cd glibc-2.14

mkdir build

cd build

../configure --prefix=/usr/local/glibc-2.14

make

make install

ln -sf /usr/local/glibc-2.14/lib/libc-2.14.so /lib64/libc.so.6

ldd /home/hadoop/hadoop-2.6.0/lib/native/libhadoop.so.1.0.0

commit鏡像

docker commit master hadoop

啟動(dòng)hadoop集群

docker rm master

sudo docker run -it -p 50070:50070 -p 19888:19888 -p 8088:8088 -h master --name master hadoop /bin/bash

sudo docker run -it -h slave1 --name slave1 hadoop /bin/bash

sudo docker run -it -h slave2 --name slave2 hadoop /bin/bash

sudo docker run -it -h slave3 --name slave3 hadoop /bin/bash
    

進(jìn)入到每個(gè)節(jié)點(diǎn)執(zhí)行

source /etc/profile

service sshd start

每個(gè)節(jié)點(diǎn)配置hosts

查看IP地址
docker inspect --format="{{.NetworkSettings.IPAddress}}" master

配置hosts
172.42.0.42 master

172.42.0.46  slave1

172.42.0.47  slave2

172.42.0.48  slave3

啟動(dòng)hadoop

./sbin/start-all.sh

查看

jps  

參考:

http://blog.csdn.net/xu470438000/article/details/50512442
http://www.tashan10.com/yong-dockerda-jian-hadoopwei-fen-bu-shi-ji-qun/
http://www.thebigdata.cn/Hadoop/30208.html
http://www.cnblogs.com/songfy/p/4716431.html

文章版權(quán)歸作者所有,未經(jīng)允許請(qǐng)勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。

轉(zhuǎn)載請(qǐng)注明本文地址:http://m.specialneedsforspecialkids.com/yun/27097.html

相關(guān)文章

  • 基于Docker搭建Hadoop集群之升級(jí)版

    摘要:總之,項(xiàng)目還算很受歡迎吧,這篇博客將介紹項(xiàng)目的升級(jí)版。一項(xiàng)目介紹將打包到鏡像中,就可以快速地在單個(gè)機(jī)器上搭建集群,這樣可以方便新手測(cè)試和學(xué)習(xí)。之前的版本使用為集群提供服務(wù),由于網(wǎng)絡(luò)功能更新,現(xiàn)在并不需要了。運(yùn)行參考第二部分啟動(dòng),并運(yùn)行。 摘要: kiwenlau/hadoop-cluster-docker是去年參加Docker巨好玩比賽開發(fā)的,得了二等獎(jiǎng)并贏了一塊蘋果手表,目前這個(gè)項(xiàng)目...

    Zoom 評(píng)論0 收藏0

發(fā)表評(píng)論

0條評(píng)論

最新活動(dòng)
閱讀需要支付1元查看
<