第七色在线视频,2021少妇久久久久久久久久,亚洲欧洲精品成人久久av18,亚洲国产精品特色大片观看完整版,孙宇晨将参加特朗普的晚宴

為了賬號安全,請及時(shí)綁定郵箱和手機(jī)立即綁定

hadoop + docker 搭建hadoop學(xué)習(xí)環(huán)境

標(biāo)簽:
Hadoop

在学习大数据的情况下免不了自己搭建一个hadoop环境,但是使用虚拟机在自己的电脑上启动一个集群环境会很吃机器的资源,所以我们使用docker来进行搭建大数据的集群环境。同时docker搭建hadoop环境可以省去很多重复的步骤。

同时现在hadoop的版本比较多,虽然推荐使用HDP和CDH进行集群的搭建,但是在学习时间推荐使用Apache Hadoop进行搭建,可以更快的学习hadoop的工作原理。

环境准备

  • docker-ce 环境

  • ubuntu 16.04的镜像

  • jdk1.7.0_80

  • hadoop-2.7.3

所需的都为开源的,可以很方便的从网上找寻到相应的软件。

ubuntu 16.04 镜像环境的制作可以参考下篇博文:

启动后的容器如下图所示:

webp

2018-10-25 16-54-41 的屏幕截图.png

安装JDK

将jdk1.7拷贝到/data目录下进行解压,下面就展现出docker搭建hadoop学习环境的好处。

在所有的容器里配值java环境变量,~/.bashrc或/etc/profile

export JAVA_HOME=/data/jdk1.7.0_80 
export PATH=$JAVA_HOME/bin:$PATH export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar

环境搭建

apt-get install ntp
apt-get install ssh#启动ssh服务service ssh start
sudo passwd root  
123

vim /etc/ssh/sshd_config

替换

PermitRootLogin without-password

为PermitRootLogin yes

重新启动ssh服务

service ssh restart

配值ssh无密访问

在master上运行

ssh-keygen

ssh-copy-id  root@master

ssh-copy-id  root@client1

ssh-copy-id  root@client2

然后ssh root@client1进行测试是否可以无密访问

Hadoop配置

在/data下解压hadoop-2.7.3
进入hadoop-2.7.3/etc/hadoop/下进行修改配值文件

export JAVA_HOME=/data/jdk1.7.0_80

<property> <name>hadoop.tmp.dir</name><value>/data/hadoop-2.7.3/tmp</value><description>Abaseforothertemporarydirectories.</description> </property> <property><name>fs.default.name</name><value>hdfs://master:9000</value></property>
<property> <name>dfs.name.dir</name><value>/home/hadoop/hadoop-2.6.0/dfs/name</value><description>Path on the local filesystem where the NameNode stores the namespace andtransactionslogspersistently.</description></property><property><name>dfs.data.dir</name><value>/home/hadoop/hadoop-2.6.0/dfs/data</value> <description>Comma separatedlistofpathsonthelocalfilesystemofaDataNodewhere itshouldstoreitsblocks.</description></property> <property> <name>dfs.replication</name> <value>1</value></property>
<configuration> <property><name>mapred.job.tracker</name><value>master:9001</value><description>HostofIPandportofJobTracker.</description></property> </configuration>
<property> <name>yarn.nodemanager.aux-services</name><value>mapreduce_shuffle</value> </property><property><name>yarn.resourcemanager.address</name><value>master:8032</value></property><property> <name>yarn.resourcemanager.scheduler.address</name><value>master:8030</value> </property><property><name>yarn.resourcemanager.resource-tracker.address</name> <value>master:8031</value></property><property> <name>yarn.resourcemanager.admin.address</name> <value>master:8033</value> </property><property><name>yarn.resourcemanager.webapp.address</name><value>master:8088</value> </property>

export JAVA_HOME=/data/jdk1.7.0_80

client1
client2

vim /etc/profile

export HADOOP_HOME=/data/hadoop-2.7.3
exportPATH=.:$HADOOP_HOME/bin:$JAVA_HOME/bin:$PATH

启动集群

bin/hdfsnamenode-format
sbin/start-all.sh

访问50070:

http://master:50070

出现页面,检查datanode是否完全启动成功

启动成功即可

否则:

hadoop-daemons.sh start datanode client1



作者:张晓天a
链接:https://www.jianshu.com/p/781db0147ed9


點(diǎn)擊查看更多內(nèi)容
TA 點(diǎn)贊

若覺得本文不錯(cuò),就分享一下吧!

評論

作者其他優(yōu)質(zhì)文章

正在加載中
  • 推薦
  • 評論
  • 收藏
  • 共同學(xué)習(xí),寫下你的評論
感謝您的支持,我會繼續(xù)努力的~
掃碼打賞,你說多少就多少
贊賞金額會直接到老師賬戶
支付方式
打開微信掃一掃,即可進(jìn)行掃碼打賞哦
今天注冊有機(jī)會得

100積分直接送

付費(fèi)專欄免費(fèi)學(xué)

大額優(yōu)惠券免費(fèi)領(lǐng)

立即參與 放棄機(jī)會
微信客服

購課補(bǔ)貼
聯(lián)系客服咨詢優(yōu)惠詳情

幫助反饋 APP下載

慕課網(wǎng)APP
您的移動(dòng)學(xué)習(xí)伙伴

公眾號

掃描二維碼
關(guān)注慕課網(wǎng)微信公眾號

舉報(bào)

0/150
提交
取消