这里有好几个版本的解决方案,用来解决这个问题。
图片.png
Hadoop部署在我的4台Linux虚拟机,我是用window下的eclipse连接master主节点,进行HDFS文件操作以及MapReduce程序的运行。结果碰到了HDFS文件操作失败。在网上查找了相关资料,现在总结如下:
方案一:也是我认为最简单的方案
直接修改对应目录的权限:
Hadoop fs -chmod 777 filepath
上传文件失败.png
方案二:从配置文件中进行权限处理
在hadoop的 hdfs-site.xml 配置文件中取消权限校验,即加入以下配置:
<property> <name>dfs.permissions</name> <value>false</value> </property>
方案三:
右击计算机-->管理--->用户和组-->admin。。。改为与Linux下集群主机名相同
作者:枫雪浅语
链接:https://www.jianshu.com/p/18d67ff8e6ef
點擊查看更多內(nèi)容
為 TA 點贊
評論
評論
共同學(xué)習(xí),寫下你的評論
評論加載中...
作者其他優(yōu)質(zhì)文章
正在加載中
感謝您的支持,我會繼續(xù)努力的~
掃碼打賞,你說多少就多少
贊賞金額會直接到老師賬戶
支付方式
打開微信掃一掃,即可進行掃碼打賞哦