摘要:错误将添加到路径代码动态分区异常代码进程超内存限制添加代码代码文件数限制代码连接超时代码解决方案代码代码参数列表过长参数列表过长解决方案升级内核或减少分区数代码问题排查代码代码拒绝连接。。。
问题排查方式原因分析:
拷贝hadoop安装包时,包含data与tmp文件夹(见本人《hadoop安装》一文),未成功格式化datanode
解决办法:
Shell代码
rm -rf /data/hadoop/hadoop-1.1.2/datarm -rf /data/hadoop/hadoop-1.1.2/tmp
hadoop datanode -format
2. safe mode
解决方案:
3.连接异常
可能原因:
问题:Namenode上namespaceID与datanode上namespaceID不一致。
问题产生原因:每次namenode
format会重新创建一个namenodeId,而tmp/dfs/data下包含了上次format下的id,namenode
format清空了namenode下的数据,但是没有清空datanode下的数据,所以造成namenode节点上的namespaceID与
datanode节点上的namespaceID不一致。启动失败。
解决办法:参考该网址 http://blog.csdn.net/wh62592855/archive/2010/07/21/5752199.aspx 给出两种解决方法,我们使用的是第一种解决方法:即:
(1)停掉集群服务
(2)在出问题的datanode节点上删除data目录,data目录即是在hdfs-site.xml文件中配置的
dfs.data.dir目录,本机器上那个是/var/lib/hadoop-0.20/cache/hdfs/dfs/data/
(注:我们当时在所有的datanode和namenode节点上均执行了该步骤。以防删掉后不成功,可以先把data目录保存一个副本).
(3)格式化namenode.
(4)重新启动集群。
问题解决。
这种方法带来的一个副作用即是,hdfs上的所有数据丢失。如果hdfs上存放有重要数据的时候,不建议采用该方法,可以尝试提供的网址中的第二种方法。
5. 目录权限
start-dfs.sh执行无错,显示启动datanode,执行完后无datanode。查看datanode机器上的日志,显示因dfs.data.dir目录权限不正确导致:
解决办法:
查看dfs.data.dir的目录配置,修改权限即可。
hive错误
1.NoClassDefFoundError
Could not initialize class java.lang.NoClassDefFoundError: Could not
initialize class org.apache.hadoop.HBase.io.HbaseObjectWritable
将protobuf-***.jar添加到jars路径
Xml代码
//$HIVE_HOME/conf/hive-site.xml
2.hive动态分区异常
[Fatal Error] Operator FS_2 (id=2): Number of dynamic partitions exceeded hive.exec.max.dynamic.partitions.pernode
3.mapreduce进程超内存限制——hadoop Java heap space
vim mapred-site.xml添加:
Shell代码
#$HADOOP_HOME/conf/hadoop_env.shexport HADOOP_HEAPSIZE=5000
4.hive文件数限制
[Fatal Error] total number of created files now is 100086, which exceeds 100000
5.metastore连接超时
解决方案:
6. java.io.IOException: error=7, Argument list too long
问题排查:
Text代码
13/07/15 16:29:24 INFO hive.metastore: Trying to connect to metastore with URI thrift://xxx.xxx.xxx.xxx:908313/07/15 16:29:24 WARN hive.metastore: Failed to connect to the MetaStore Server...
org.apache.thrift.transport.TTransportException: java.net.ConnectException: 拒绝连接
。。。
MetaException(message:Could not connect to meta store using any of the URIs provided. Most recent failure: org.apache.thrift.transport.TTransportException: java.net.ConnectException: 拒绝连接
尝试连接9083端口,netstat查看该端口确实没有被监听,第一反应是hiveserver没有正常启动。查看hiveserver进程却存在,只是监听10000端口。
查看hive-site.xml配置,hive客户端连接9083端口,而hiveserver默认监听10000,找到问题根源了
解决办法:
Shell代码
hive --service hiveserver -p 9083
//或修改$HIVE_HOME/conf/hive-site.xml的hive.metastore.uris部分
//将端口改为10000
文章版权归作者所有,未经允许请勿转载,若此文章存在违规行为,您可以联系管理员删除。
转载请注明本文地址:https://www.ucloud.cn/yun/3815.html
摘要:国庆假期留在学校做了一下林子雨博士的大数据实验淘宝双数据分析与预测,虽然教程写得很详细,但自己还是踩了很多坑,现在记录下来,希望给别人一点帮助。 国庆假期留在学校做了一下林子雨博士的大数据实验--淘宝双11数据分析与预测,虽然教程写得很详细,但自己还是踩了很多坑,现在记录下来,希望给别人一点帮助。 淘宝双11数据分析与预测实验连接:点击这里 问题一:安装Hadoop时报错 报错内容: ...
摘要:,是由创建的另外一个实时流数据处理的分布式系统,详见。是推出的商业产品,是可一个支持横向扩展的内存数据库解决方案,可以支持实时的大数据分析和计算。 Hadoop通常被认定是能够帮助你解决所有问题的方案。 当人们提到大数据或是数据分析等相关问题的时候,会听到脱口而出的回答:Hadoop!实际上Hadoop被设计和建造出来,是用来解决一系列特 定问题的。对某些问题来说,Hadoop至多算是一个...
摘要:看一个用例场景大量的数据存储在关系数据库管理系统环境中。当数据集越来越大时,关系数据库管理系统表现不佳。可在几分钟内部署集群。像其他服务一样,服务可以通过强大的和仪表板进行管理。编排即服务用于配置和编排数据处理集群的部署。 OpenStack 控制计算、存储和网络资源池。本文主要关注 OpenStack 如何在大数据用例中扮演关键角色。OpenStack 上的大数据现在,数据随处生成,数据量...
摘要:本文系美图互联网技术沙龙第期嘉宾分享内容,公众号后台回复美图大数据平台获取。美图数据平台整体架构如图所示是我们数据平台的整体架构。接下来会重点介绍到以及数据开放这两个阶段我们平台的实践以及优化思路。 本文系美图互联网技术沙龙第 11 期嘉宾分享内容,公众号后台回复「美图大数据平台」获取 PPT。 showImg(https://segmentfault.com/img/bVbfJy9?...
阅读 3417·2021-10-11 10:59
阅读 1481·2021-09-29 09:35
阅读 2088·2021-09-26 09:46
阅读 3531·2021-09-10 10:50
阅读 826·2019-08-29 12:17
阅读 670·2019-08-26 13:40
阅读 2334·2019-08-26 11:44
阅读 1948·2019-08-26 11:22