hive执行sql报无法生成副本

念心------寻梦 2020-10-16 09:06:14
执行sql时报下图错误,度娘说是有以下几种情况,第一:副本数设置过大(经验证副本数小于节点数) ;第二:namenode无法正常连接datanode(经验证正常连接);第三:集群空间不够用。当时空间已使用80%,所以尝试删除部分数据,发现删除之后不再报错,所以以为问题解决了,过了一个多星期又报一样的错,这时已使用空间70%,然后我又删除部分数据,发现又不报错了,又过了一个多星期又报一样的错,这时已使用空间60%,问题就来了,明明有40%空间可以使用,为什么还会报这个错,而且每次删除部分数据还都可以临时解决问题,而且每次报错的时候,已使用空间越来越小。
...全文
86 回复 打赏 收藏 转发到动态 举报
写回复
用AI写文章
回复
切换为时间正序
请发表友善的回复…
发表回复

20,846

社区成员

发帖
与我相关
我的任务
社区描述
Hadoop生态大数据交流社区,致力于有Hadoop,hive,Spark,Hbase,Flink,ClickHouse,Kafka,数据仓库,大数据集群运维技术分享和交流等。致力于收集优质的博客
社区管理员
  • 分布式计算/Hadoop社区
  • 涤生大数据
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧