精华内容
下载资源
问答
  • 网站下线维护时,该发哪个http header头信息状态码给搜索引擎?

    网站下线维护时,该发哪个http header头信息状态码给搜索引擎?

    向搜索引擎返回正确的http header头信息状态码, 是SEO最基本的。当页面不存在时,返回404;当将一个url地址永久重定向到另一url地址时,返回301;那当网站下线维护期间,应该向搜索引擎返回哪个header状态码呢?

    我读到两篇文章讲得非常清楚,应该返回503 service temporarily unavailable。一篇是http://www.askapache.com/htaccess/503-service-temporarily-unavailable.html。这篇文章讲到:如果搜索引擎刚好在网站维护时造访,错误地返回404或者500,那么已被索引的页面的pagerank极有可能丢失。在返回503状态码给爬虫时,还应该发Retry-After头信息给爬虫,告诉爬虫多久后再来造访。比如Retry-After: 3600,是告诉搜索引擎请在3600秒后再来访问。 另一篇文章地址找不到了,那篇文章还引用了google webmaster center里的一段文字来证明应该返回503。

    我的实例

    不久前,我做的一个小站下线了一段时间,期间都是返回503给搜索引擎。今天重新上线,我登陆谷歌网站管理员中心,在crawl errors栏目里看到好些robots.txt unreachable的错误信息。查看了google webmaster center关于URL unreachable errors的说明,才知道google抓取页面时,会先检测网站根目录下是否存在robots.txt,如果存在则google不会索引robots.txt里禁止索引的页面。如果不存在(返回了404)则google认为所有页面都是允许索引的。我的实际情况是,维护期间我的网站根目录下实际不存在robots.txt,而且我的设置是所有地址都返回503。这样googel检测是否存在robots.txt时得到的是503状态码,就是google所谓的robots.txt file unreachable(因为既不是404,也不是200)。当robots.txt file unreachable时,google停止索引网站,过段时间当google检测到存在robots.txt或检测到不存在robots.txt时(404),再继续索引网站。

    结论

    网站维护时,发503给搜索引擎,同时,当google检测是否存在robots.txt时也发503给她。

    展开全文
  • Kafka维护问题总结

    千次阅读 2016-10-07 12:53:09
    1 Kafka操作日志的清理方法 Kafka0.8版本长时间运行过程中,在kafka_2.8.0-0.8.0/logs目录下产生了大量的kafka-request.log.*和server.log.*文件,其中*代表日期和时间,比如kafka-request.log.2014-12-08

    原文地址:https://my.oschina.net/u/1169607/blog/353730

    Kafka操作日志的清理方法

    Kafka0.8版本长时间运行过程中,在kafka_2.8.0-0.8.0/logs目录下产生了大量的kafka-request.log.*server.log.*文件,其中*代表日期和时间,比如kafka-request.log.2014-12-08-03server.log.2014-12-06-03,这些文件对磁盘空间的消耗非常大,需要定期备份或者清理。目前没有发现kafka自身提供了这些操作日志备份或者清理的方法,需要用户自己实现。

    1.1 更改日志输出级别

    kafka0.8版本中,config/log4j.properties中日志的级别设置的是TRACE,在长时间运行过程中产生的日志大小吓人,所以如果没有特殊需求,强烈建议将其更改成INFO级别。具体修改方法如下所示,将config/log4j.properties文件中最后的几行中的TRACE改成INFO,修改前如下所示:

    log4j.logger.kafka.network.RequestChannel$=TRACE, requestAppender
    
    log4j.additivity.kafka.network.RequestChannel$=false
    
     
    
    #log4j.logger.kafka.network.Processor=TRACE, requestAppender
    
    #log4j.logger.kafka.server.KafkaApis=TRACE, requestAppender
    
    #log4j.additivity.kafka.server.KafkaApis=false
    
    log4j.logger.kafka.request.logger=TRACE, requestAppender
    
    log4j.additivity.kafka.request.logger=false
    
     
    
    log4j.logger.kafka.controller=TRACE, controllerAppender
    
    log4j.additivity.kafka.controller=false
    
     
    
    log4j.logger.state.change.logger=TRACE, stateChangeAppender
    
    log4j.additivity.state.change.logger=false
    

    修改后如下所示:

    log4j.logger.kafka.network.RequestChannel$=INFO, requestAppender
    
    log4j.additivity.kafka.network.RequestChannel$=false
    
     
    
    #log4j.logger.kafka.network.Processor=INFO, requestAppender
    
    #log4j.logger.kafka.server.KafkaApis=INFO, requestAppender
    
    #log4j.additivity.kafka.server.KafkaApis=false
    
    log4j.logger.kafka.request.logger=INFO, requestAppender
    
    log4j.additivity.kafka.request.logger=false
    
     
    
    log4j.logger.kafka.controller=INFO, controllerAppender
    
    log4j.additivity.kafka.controller=false
    
     
    
    log4j.logger.state.change.logger=INFO, stateChangeAppender
    
    log4j.additivity.state.change.logger=false

    1.2 定期备份删除日志

    备份操作日志的方式是定期拷贝操作日志到指定大容量存储设备,然后将其删除。我在项目中采取的方式是直接清理过期操作日志,方法非常简单,利用linux操作系统提供的crontab功能,定期清理操作日志,方法如下:

    /etc/crontab文件中添加删除操作日志的语句,然后执行crontab -f /etc/crontab命令即可,我的/etc/crontab文件如下所示,语句的含义是每4天在23:59执行清理操作:

    [root@h10p11 logs]# vim /etc/crontab 
    
    SHELL=/bin/bash
    
    PATH=/sbin:/bin:/usr/sbin:/usr/bin
    
    MAILTO=root
    
    HOME=/
    
    # For details see man 4 crontabs
    
    # Example of job definition:
    
    # .---------------- minute (0 - 59)
    
    # |  .------------- hour (0 - 23)
    
    # |  |  .---------- day of month (1 - 31)
    
    # |  |  |  .------- month (1 - 12) OR jan,feb,mar,apr ...
    
    # |  |  |  |  .---- day of week (0 - 6) (Sunday=0 or 7) OR sun,mon,tue,wed,thu,fri,sat
    
    # |  |  |  |  |
    
    # *  *  *  *  * user-name command to be executed
    
    59 23 */4 * * rm -fr /root/kafka/kafka_2.8.0-0.8.0/logs/*-*-*

    直接修改/etc/crontab文件重启机器不用重复设置。

    展开全文
  • Kubernetes节点维护

    2019-04-10 15:43:00
    1、设置节点为不可调度 kubectl cordon $NODENAME 2、使用kubectl drain优雅的结束节点上的所有 pod 并同时标记节点为不可调度 kubectl drain $NODENAME  ...kubectl delete node $NO...

    1、设置节点为不可调度

    kubectl cordon $NODENAME

    2、使用kubectl drain优雅的结束节点上的所有 pod 并同时标记节点为不可调度

    kubectl drain $NODENAME  

    3、恢复节点为可调度

    kubectl uncordon $NODENAME
    

    4、删除节点

    kubectl delete node $NODENAME

    转载于:https://www.cnblogs.com/a120608yby/p/10683818.html

    展开全文
  • 简介 笔者当初为了学习JAVA,收集了很多经典源码,源码难易程度分为初级、中级、高级等,详情看源码列表,需要的可以直接下载! 这些源码反映了那时那景笔者对未来的盲目,对代码的热情、执着,对IT的憧憬、向往!...
  • CDH主机下线

    2020-11-24 14:10:01
    文章目录1,配置hdfs, hbase: 提高下线速度2,主机:进入维护模式3, 主机解除授权: Decommission(退役)解除授权的操作细节hdfs 数据转移hbase数据转移 参考:...


    需求: 某服务器,由于规划不完善的原因,需要回收做为别的用途, 此时如何确保hdfs,hbaes 数据不丢失
    参考: https://docs.cloudera.com/documentation/enterprise/5-12-x/topics/cm_mc_decomm_host.html

    1,配置hdfs, hbase: 提高下线速度

    • 确保hdfs 主机下线后,副本数足够: 比如replica=1, 两个datanode中下线一个,还有一个dn可用,满足备份数要求
    • 确保hdfs 中的块是完整的: hdsf fsck / (没有找到损害的块 )
    ########## hdfs #############
    #依据迭代设置复制工作乘数器
    dfs.namenode.replication.work.multiplier.per.iteration=10 默认就行
    #DataNode 上的最大复制线程数
    dfs.namenode.replication.max-streams=20 --> 50
    #Datanode 上复制线程数的硬限制
    dfs.namenode.replication.max-streams-hard-limit=40 --> 100
    
    ########## hbase #############
    Region Mover 线程: 1 --> 5 (小于等于5)
    

    2,主机:进入维护模式

    在这里插入图片描述

    3, 主机解除授权: Decommission(退役)

    在这里插入图片描述

    解除授权的操作细节

    在这里插入图片描述

    a, hbase数据转移

    在这里插入图片描述

    b, hdfs 数据转移

    在这里插入图片描述

    展开全文
  • Hadoop绝非一个简单程序,集群模式下更是如此,所有的数据都存储在Hadoop中如果操作不当会存在丢失数据的风险,那么怎么在安全的情况,扩容下线维护或者磁盘满了怎么增加空间,就是今天的主要内容了.附上:Hadoop的官网:...
  • 停机就是数据库不能响应用户请求的所有情况,无论是数据库完全下线,还是在不可接受的性能情况下部分下线。有计划停机包括在你的数据库系统中常规数据库维护或升级活动。停机对你数据库环境的可用性有直接的影响。...
  • Redis集群

    千次阅读 2019-10-13 20:30:49
    Redis集群Redis集群数据分布数据分区理论基础Redis数据分区集群功能限制 Redis集群 Redis Cluster是redis的分布式解决方案,在3.0版本正式推出后,有效地...代理方案,优点是简化客户端分布式逻辑和升级维护便利,...
  • SpringCloud

    千次阅读 2019-11-18 08:54:06
    zookeeper是一个为分布式应用提供一致性服务的软件,提供的功能包括:配置维护、域名服务、分布式同步、组服务等。zookeeper可以作为dubbo服务的注册中心,两者结合起来可以实现微服务中的 服务注册、发现、负载均衡...
  • Redis面试题

    千次阅读 多人点赞 2019-07-17 17:55:38
    复制积压缓冲区:主服务器维护的固定长度的队列,命令传播时会将命令写入到复制积压缓冲区并记录偏移量,进行部分重同步时,检测从服务器发来的偏移量下一字节数据是否在缓冲区中,在则进行部分重同步,否则进行...
  • Eureka服务实例的摘除包含两种情况,第一种就是正常的服务实例下线,第二种是服务实例故障,然后自动摘除故障的服务实例 先来说说第一种情况,
  • Hbase

    千次阅读 多人点赞 2019-10-22 20:14:12
    文章目录Hbase来源:应用:行业:Hbase定义:Hbase特性:Hbase shellnamespaceDDLDMLHbase Java Api依赖HbaseUtilsHbaseDemoHbase过滤器Hbase原理架构Hbase读写流程写数据流程Hbase的存储机制存储模型布隆过滤器...
  • 哈希算法

    千次阅读 2019-11-07 15:39:56
    客户端下线、上线、服务端扩容、缩容都会导致映射失效,这样维护成本大 如果借助哈希算法,这些问题都可以非常完美地解决。 可以通过哈希算法,对客户端 IP 地址或者会话 ID 计算哈希值,将取得的哈希值与服务器...
  • key.equals(userName)){ //发送消息给指定用户 template.convertAndSendToUser(key, "/queue/message","您的账户在别处登录, 您被强制下线"); // 发送完消息直接删除,防止,之后重复发送通知 Boolean deleteFlag =...
  • JAVA上百实例源码以及开源项目

    千次下载 热门讨论 2016-01-03 17:37:40
    百度云盘分享 简介 笔者当初为了学习JAVA,收集了很多经典源码,源码难易程度分为初级、中级、高级等,详情看源码列表,需要的可以直接下载! 这些源码反映了那时那景笔者对未来的盲目,对代码的热情、执着,对...
  • RegionServer上线和下线 region server上线 Master使用Zookeeper跟踪RegionServer状态。当某个RegionServer启动时,会首先在Zookeeper上的Server目录下建立代表自己的文件,并获得该文件的独占锁。由于Master订阅...
  • 比如有些情况是服务主机意外宕机了,也就意味着服务没办法给 eureka 心跳信息了,但是 eureka 在没有接受到心跳的情况下依赖维护该服务 90s,在这 90s 之内可能会有客户端调用到该服务,这就可能会导致调用失败。...
  • 突发!LayUI官网宣布下线

    千次阅读 热门讨论 2021-10-05 11:18:13
    届时,包括新版下载、文档和示例在内的所有框架日常维护工作,将全部迁移到 Github 和 Gitee。 此后,layui 仍会在代码托管平台所活跃,且 2.7 正式版也将在其间首发。而 layui 官网将不复存在。 这不是终结..
  • 运维业务相关知识总结

    千次阅读 2019-08-20 17:55:26
    总而言之,运维的职责覆盖了产品从设计到发布、运行维护、变更升级乃至下线的全部过程,是公司中非常重要的一环。   三、ITIL概述 ITIL即信息技术基础架构库(Information Technology Infrastructure ...
  • 前言如果说你是一名hadoop集群的日常维护者,那么你肯定经历过很多的节点上下线工作.例如,随着业务规模的高速扩张,集群的资源渐渐的不够使用的时候,一般正常的做法是通过增加机器来达到线性扩展的效果.当然,当这些...
  • 但是 loadBalance 对生产者的发现是在 loadBalance 本地维护的列表中。 所以要想达到网关对生产者下线的实时感知,可以这样做:首先生产者或者部署平台主动通知 Eureka Server, 然后跳过 Eureka 多级缓存之间的...
  • 问题发现就在这周,我接到 MSE Nacos 用户的反馈,说线上 Nacos 不可用,服务都下线了,日志里面也是一堆报错,我下意识以为线上炸了,赶紧上线排查。本文主要记录这次问题的排查过程...
  • Eureka 中客户端服务下线的几种方式 一、下线的方式和存在的问题 1、直接停掉服务 根据Eureka默认的策略,如果在一定的时间内,客户端没有向注册中心发送心跳或续约请求,那么注册中心就会将该实例从注册中心移除...
  • hadoop、hbase节点下线

    2015-09-17 16:21:12
     hadoop节点在磁盘坏掉的时候需要节点下线,按照下线步骤操而不是直接kill,是为了让数据安全的转移。比如hbase的regionserver直接kill掉的话,如果运气再坏一点这个regionserver上刚好是root表或meta表所在的机器...
  • 系统下线工作总结

    千次阅读 2013-06-23 17:33:44
    前两个月,我负责了公司老系统:ERP(第三代营运支撑系统)的下线工作,从4月份到6-1。这段时间对这项工作的有很多的感触,现在比较闲了,我就对这项工作做一些总结,也给有类似情况的各位同仁提供一些参考。  ...
  • Session管理之超时设置和强制下线

    千次阅读 2018-04-02 15:47:23
    关于Session,在Java Web开发中,为我们提供了很多方便,Session是由浏览器和服务器之间维护的。好吧,闲话不多说,下面让我们一步一步来实现它们。 (一)首先来说下Session超时时间设置的三种方式,这些相对来说...
  • 百度正式下线MIP功能,站长工具平台MIP入口关闭,MIP 核心、组件等前端静态资源仍正常维护与使用,不影响已改造为 MIP 标准的站点的正常访问、收录、排序。 虽然说只是入口下线,会不会重蹈熊掌号覆辙,目前我个人...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 27,898
精华内容 11,159
关键字:

下线维护