精华内容
下载资源
问答
  • 本文讲述如何在 SharePoint online 中如何查看搜索的爬网错误日志搜索功能是SharePoint online 最常使用的功能之一,但是有时会遇到搜索不到某些文档的问题,这时我们就需要查看搜索的爬网错误日志,看看是不是...

    本文讲述如何在 SharePoint online 中如何查看搜索的爬网错误日志。

    搜索功能是SharePoint online 最常使用的功能之一,但是有时会遇到搜索不到某些文档的问题,这时我们就需要查看搜索的爬网错误日志,看看是不是后台在爬对应的文档时出错了。


    首先我们要配置能查看爬网日志的权限。

        1. 在Office 365中创建一个安全组
              a.  使用office 365 管理员账号打开office 365 组管理页面 https://portal.office.com/adminportal/home#/groups
              b.  点击 “添加组”
              c.  选择安全组,输入组名(比如searchlogviewer)和描述,点击添加

                d. 将需要查看search log的用户添加到刚刚新建的安全组里,并保存

            


    2. 授予安全组查看爬网日志的权限

    a. 使用Office 365账号登陆SharePoint online管理站点 https://xxxx-admin.sharepoint.com

    b. 点击左侧导航的搜索连接打开搜索管理页面  https://xxxx-admin.sharepoint.com/_layouts/15/searchadmin/TA_SearchAdministration.aspx

    c. 点击“爬网日志权限” 连接

    d. 输入在第一步新建的组名,点击确定


    3. 新建电子数据展示案例 (

    eDiscovery case)

    a. 打开Office 365 管理门户 https://portal.office.com/adminportal/home

    b. 打开 管理中心 =>安全与合规

    c. 打开 搜索和调查 => 电子数据展示

    d. 点击“新建服务案例”,输入服务案例名称,描述,点击保存按钮

    电子数据展示

    电子数据展示



    e. 打开服务案例


    f. 点击 搜索,点击 新增按钮,输入名称,选择 SharePoint, 点击下一步




    g. 输入路径条件来限定搜索范围,点击搜索按钮


       h. 点击导出按钮 => 导出报表


    i. 选择 “所有项目,包含格式无法识别、加密或者其他原因无法编制索引的项目”,点击 “生成报表”


    j.  点击 导出 =>刷新按钮 =>选择刚刚生成的报表 =>点击下载报表


    k. 点击 “复制到剪贴板” => 下载报表 => 按下组合键 Ctrl +V将导出密钥粘贴到导出工具 =>选择本地导出路径=>点击 start按钮


    l. 等待报表导出完成,点击报表位置连接打开报表存储位置


    m. 打开 Unindexed Items.csv 来检查爬网错误


    查看 Error message 列中的错误信息




    展开全文
  • 在日常工作中,我们经常需要查看日志,比如可以通过 tail 命令实时查看日志,也可以通过 cat 等命令查看日志信息 但现在我们要讨论的是,如何从日志中通过关键字过滤出我们想要的内容,方法有多种,今天我们主要以 ...

    在日常工作中,我们经常需要查看日志,比如可以通过 tail 命令实时查看日志,也可以通过 cat 等命令查看日志信息

    但现在我们要讨论的是,如何从日志中通过关键字过滤出我们想要的内容,方法有多种,今天我们主要以 cat 命令来进行学习。

    假设存在日志文件 logging.log,查询的关键字为"新增":

    • 在日志中搜索关键字
    cat logging.log | grep "新增"
    
    • 根据关键字查看后10行日志
    cat logging.log | grep "新增" -A 10
    
    • 根据关键字查看前10行日志
    cat logging.log | grep "新增" -B 10
    
    • 根据关键字查看前后10行日志,并显示出行号
    cat -n logging.log | grep "新增" -C 10
    
    • 查看日志前 50 行
    cat logging.log | head -n 50
    
    • 查看日志后 50 行
    cat -n logging.log | tail -n 50
    
    说明:
    • A 表示关键字之后,After
    • B 表示关键字之前,Before
    • C 表示关键字前后,Context
    展开全文
  • 如何查看IIS日志?2010-05-17 22:41 IIS日志,主要用于记录用户和搜索引擎蜘蛛对网站的访问行为。IIS日志中,包括客户端访问时间、访问来源、来源IP、客户端请求方式、请求端口、访问路径及参数、Http状态码...
    什么是IIS访问日志?如何查看IIS日志?
    2010-05-17 22:41

    IIS日志,主要用于记录用户和搜索引擎蜘蛛对网站的访问行为。IIS日志中,包括客户端访问时间、访问来源、来源IP、客户端请求方式、请求端口、访问路径及参数、Http状态码状态、返回字节大小等信息。

    如何查看IIS日志?

    Windows2003环境中,IIS日志默认存储路径:C:/WINDOWS/system32/LogFiles/ ,在LogFiles文件夹下,存在多个IIS日志文件夹,每个IIS日志文件夹对应一个站点日志。当然IIS日志文件存储位置也可以根据自己的实际情 况,在IIS管理器中重新设定。

    要查看对应站点的IIS日志,只需要打开对应IIS日志文件夹找到相对应日志文件即可。也可借助IIS日志分析工具提供查看IIS日志的效率!

    IIS日志文件存储格式:IIS日志是后缀名为log的文本文件。

    IIS日志文件代码格式:

    #Software: Microsoft Internet Information Services 6.0
    #Version: 1.0
    #Date: 2009-11-26 06:14:21
    #Fields: date time s-sitename s-ip cs-method cs-uri-stem cs-uri-query s-port cs-username c-ip cs(User-Agent) sc-status sc-substatus sc-win32-status
    2009-11-26 06:14:21 W3SVC692644773 125.67.67.* GET /index.html - 80 - 123.125.66.130 Baiduspider+(+http://www.baidu.com/search/spider.htm) 200 0 64
    2009-11-26 06:14:21 W3SVC692644773 125.67.67.* GET /index.html - 80 - 220.181.7.116 Baiduspider+(+http://www.baidu.com/search/spider.htm) 200 0 64

    IIS日志参数详解:

    date:发出请求时候的日期。
    time:发出请求时候的时间。注意:默认情况下这个时间是格林威治时间,比我们的北京时间晚8个小时,下面有说明。
    c-ip:客户端IP地址。
    cs-username:用户名,访问服务器的已经过验证用户的名称,匿名用户用连接符-表示。
    s-sitename:服务名,记录当记录事件运行于客户端上的Internet服务的名称和实例的编号。
    s-computername:服务器的名称。
    s-ip:服务器的IP地址。
    s-port:为服务配置的服务器端口号。
    cs-method:请求中使用的HTTP方法,GET/POST。
    cs-uri-stem:URI资源,记录做为操作目标的统一资源标识符(URI),即访问的页面文件。
    cs-uri-query:URI查询,记录客户尝试执行的查询,只有动态页面需要URI查询,如果有则记录,没有则以连接符-表示。即访问网址的附带参数。
    sc-status:协议状态,记录HTTP状态代码,200表示成功,403表示没有权限,404表示找不到该页面,具体说明在下面。
    sc-substatus:协议子状态,记录HTTP子状态代码。
    sc-win32-status:Win32状态,记录Windows状态代码。
    sc-bytes:服务器发送的字节数。
    cs-bytes:服务器接受的字节数。
    time-taken:记录操作所花费的时间,单位是毫秒。
    cs-version:记录客户端使用的协议版本,HTTP或者FTP。
    cs-host:记录主机头名称,没有的话以连接符-表示。注意:为网站配置的主机名可能会以不同的方式出现在日志文件中,原因是HTTP.sys使用Punycode编码格式来记录主机名。
    cs(User-Agent):用户代理,客户端浏览器、操作系统等情况。
    cs(Cookie):记录发送或者接受的Cookies内容,没有的话则以连接符-表示。
    cs(Referer):引用站点,即访问来源。

    HTTP协议状态码的含义,协议状态sc-status,是服务器日记扩展属性的一项。下面是各状态码含义列表:
    "100" : Continue                       客户必须继续发出请求
    "101" : witching Protocols         客户要求服务器根据请求转换HTTP协议版本  200交易成功
    "200" : OK                                交易成功
    "201" : Created                        提示知道新文件的URL
    "202" : Accepted                      接受和处理、但处理未完成
    "203" : Non-Authoritative Information    返回信息不确定或不完整
    "204" : No Content                    请求收到,但返回信息为空
    "205" : Reset Content                服务器完成了请求,用户代理必须复位当前已经浏览过的文件
    "206" : Partial Content               服务器已经完成了部分用户的GET请求
    "300" : Multiple Choices             请求的资源可在多处得到
    "301" : Moved Permanently        删除请求数据
    "302" : Found                             在其他地址发现了请求数据
    "303" : See Other                       建议客户访问其他URL或访问方式
    "304" : Not Modified                   客户端已经执行了GET,但文件未变化
    "305" : Use Proxy                       请求的资源必须从服务器指定的地址得到       
    "306"                                                         前一版本HTTP中使用的代码,现行版本中不再使用
    "307" : Temporary Redirect                     申明请求的资源临时性删除
    "400" : Bad Request                                 错误请求,如语法错误
    "401" : Unauthorized                                 请求授权失败
    "402" : Payment Required                       保留有效ChargeTo头响应
    "403" : Forbidden                                    请求不答应
    "404" : Not Found                                    没有发现文件、查询或URl
    "405" : Method Not Allowed                      用户在Request-Line字段定义的方法不答应
    "406" : Not Acceptable                             根据用户发送的Accept拖,请求资源不可访问
    "407" : Proxy Authentication Required     类似401,用户必须首先在代理服务器上得到授权
    "408" : Request Time-out               客户端没有在用户指定的饿时间内完成请求
    "409" : Conflict                                对当前资源状态,请求不能完成
    "410" : Gone                                   服务器上不再有此资源且无进一步的参考地址
    "411" : Length Required                 服务器拒绝用户定义的Content-Length属性请求
    "412" : Precondition Failed              一个或多个请求头字段在当前请求中错误
    "413" : Request Entity Too Large    请求的资源大于服务器答应的大小
    "414" : Request-URI Too Large       请求的资源URL长于服务器答应的长度
    "415" : Unsupported Media Type     请求资源不支持请求项目格式 
    "416" : Requested range not satisfiable   请求中包含Range请求头字段,在当前请求资源范围内没有range指示值,请求也不包含If-Range请求头字段
    "417" : Expectation Failed      服务器不满足请求Expect头字段指定的期望值,假如是代理服务器,
    "500" : Internal Server Error 服务器产生内部错误
    "501" : Not Implemented    服务器不支持请求的函数
    "502" : Bad Gateway      服务器暂时不可用,有时是为了防止发生系统过载
    "503" : Service Unavailable 服务器过载或暂停维修
    "504" : Gateway Time-out   关口过载,服务器使用另一个关口或服务来响应用户,等待时间设定值较长
    "505" : HTTP Version not supported   服务器不支持或拒绝支请求头中指定的HTTP版本
    Tags:IIS日志
    来源:蜘蛛侠SEO博客 分享SEO学习_SEO教程_SEO技术

    展开全文
  • 如何查看Spark日志与排查报错问题

    千次阅读 多人点赞 2020-10-29 17:27:12
    1.1、查看YARN页面的driver日志 可以在右侧搜索框中填对应application号找到任务,然后点击对应的application号链接,如下图所示: 这样会进入该application的信息界面,“FinalStatus”显示了该application的...

    一、各界面说明

    1.1、查看YARN页面的driver日志

    可以在右侧搜索框中填对应application号找到任务,然后点击对应的application号链接,如下图所示:

    这样会进入该application的信息界面,“FinalStatus”显示了该application的最后状态,点击下方的“logs”按钮也会进入到driver日志界面,如下图所示:

    对于driver日志而言,代码中的println()和show()等函数的输出,一般都在stdout里,大部分重要的报错信息都在stderr里。如果application跑的很慢,还可以通过gclog确认是否是因为driver遇到了Full GC,也可以进入stdout或stderr日志界面后,在浏览器地址栏中将“stdout”或“stderr”文字替换为“gclog”,回车后也可查看gclog信息。

    stdout与stderr中,着重搜索和看ERROR、Exception、Failed、Caused by等位置的报错信息,这四个位置都没什么内容再看WARN。

    1.2、查看Spark UI

    如果任务正在执行中,可以在yarn页面搜对应的application号来找到自己的任务,然后点击右侧的“Application Master”链接进入Spark UI界面,如果任务已完成,该链接会变成“history”,如下图所示:

    (1)首先是“Jobs”界面,“Event Timeline”一栏可以显示各Executor的加入与回收;“Active Jobs”一栏指正在运行或等待运行的job;“Description”一列可以看到当前job执行的SQL语句或者代码所在行数,且有链接可点击进入包含的各stages界面;“Submitted”一列表示该job何时被提交给集群;“Duration”一列表示该job持续了多长时间;“Stages”一列显示了该job包含多少个stage,右侧的进度蓝条可以判断总共需要多少个task,完成了多少,同时有多少个task在并发running,如下图所示:

    (2)第二个菜单是“Stages”界面,这里包含了所有stage的状态信息,显示的内容和“Jobs”菜单界面中类似,还多了一些内容,例如“Shuffle Read”列表示从上一个stage读取了多少数据量,“Shuffle Write”列表示该stage写入了多少数据量供下一个stage拉取,如下图所示:

    如果有失败的stage,也会在“Failure Reason”一列显示出失败原因,如下图所示:

    各stage的“Description”处有蓝色链接,可以点击进入该stage的详细信息界面,开头提到了该stage的总执行时长、本地化级别情况、输入数据量(容量/条数)、输出给下一个stage的数据量(容量/条数)、当前执行语句的DAG图等,如下图所示:

    可以从DAG看到该stage经过了Hive表扫描、代码生成、shuffle(即Exchange节点)等过程,也指出了对应代码大致所在的行数。下面是metrics表格,包含执行完成的各task持续时间、调度延迟、反序列化时间、GC时间、结果序列化时间、获取结果时间、峰值内存、输入数据量、写出给下一个stage的数据量等,这些metrics信息是可以勾选和隐藏的,如下图所示:

    当然该metric表格显示是存在小文件和数据倾斜情况的,后面会详细提到。下面比较重要的是Tasks表格,记录了该stage每一个task的执行情况,包括task id、属于哪次attempt、状态、本地化级别、所属Executor的ID、所在机器IP或域名、启动时间、持续时间、调度延迟等,失败的task也会显示原因,如下图所示:

    如果Tasks表格显示的失败原因还是不够详细,想看更完整的日志输出,可以点击“Host”列的stdout或stderr链接查看该task所在Executor的日志。依然是着重搜索和看ERROR、Exception、Failed、Caused by等位置的报错信息,这四个位置都没什么内容再看WARN

    (3)“Storage”菜单在排查任务报错问题时使用的很少,主要是各RDD数据在内存或磁盘中的状态情况。

    (4)“Environment”菜单显示了集群与该application的配置信息,如JDK版本、Scala版本、各Spark配置参数值(如driver内存)等。

    (5)“Executors”界面显示了Driver与Executor的信息,“Jobs”和“Stages”菜单界面中显示的失败task也会记录在这里,所以也可以从该界面进入各节点的stdout与stderr查看报错日志,如下图所示:

    如果在Driver或对应Executor的stdout与stderr中没找到关键报错内容,除了查看GC日志,还可以看该节点的YARN Node Manager日志,点击左侧“Tools”菜单中的“Local logs”链接即可进入,记得提前复制好container号,如下图所示:

    在Node Manager日志列表中,每小时都对应一个链接,点击任务出问题的那个小时的链接进去,搜索对应container号查找关于该container的报错信息,可以看到该例子中是因为OOM所以该container被YARN杀死,如下图所示:

    (6)如果包含SQL逻辑,顶部会多出来一个“SQL”菜单,里面会有多个job组成的各query信息,可以点击失败query的“Description”列链接,会进入该query的详细DAG图与查询计划界面,也可以点Job ID链接回到对应Jobs菜单界面,如下图所示:

    可以看到该query中读写了三个Hive表且显示了读到的数据量,其中两个表进行了shuffle和SortMergJoin,鼠标移动到对应蓝色节点还会显示细节信息如表名、涉及字段、表格式等

    对应query信息界面的底部,还可以点击“Details”按钮查看该query的逻辑计划与物理计划,读懂这些执行计划需要对《数据库系统概念》中关系代数、SQL语法解析与优化等相关基本概念有所了解,以及《SparkSQL内核剖析》涉及的源码理解基础,一般只需要看Physical Plan部分即可,按自底向上的顺序看,如下图所示:

    (7)如果是Streaming实时任务,还会多出来一个“Streaming”菜单,可以查看各微批次(batch)的延迟等情况,一般常常会看“Scheduling Delay”,这一列如果大多是0ms到2ms左右,说明各批次处理没有明显的延迟,如果ms数较大则可能需要关注前面批次的调度延迟情况,如下图所示:

    二、常见问题判断与解决方法

    定位到具体报错后,关于常见报错解决方法请看:https://blog.csdn.net/qq_33588730/article/details/105643030

    2.1、数据倾斜

    在Spark application的执行过程中,会遇到时间很长的情况,其中一个可能性就是数据倾斜,判定数据倾斜的标准之一是上面提到过的“Stages”菜单中,对应stage的Description链接里的metrics表格,如下图所示:

    可以看到在“Shuffle Read Size”或“Input Size”那一栏中,各task读取数据量的最小值、中位数、最大值等并不均匀,如果是更加极端的数据倾斜,“Duration”那一栏的最大执行时间也会很长。

    数据倾斜的另一个现象是在application运行中,“Executors”菜单里Active状态的executor数量只有个别几个,大部分的executor都已经进入Dead状态,这是因为开启了Dynamic Allocation特性,executor只要空闲(idle)超过60秒就会被资源回收,如下图所示:

    此时也可以看到Stages界面中正在执行的stage只有个别task在running,如下图所示:

    这样的stage点击“Description”列的蓝色链接进去后,下方的“Tasks”表格中,处在running状态的个别task所读取的数据量(Shuffle Read或Input列)远比其他task大,如下图所示:

    当然,数据倾斜有时还会伴随个别task所属的executor内存溢出的现象,如下图所示:

    如果的确遇到了数据倾斜,可参考上面博客链接的第11点解决。如果自己集群的Spark版本在3.0以上,或者内部2.x版本合入了Intel的Adaptive Execution特性源码,并且确定造成数据倾斜的代码位置有join操作,则可以加上如下参数缓解:

    --针对SQL任务
    set spark.sql.adaptive.enabled=true;
    set spark.sql.adaptive.skewedJoin.enabled=true; 
    
    //针对代码任务
    --conf spark.sql.adaptive.enabled=true
    --conf spark.sql.adaptive.skewedJoin.enabled=true
    

    第二个参数的原理可理解为将部分倾斜的Partition (判断标准为该Partition数据是所有Partition Shuffle Write中位数的N倍) 拿出来单独处理,即原本由一个Task 处理的倾斜Partition数据拆分成多个Task共同join后再union回其他partition的结果中,每个Task需处理的数据量减少,从而缓解了Partition的倾斜,如下图所示:

    但是一般不建议使用该参数,因为没有从本质上解决倾斜问题,只是加大了并发度进行缓解,还容易因拆分出来的task数过多而导致driver OOM。

    2.2、小文件过多

    小文件过多的表现之一是各task读取的数据量远小于一个HDFS block即128M或256M,它也会导致任务执行的效率较低,极端情况甚至会导致HDFS Namenode内存压力大(因为每个HDFS文件在NM内存中的元信息都是150字节左右,过多数量的小文件会给NM维护这么多文件信息带来压力),如下图所示:

    另一种判断标准是“Stages”菜单中,某个stage的进度蓝条上task数太多达到好几万的级别,用Input或Shuffle Read量除以task数后,每个task处理的数据量远小于128或256M,如下图所示:

    有时小文件多造成的task数过多,会导致driver full gc从而导致Spark UI网页打不开从而看不到Stages情况,因为driver内存有限且负责spark ui的metrics信息状态维护,如下图所示:

    在遇到小文件时,如果自己集群的Spark版本在3.0以上,或者内部2.x版本合入了Intel的Adaptive Execution特性源码,可以加上下面的参数来缓解:

    --针对SQL任务
    set spark.sql.adaptive.enabled=true;
    set spark.sql.adaptive.repartition.enabled=true;
    set spark.sql.adaptive.minNumPostShufflePartitions=1;
    
    //针对代码任务
    --conf spark.sql.adaptive.enabled=true
    --conf spark.sql.adaptive.repartition.enabled=true;
    --conf spark.sql.adaptive.minNumPostShufflePartitions=1;

    如果自己集群的Spark版本不支持上述参数,也可以在SQL的select语句位置加入强制重分区Hint,重分区数即repartition()中的数字根据任务落地的数据量而定,尽量让每个落地文件大小在256M或128M左右,如下所示:

    insert overwrite table tableName
    select /*+ REPARTITION(1000) */ age,count(*)
    from person where age between 10 and 20 group by age

    小文件过多也可能导致内存溢出,因为用于读取每一个文件的reader对象,Spark都会在内存中生成一个1M大小的缓冲区,下面截图来自《SparkSQL内核剖析》:

    2.3、笛卡尔积/数据量膨胀

    依然是“Stages”菜单中,对应stage的Description链接进入后,下方有个各executor对应task运行情况的表格,如果输入的数据量(容量与Records数)远比输出数据量小,再看DAG图里有涉及到join操作,那就说明左右表join的字段中可能有重复值,发生了笛卡尔积/数据量膨胀

    另一个可能迹象的位置是对应stage的Description链接里的metrics表格中,如果shuffle write的记录数远大于shuffle read的记录数,也说明join的字段值可能有重复,交错关联导致数据量膨胀了:

    如果确实遇到了该现象导致任务变慢,可以参考第二章开头的博客链接第24点来解决。

    2.4、内存溢出(OOM)

    如果数据量很大、数据倾斜、并发度不合理、代码逻辑不合理等原因,导致Driver或者Executor的内存不够,就会出现下图所示的OOM错误:

    首先要确认是Driver还是Executor端OOM,也就是OOM的报错内容是在哪个节点的stdout或stderr看到的,那就是哪个节点OOM。如果遇到了可以参考第二章开头的博客链接第12点来解决。

    如果是driver端OOM或内存压力大,还有一个判断方法是Spark UI页面打开十分缓慢,因为代码的解析、相关对象的序列化、广播变量、Spark UI的进度状态维护都是在driver进行,此时如果查看driver的GC日志,往往可能发生了Full GC

    关于Spark会报OOM的深层原因,下图摘自《SparkSQL内核剖析》:

    2.5、YARN队列资源不足

    当application跑的比较慢时,除了前面提到的数据倾斜、数据量膨胀、小文件过多等原因,还可能是同一个YARN队列中正在执行的application太多,或某个application不够优化占据过多资源堵塞了其他application。进入yarn UI后,点击左侧的“scheduler”,然后ctrl+f搜索自己的系统队列,如下图所示:

    如果自己队列显示为黄色、或已使用的资源中,内存或CPU核数其中一项已经达到最小资源阈值(Min Resource)、或最小资源非常小,说明自己队列中当前时刻的资源不足,可以点击左上角的RUNNING进入正运行的application界面,在右边的search框中搜索自己队列名然后回车,看看正在运行的各application里“Allocated CPU vcores”和“Allocated Memory MB”这两列,哪个任务有点大,还可以从“name”列看到任务名,与伙伴确认可以被杀掉的application,杀死后释放资源并让任务责任人优化代码与调参,如下图所示:

    第二种迹象是,driver的stderr等日志中有如下的未申请到资源的内容

    第三种迹象,如果spark ui的job或stages界面中,正在运行的job或stage只有少数task在长时间running,并且进入该stage的description链接后,观察Metrics与Tasks表格并未发现有某个task数据量巨大的数据倾斜现象,说明暂时申请不到更多的executor来更高并发的运行多个task,如下图所示:

    第四种迹象,如果发现任务本身长时间没有实际执行起来,在application的详情界面中看到下图中Node列没有指定IP或域名的现象,说明此时没有启动Application Master,大概率也是yarn队列没资源了:

    此时再去看driver日志,大概率会出现下面这种“Accepted”字样的内容,这代表集群已经接受了这个application的提交,但是一直没有分配到资源

     

    展开全文
  • 如何查看Web服务器日志

    万次阅读 2015-03-11 10:55:04
    网站服务器的日记,对每个站长来说都是很重要的,从这里我们能得到很多的信息。你可以刚开始不懂,但做站长后你是不能不懂的。我以前也不懂,但看文章老看到,就学了下,也就懂了。... 如何查看自己的服务器的日记?
  • 截取dumpstate的日志 在dumpstate中搜索dumpsys window 查看对应的dumpsys window displays 此时会有栈,数字越大,说明离栈顶越近
  • 【adb基本指令 概念:adb=android debug调试 ...四:如何apk文件到真手机 五:apk覆盖安装指令 六:卸载安装应用 七:列出手机所有的包名 八:根据关键词进行搜索 九:列出系统应用的包名 十:列出第三方应...
  • 刚好自己最近也在学习分析IIS日志文件,有时候看的人都迷糊了,不知道该如何更好的查看IIS日志,看看这篇文章,又学了点。 如何用PHP脚本在后台获取蜘蛛的详细信息呀?如哪里的蜘蛛/何时来的/搜索了哪几个页面...
  • 前言 有些高频日志无法输出到数据库,走中间件异步到数据库可能会有延迟...所以,有时候需要将日志直接输出到控制台,混合了大多系统info后,要如何定位呢。 姿势 cp xxx.log tmp cat tmp | grep 需要搜索的文本 ...
  • Eclipse如何查看程序的日志在哪里?

    千次阅读 2019-03-19 16:20:05
    1、 在eclipse的项目workspace的文件夹下,直接搜索 【.metadata】,就能够找到相应的文件夹,进行查看日志信息了 2、如下图所示
  • 如何查看自己的服务器的日记? (以Windows 2003系统为例) 1、开始--管理工具--事件查看器--系统 或者 控制面板--管理工具--事件查看器--系统。 2、在远程客户端,运行IE浏览器,在地址栏中...
  • 为了验证定时任务是否正常执行,从crontab的日志里找原因 一、修改rsyslog vim /etc/rsyslog.d/50-default.conf (我的是root用户) 搜索cron 把如下行之前的注释"#"去掉 #cron.* /var/log/cron.log 二、重启rsyslog...
  • 曾经在面试中碰到过, 今天在服务器上看日志时,觉得特别麻烦,于是,想到了统计 ...theWord是你要搜索的词,一般是异常信息, filename是日志名称, perl -e '$/=undef;$_=theWord/;' filename OK!
  • <p>Macbook如何查看客人用户的开机记录? Macbook系统日志如何搜寻客人用户的开机记录? 搜索bootlog可以吗?</p>
  • 查看IIS日志

    2019-07-16 00:55:07
    如何查看IIS日志? IIS日志,主要用于记录用户和搜索引擎蜘蛛对网站的访问行为。IIS日志中,包括客户端访问时间、访问来源、来源IP、客户端请求方式、请求端口、访问路径及参数、Http状态码状态、返回字节大小等...
  • eclipse里面如何查看svn提交记录日志

    千次阅读 2019-04-05 21:08:00
    2:搜索svn 找到svn资源库 3:OK,我们已成功在控制台显示svn; 4:选中svn资源库的链接,单击鼠标右键,找到“显示资源历史记录”,点击打开 5:打开“显示资源历史记录”之后...
  • 那么这个时候我们就需要会查看日志,在日志中查找错误 ps:在hadoop的场景下: logs/目录下: hadoop-hadoop-datanode-hadoop002.log 对应的名字分别是: hadoop-用户-进程名称-机器名称 一共有三种...
  • 在站点的优化过程中个并不是说所有的站点问题都可以直接从站长...搜索引擎蜘蛛对于我们站点的爬行积极度如何?等等,这些都是隐藏在站点内容部的一些关键信息。这些信息通过站长工具我们很难分析。而这些信息恰恰可以...
  • 这里记录一下日常使用较多的几个查看日志的命令: 1、查找文件所在位置 根据文件名搜索文件,最常用的就是根据文件名进行搜索了: 在根目录下搜索*.jar文件结尾的文件 find / -name *.jar 在当前文件夹下搜索文件名...
  • 下面我们针对nginx服务器进行分析,日志文件所在目录:/usr/local/nginx/logs/access.log,access.log这个文件记录的应该是最近一天的日志情况,首先请看看日志大小,如果很大(超过50MB)建议别用这些命令分析,因为...
  • 简介本文给大家介绍Linux/Nginx如何查看搜索引擎蜘蛛爬虫的行为,清楚蜘蛛的爬行情况对做SEO优化有很大的帮助。需要的朋友通过本篇文章学习下吧摘要做好网站SEO优化的第一步就是首先让蜘蛛爬虫经常来你的网站进行...
  • Linux下用vi命令打开想要查看日志文件catlina.out文件 当你用vi打开一个文件后,因为文件太长,如何 才能找到你所要查找的关键字呢? 在vi里可没有菜单-〉查找 方式一: 不过没关系,你在命令模式下敲...
  • 很多时候,自己做的tweak只是记录下一些信息然后NSLog出来,内容就在系统日志里。特别是自己要查看的app日志和系统日志或者其他app日志混合在一起的时候,一直盯着看,眼睛都花了...今天就在搜索如何过滤日志,结
  • 无响应问题可以在日志搜索 “ANR” ,崩溃问题搜索 “CRASH” ,内存泄露问题搜索"GC"(需进一步分析),异常问题搜索 “Exception” monkey执行时未加--ignore-crashes--ignore-crashes参数,就先浏览日志中...
  • 这是在面试过程中遇到的一个问题,以前总是直接用vi打开文件,然后搜索关键字,这样就能看到上下文信息了,但是这里有明确的规定,大文件,不用VI的情况下如何查看。 一般来说,我们是通过grep命令查找文件中关键字...
  • 平时我们在做网站优化的时候,想知道有哪些搜索引擎平的蜘蛛来访问过咱们网站,或者是网站为啥不收录了等一些原因导致网站出现了问题!那么这个时候咱们就可以通过网站日志下载...二、蜘蛛日志如何分析呢? 1、首先要
  •  通过分析查看网站IIS日志可以让我们知道分析出网站的死链接,301,202,等等,可让我们知道网站那些链接是搜索引擎经常爬取的,每天那些页面是被搜索引擎爬取过,可以分析出网站是否被降权、哪些页面被收录等,...
  • Unity日志查看U_1

    2020-06-03 16:33:49
    如何查看? Editor 编辑器 Editor log can be brought up through the Open Editor Log button in Unity’s Console window. 编辑器日志,可以通过Unity的控制台窗口中Open Editor Log 按钮打开。 Mac OS X ~/...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 393
精华内容 157
关键字:

查看日志如何搜索