精华内容
参与话题
问答
  • 单片机20个实例超详细图文教程

    千次下载 热门讨论 2011-11-09 12:53:48
    非常有用,值得收藏 单片机20个实例超详细图文教程
  • Android studio 入门教程(案例)

    万次阅读 多人点赞 2018-05-08 18:24:29
    ...gt;New->New Project, 其中的open是打开一个Android项目 ...3.选择Android 虚拟机的版本,版本越低运行起来越快,其他的无需勾选。...4.选择Android 的模板,选择基础类android 的空模板Empty ...

     

    1.创建一个Android项目,点击File ->New->New Project,

    其中的open是打开一个Android项目

    2.输入项目的名称test ,此项目放在E盘下,然后点击Finish

    3.选择Android 虚拟机的版本,版本越低运行起来越快,其他的无需勾选。

     

    4.选择Android 的模板,选择基础类android 的空模板Empty Activity,点后点击Next

     

    5.设置Activity 的名称和Layout的名称,一般自动生成,如果需要可以在这里进行更改,

    最后一个框不能勾选,否则可能会引起项目异常,然后点击Finish。

    6.这是Android项目建完之后的样子,三个主要的文件:主配置文件:AndroidManifest.xml,

    人机交互的MainActivity,还有布局LayLout:activity_main.xml

    7.虚拟机显示:点击三角形图标run,运行虚拟机,直接选中默认虚拟机,点击ok

    通常建一个项目,会在Activity_main.xml里自动生成一个文本显示框textView,这个是默认的,你运行之后,会在虚拟机上出现一个hello world 的字段,通常不用的话把它删掉即可。

    如果弹出窗无虚拟机,显示none,则需下载一个虚拟机,点击create a New Virtual Device,选中5.5版本的,其他的也可以,根据个人爱好,然后next,出现第二个窗口,点击download即可,然后next,等待片刻即可下载成功

    8.补充说明:

    Activity:是一个人机交互的程序,相当于人和机器操作的桥梁,类似于shell,在里面写Java代码,从而达到想要

    实现的业务处理。

    activity_main.xml:是Android界面显示的视图,所有的配置控件,各种控件可以通过这里进行设计。

    AndroidManifest.xml:主配置文件,用于配置各个组件的访问权限。

    R.java:简单说就是android_main.xml里的控件的id号,方便在MainActivity里找到id来确定这个控件,从而做出业务处理。

    app:通常Android的各个组成部分放在此目录里,其中res存放一些资源文件,如图片、layout、values 等资源。

     

    9.一个简单的入门Activity程序

    (1)先在Activity_main.xml配置控件.

     

    先将android.support.constraint.ConstraintLayout改为LinerLayout线性的,意思就是水平的的结构

    加入ndroid:orientation="vertical"将所有组件垂直摆放

    加入一个文本显示组件TextView和一个按钮组件Button

     

    可以通过desion进行设计,可以看到效果,我们设置了两个组件,并为每一个组件设置了id,文本框的id为t1,按钮的id为but1,这个id好任意命名,是为了方便MainActivity进行调用。

    (2)在MainActivity里进行业务逻辑处理:定义两个组件的全局变量,然后通过find ViewById,获取R文件两个组件的id号,进行业务处理,给Button设置一个事件响应。通过实现View类的OnClickListener接口,以及public void onClick(View v){

    t1.setText();//设置文本显示信息。}

     

     

    (3)确认事件响应是否成功:点击确定:出现文本显示内容。

    10.setting配置:android studio 如果运行的不是本地gradle,可能速度较慢,或者出现异常,建议使用本地的

    gradle.

    过程:点击FIle->Setting...然后点击ok即可

    .

    备注:希望能帮助想学Android的初学者做一个指引,如有错误,欢迎指出。


     

     

     

     

     

     

     

    展开全文
  • 小编曾经承诺的Django REST Framework原创系列教程终于赶上了2020年那年夏天的尾巴,姗姗而来。我们将用不少于10篇的原创文章系统性地介绍如何使用这个框架开发符合RES...

    小编曾经承诺的Django REST Framework原创系列教程终于赶上了2020年那年夏天的尾巴,姗姗而来。我们将用不少于10篇的原创文章系统性地介绍如何使用这个框架开发符合RESTful规范的API,并详细介绍API开发和管理中的核心知识比如关联模型的序列化、分页、过滤、认证、权限和限流。如果你已有一定Django基础知识并希望在API开发和前后端分离开发技术上更近一步, 请欢迎关注我们的微信公众号【Python Web与Django开发】并加星标哦。

    为什么要学习Django REST  Framework?

    Django的未来与Web开发未来发展趋势紧密相关。Django这种基于MVC开发模式的传统框架,非常适合开发基于PC的传统网站,因为它同时包括了后端的开发(逻辑层,数据库层) 和前端的开发(如模板语言,样式)。

    然而最近几年及未来几年更流行的开发模式肯定是前后端分离, Django也需要做出自己的改变来适应这种开发模式。现代网络应用Web APP或大型网站一般是一个后台,然后对应各种客户端(iOS, android, 浏览器)。由于客户端的开发语言与后台的开发语言经常不一样,这时需要后台能够提供可以跨平台跨语言的一种标准的资源或数据(如json格式)供前后端沟通,这就是Web API(网络应用程序接口)的作用了。

    Django本身并不是为了开发符合REST规范的Web API而设计, 不过借助Django REST Framework (DRF)我们可以快速开发出优秀规范的Web API来。所以我们这里要感谢DRF,因为它,Django的应用前景更广了,减少了被淘汰的风险。

    Django REST Framework的介绍及安装

    Django REST framework (DRF)是基于Django实现的一个RESTful风格API框架,能够帮助我们快速开发RESTful风格的API,文档地址如下所示:

    • 官网:https://www.django-rest-framework.org/

    • 中文文档:https://q1mi.github.io/Django-REST-framework-documentation/

    DRF可以使用pip安装,安装前请确保你已经安装了Django。

    pip install djangorestframework
    

    如果想要获取一个图形化的页面来操作API,需要将 rest_framework 注册到项目的INSTALL_APPS中,如下所示:

    INSTALLED_APPS = [
        'django.contrib.admin',
        'django.contrib.auth',
        'django.contrib.contenttypes',
        'django.contrib.sessions',
        'django.contrib.messages',
        'django.contrib.staticfiles',
        'rest_framework',
        'your_app', # 你自己的app
    ]
    

    现在我们已经安装好DRF了,但在正式使用它开发API前我们还需要了解两件事情。什么是数据的序列化(Serialization)以及什么是RESTful规范的API, 这对于理解DRF中的serializers类和每个API端点对应的url设计至关重要。

    Python类型数据序列化(serialization)

    每种编程语言都有各自的数据类型, 将属于自己语言的数据类型或对象转换为可通过网络传输或可以存储到本地磁盘的数据格式(如:XML、JSON或特定格式的字节串)的过程称为序列化(seralization);反之则称为反序列化。API开发的本质就是各种后端语言的自己的数据类型序列化为通用的可读可传输的数据格式,比如常见的JSON类型数据。

    举个简单例子。Python自带json模块的dumps方法可以将python常用数据格式(比如列表或字典)转化为json格式,如下所示。你注意到了吗? 生成的json格式数据外面都加了单引号,这说明dict类型数据已经转化成了json字符串。

    >>> import json
    >>> json.dumps({"name":"John", "score": 112})
    '{"name": "John", "score": 112}'
    

    Django编程就是是python编程,以上所介绍的序列化方法对django也是适用的。不同的是Django还有自己专属的数据类型比如查询集QuerySet和ValueQuerySet类型数据,还提供了更便捷的serializers类。使用Django自带的serializers类也可以轻易将QuerySet格式的数据转化为json格式。

    # Django Queryset数据 to Json
    from django.core import serializers
    data = serializers.serialize("json", SomeModel.objects.all())
    data1 = serializers.serialize("json", SomeModel.objects.all(), fields=('name','id'))
    data2 = serializers.serialize("json", SomeModel.objects.filter(field = some_value))
    

    有时候我们只需要查询结果集的部分字段,可以使用values('字段名','字段名2')来要求返回的是哪些列的数据.但是返回来的是ValueQuerySet对象而不是QuerySet对象。ValuesQuerySet对象不能用 serializers.serialize() 方法序列化成json, 需要先转换成list再用 json.dumps()方法序列化成json格式。示例代码如下所示:

    import json
    from django.core.serializers.json import DjangoJSONEncoder
    
    
    queryset = myModel.objects.filter(foo_icontains=bar).values('f1', 'f2', 'f3')
    data4 = json.dumps(list(queryset), cls=DjangoJSONEncoder)
    

    尽管Django自带的serializer类也能将Django的查询集QuerySet序列化成json格式数据,Django REST Framework才是你真正需要的序列化工具。与django自带的serializers类相比,rest framework支持token认证、过滤和限流等多种强大功能,我们后面会陆续详细介绍。

    什么是符合RESTful规范的API?

    REST是REpresentational State Transfer三个单词的缩写,由Roy Fielding于2000年论文中提出。简单来说,就是用URI表示资源,用HTTP方法(GET, POST, PUT, DELETE)表征对这些资源进行操作。而如果想你的api被称为restful api,只要遵循其规定的约束。网上有很多文章对RESTful API规范做了详细介绍, 比如阮一峰的博客和简书, 我们这里只摘取总结部分精华内容,因为我们后面会用到。


    协议、域名和版本

    尽量使用https协议,使用专属域名来提供API服务,并在URL里标注api版本,如下所示

    https://api.example.com/v1

    https://www.example.com/api/v1 


    uri(统一资源标识符)

    在RESTful架构中,每个网址代表一种资源(resource),这个网络地址就是uri (uniform resource identifier), 有时也被称为URL(uniform resource locator)。 因为URI对应一种资源,所以里面不能有动词,只能有名词。一般来说,数据库中的表都是同种记录的"集合"(collection),所以API中的名词也应该使用复数。

    https://api.example.com/v1/users # 用户列表资源地址

    https://api.example.com/v1/users/{id}  # 用户id=5资源。注意:这里是users/5,而不是user/5

    https://api.example.com/v1/users/{id}/articles  # 用户id=5发表的文章列表

    如果需要对一个用户信息进行编辑或删除,一个传统Django开发者可能将URL写成如下所示

    https://api.example.com/v1/users/{id}/edit/ # 编辑用户

    https://api.example.com/v1/users/{id}/delete/  # 删除用户

    上面URL设计其实是不符合RESTful规范的。一个 URI就应该是一个资源,本身不能包含任何动作。REST的规范是资源的URI地址是固定不变的,对同一资源应使用不同的HTTP请求方法进行不同的操作,比如常见的增删查改。

    [POST]    https://api.example.com/v1/users   // 新增
    [GET]     https://api.example.com/v1/users/1 // 查询
    [PATCH]   https://api.example.com/v1/users/1 // 更新
    [PUT]     https://api.example.com/v1/users/1 // 覆盖,全部更新
    [DELETE]  https://api.example.com/v1/users/1 // 删除
    

    有时候URL比较长,可能由多个单词组成,建议使用中划线"-"分割,而不是下划线"_"作为分隔符,另外每个url的结尾不能加斜线"/"。

    https://api.example.com/v1/user-management/users/{id} # 好

    https://api.example.com/v1/user_management/users/{id}  # 不好

    https://api.example.com/v1/user-management/users/{id}/  # 不好

    HTTP请求方法

    常用的HTTP请求方法有下面五个(括号里是对应的SQL命令),每个方法对应一个操作。客户端在消费服务器提供的API服务时不仅要指定请求地址,还需指定请求方法。

    GET(SELECT):从服务器取出资源(一项或多项)。
    POST(CREATE):在服务器新建一个资源。
    PUT(UPDATE):在服务器更新资源(客户端提供改变后的完整资源)。
    PATCH(UPDATE):在服务器更新资源(客户端提供改变的属性)。
    DELETE(DELETE):从服务器删除资源。
    

    另外还有两个不常用方法HEADOPTIONSHEAD请求的是资源的元数据,比如一张照片,的元数据则可能包含了,照片拍摄的设备,地点,时间等。服务器一般将对应资源的元数据置于响应的报头集合返回给客户端,这样的响应一般不具有主体部分。OPTIONS则是发送一种“探测”请求以确定针对某个目标地址的请求必须具有怎样的约束(比如应该采用怎样的HTTP方法以及自定义的请求报头),然后根据其约束发送真正的请求。

    小编注:不像Django,DRF支持所有以上请求方法。

    过滤信息(Filtering)

    如果记录数量很多,服务器不可能都将它们返回给用户。符合RESTful规范的API应该支持过滤。下面是一些常见的过滤参数。

    ?limit=10:指定返回记录的数量
    ?offset=10:指定返回记录的开始位置。
    ?page=2&per_page=100:指定第几页,以及每页的记录数。
    ?sortby=name&order=asc:指定返回结果按照哪个姓名排序,以及排序顺序。
    ?user_type_id=1:指定筛选条件,比如用户类型
    

    小编注:DRF与django-filter联用可以轻松实现过滤。

    状态码(Status Codes)

    服务器在处理客户端请求后还应向用户返回响应的状态码和提示信息,常见的有以下一些状态码。

    200 OK - [GET]:服务器成功返回用户请求的数据,该操作是幂等的(Idempotent)。201 CREATED - [POST/PUT/PATCH]:用户新建或修改数据成功。
    202 Accepted - [*]:表示一个请求已经进入后台排队(异步任务)
    204 NO CONTENT - [DELETE]:用户删除数据成功。
    400 INVALID REQUEST - [POST/PUT/PATCH]:用户发出的请求有错误,服务器没有进行新建或修改数据的操作,该操作是幂等的。
    401 Unauthorized - [*]:表示用户没有权限(令牌、用户名、密码错误)。
    403 Forbidden - [*] 表示用户得到授权(与401错误相对),但是访问是被禁止的。
    404 NOT FOUND - [*]:用户发出的请求针对的是不存在的记录,服务器没有进行操作,该操作是幂等的。
    406 Not Acceptable - [GET]:用户请求的格式不可得(比如用户请求JSON格式,但是只有XML格式)。
    410 Gone -[GET]:用户请求的资源被永久删除,且不会再得到的。
    422 Unprocesable entity - [POST/PUT/PATCH] 当创建一个对象时,发生一个验证错误。
    500 INTERNAL SERVER ERROR - [*]:服务器发生错误
    

    小编注:DRF给出Respone时可以指定各种各样状态码,很容易使用。

    Hypermedia API

    RESTful API最好做到Hypermedia,即返回结果中提供链接,连向其他API方法,使得用户不查文档,也知道下一步应该做什么。比如,当用户向api.example.com的根目录发出请求,会得到这样一个文档。

    {"link": {
      "rel":   "collection https://www.example.com/zoos",
      "href":  "https://api.example.com/zoos",
      "title": "List of zoos",
      "type":  "application/vnd.yourformat+json"
    }}
    

    小编注:DRF支持HyperLinkedModel,很容易实现这点。

    参考:http://www.ruanyifeng.com/blog/2014/05/restful_api.html

    小结

    本文总结了为什么要学习Django REST Framework, 什么是序列化和符合RESTful规范的API。下文中我们将以一个简单的博客的实例来详细介绍DRF的使用,开发最基础的API,并测试API的使用,欢迎关注。

    大江狗

    2020.08

    相关阅读

    Django基础连载系列-大江狗

    Django的未来在哪里?

    一文看懂Python及Django不同类型数据的json序列化(面试工作必读)

    展开全文
  • ├─千锋Python教程:第01章 第一个Python程序与数据存储及数据类型(9集) │ │ .DS_Store │ │ │ ├─code │ │ 1、数据存储.txt │ │ 2、第一个python程序.py │ │ 3、注释.py │ │ 4、输出与输入.py │ ...
  • 微信小程序开发教程(第1篇)

    万人学习 2016-10-17 08:24:00
    “微信小程序开发教程​”以腾讯官方资料为主,系统讲解微信小程序开发的相关的知识点。 全套课程共3篇 微信小程序实战教程(第1篇)——讲解小程序基础知识点,重点讲解小程序开发工具,视图层(View)和逻辑层(App ...
  • Grafana使用教程

    万次阅读 多人点赞 2018-07-19 09:44:29
    Grafana是一个开源的度量分析与可视化套件。经常被用作基础设施的时间序列数据和应用程序分析的可视化,它在其他领域也被广泛的使用包括工业传感器、家庭自动化、天气和过程控制等。 Grafana支持许多不同的数据源。...

    Grafana是一个开源的度量分析与可视化套件。经常被用作基础设施的时间序列数据和应用程序分析的可视化,它在其他领域也被广泛的使用包括工业传感器、家庭自动化、天气和过程控制等。

    Grafana支持许多不同的数据源。每个数据源都有一个特定的查询编辑器,该编辑器定制的特性和功能是公开的特定数据来源。

     官方支持以下数据源:Graphite,InfluxDB,OpenTSDB,Prometheus,Elasticsearch,CloudWatch和KairosDB。

    每个数据源的查询语言和能力都是不同的。你可以把来自多个数据源的数据组合到一个仪表板,但每一个面板被绑定到一个特定的数据源,它就属于一个特定的组织。下面我们来一起感受一下grafana。

    1、登录grafana 界面

        http://192.168.21.250:3000 默认用户和密码均为admin

    2、配置Grafana启用zabbix插件

        登录到grafana,移动鼠标到grafana左上角,单击选择齿轮图标的向下按钮,然后选择“Zabbix”选项卡,选择“Pluugin Config”,打开Zabbix 插件配置对话框,选择启用zabbix插件。

        具体操作步骤如下图所示:

     

     

     

    3、配置Zabbix数据源

        添加新数据源,单击选择齿轮图标的向下按钮,打开 “Data Sources”

    ,单击“Add new”。

     

    注意红线标注的地方

        Name自定义

        Type选择Zabbix

        Http settings URL填入http://zabbix服务器ip/zabbix/api_jsonrpc.php

        Zabbix details用户名和密码需要在Zabbix web页面中设置,本文中用户名:admin,密码:zabbix。如不想新建的话,可以使用zabbix的初始用户。

        配置过程如下图所示:

        设置完成点击Save & Test按钮,弹出下图所示的Success提示对话框:

     

    本文档的Zabbix版本为Zabbix-3.0.5,详细配置教程请参考官方文档:

    http://docs.grafana-zabbix.org/installation/configuration

    常见错误解决请参考:http://docs.grafana.org/installation/troubleshooting/

    4、开始使用Grafana-Zabbix

    添加新的仪表板

        让我们开始创建一个新的仪表板。添加新的仪表板过程如下所示:

     

     

    在新建的仪表板中添加图面板

     

        图面板在Grafana中只是命名图。它提供了一组丰富的图形选项。如下图所示:

        单击标题面板可打开一个菜单框。单击edit 选项面板将会打开额外的配置选项。

    如下图所示:

     

    Graph里面的选项有:

        General(常规选择)、Metrics(指标)、Axes(坐标轴)、Legend(图例)、 Display(显示样式)、Time range(时间范围)

    Genera(常规选择):添加图形标题,图形宽度高度等

        Title:仪表板上的面板标题

        Span:列在面板中的宽度

        Height:面板内容高度(以像素为单位)

     

    钻取/详细信息链接(Drilldown / detail link)

        钻取部分允许添加动态面板的链接,可以链接到其他仪表板或URL。

        每个链接都有一个标题,一个类型和参数。链接可以是 dashboard或 absolute链接。如果它是一个仪表板链接, dashboard值必须是一个仪表板的名字。如果这是一个 absolute链接,是URL链接的URL。

        params允许添加额外的URL参数的链接。格式是 name=value与多个参数分开,当链接到另一个仪表板使用模板变量,你可以使用 var-myvar=value填充模板变量的期望值链接。

     

    Metrics(指标)

        定义了来源数据的呈现,每个数据源都提供不同的选择。面板的来源数据通过group,host,application,item从zabbix中获得。

     

    Axes(坐标轴)

        用于坐标轴和网格的显示方式,包括单位,比例,标签等。

    Left Y和 Right Y可以定制使用,因其中的可选参数太多,怕描述不准确。所以请在使用的时候参考官方文档

    Legend(图例):图例展示

        图例的参数:

        Total:返回所有度量查询值的总和

        Current:返回度量查询的最后一个值

        Min:返回最小的度量查询值

        Max:返回最大的度量查询值

        Avg:返回所有度量查询的平均值

        Decimals:控制Legend值的多少,以小数显示悬浮工具提示(图)

        Grafana 中Legend值的计算取决于你使用的度量查询方式和什么样类型的聚合或合并点来实现的,所有上述所说的值在同一时间可能都是不正确的。例如,如果你是每秒请求一次,这可能是使用平均值来作为一个整合,然而这个Legend值不会代表请求的总数。这只是Grafana收到的所有数据点的总和。

     

    Display(显示样式)

        显示样式的控件属性图如下:

    图表模式(Draw Modes)

    Bar:一个条形图显示值

    Lines:显示线图值

     Points:显示点值

    选择模式(Mode Options)

    Fill:系列的颜色填充,0是没有。

    Line Width:线的宽度。

     Staircase:楼梯状显示。

        如果有多个选择项,它们可以作为一个群体显示。

    叠加和空值(Stacking & Null value)

    Stack:每个系列是叠在另一个之上

    Null value:空值

        如果你启用了堆栈可以选择应该显示鼠标悬停功能。

    Time range(时间范围)

     

    顶级头介绍

     

    上图显示了仪表板顶部的标题。

        1.侧菜单切换:切换菜单,让你专注于仪表板中给出的数据。侧菜单提供了访问特性,仪表板,用户,组织和数据源等。

        2.仪表板下拉菜单:下拉菜单显示你当前浏览的仪表板,并允许轻松地切换到另一个新的仪表板。在这里你还可以创建一个新的仪表板,导入现有的仪表板和管理仪表板播放列表。

        3.星仪表板:星(或unstar)当前的仪表板。默认情况下星仪表板将出现在自己建立的仪表板里,为你提供快捷的查看途径。

        4.仪表板分享:通过创建一个链接或创建一个静态快照分享当前仪表板。

        5.保存仪表板:以当前仪表板的名字保存。

        6.设置:管理仪表板的设置和特性,比如模板和注释。

    5、创建流量监控图形

     

     

     

     

    6、仪表盘模板功能

        单纯的手动去添加一个个监控图,只能显示一个主机的所有监控图形,若要查看不同主机的所有监控图形,就要通过变量的方式去实现。我们要设置的变量包括group,host,application和iteam。

    模板

        仪表盘模板可以让你创建一个交互式和动态性的仪表板,它是Grafana里面最强大的、最常用的功能之一。创建的仪表盘模板参数,可以在任何一个仪表盘中使用。

    创建变量

        点击顶部导航栏上的齿轮图标,选择模板。

       单击新建按钮,你会看到模板变量编辑器。它包含以下部分:

    变量(Variable)

    命名:变量的名称。

    标签:可见标签变量。例如,主机组,而不是HOST_GROUP。

    类型:查询类型选择。

        图中有五种变量类型: query,custom,interval,Data source和Contsta。它们都可以用来创建动态变量,不同之处在于获得的数据值不一样。

    查询选项(Query Options)

    数据源:用于查询变量值的数据源。

    刷新:更新此变量的值。

    查询:查询字符串。 

    正则表达式:如果你需要筛选值或提取价值的一部分,那就使用正则表达式。

    选择选项(Selection Options)

    多值:启用,如果你想在同一时间选择多个值。

    数值组/标签(实验功能)(Value groups/tags (Experimental feature))

    7、查询格式

       zabbix模板变量数据源查询是一个包含了4个部分的以.号隔开的字符串{host group}.{host}.{application}.{item name}。例如, Zabbix servers.Zabbix server.CPU.*。

       例子:

       * 返回所有可用主机组

       *.* 返回主机组里所有可用主机

       Servers.*返回服务器组里的所有主机

       Linux servers.*.* 返回Linux服务器组中的所有应用程序

       Linux servers.*.*.* 返回Linux服务器组中所有主机的监控项。

       你可以使用另一个变量作为查询的一部分。例如,你有一个变量组,它返回的是主机组的列表,并仅希望将其用于在选定的组在查询主机。下面是这种情况的查询条件:

       $group.*

    8、变量的使用

        当你创建一个变量,你可以使用它作为一个数据源查询的一部分。Grafana还支持变量在不同的地方被使用,比如面板和行标题、文本面板的内容等。

     

        注意,你需要在变量的名字之前添加$标志。

    创建模板

     

     

       添加变量group,host,Application,iteam


        添加完四个变量,如下图所示:

        group匹配的显示结果

       变量添加完成后,就可以设置图形属性了。将之前所有添加的图形用下面的group,host,application,iteam变量来表示。

        这样我们就可以通过切换,来查看不同主机的所有监控内容 

        下图是通过仪表盘功能在一个页面中用多个graph显示多台机器的网卡流量。

        下图是在仪表盘中使用模板功能在一个页面中用一个graph显示单台机器或所有机器的单个监控项或所有监控项。

     

     

        这个仪表盘模板是在一个页面中用多个graph显示单台机器的多个监控项

    展开全文
  • Linux基础教程

    万次阅读 2019-06-16 11:08:09
    写在前面 在linux中,最最重要的就是命令,这就包含了2个过程,输入和输出 输入:输入当然就是打开终端,然后按键盘输入,然后按回车,输入格式一般就是这类的 #创建一个名为 file 的文件,touch是一个命令 $ ...

     

    写在前面

    在linux中,最最重要的就是命令,这就包含了2个过程,输入和输出

    • 输入:输入当然就是打开终端,然后按键盘输入,然后按回车,输入格式一般就是这类的

    #创建一个名为 file 的文件,touch是一个命令 $ touch file #进入一个目录,cd是一个命令 $ cd /etc/ #查看当前所在目录 $ pwd

    • 输出:输出会返回你想要的结果,比如你要看什么文件,就会返回文件的内容。如果只是执行,执行失败会告诉你哪里错了,如果执行成功那么会没有输出,因为linux的哲学就是:没有结果就是最好的结果

    开始

    如图,双击桌面上的 Xfce 终端 图标打开终端后系统会自动运行 Shell 程序,然后我们就可以输入命令让系统来执行了:

    1) 重要快捷键:

    真正学习命令行之前,你先要掌握几个十分有用、必需掌握的小技巧:

    [Tab]

    使用Tab键来进行命令补全,Tab键一般是在字母Q旁边,这个技巧给你带来的最大的好处就是当你忘记某个命令的全称时可以只输入它的开头的一部分,然后按下Tab键就可以得到提示或者帮助完成:

    当然不止补全命令,补全目录、补全命令参数都是没问题的:

    [Ctrl+c]

    想想你有没有遇到过这种情况,当你在 Linux 命令行中无意输入了一个不知道的命令,或者错误地使用了一个命令,导致在终端里出现了你无法预料的情况,比如,屏幕上只有光标在闪烁却无法继续输入命令,或者不停地输出一大堆你不想要的结果。你想要立即停止并恢复到你可控的状态,那该怎么办呢?这时候你就可以使用Ctrl+c键来强行终止当前程序(你可以放心它并不会使终端退出)。

    尝试输入以下命令:

    $ tail

    然后你会发现你接下来的输入都没有任何反应了,只是将你输入的东西显示出来,现在你可以使用Ctrl+c,来中断这个你目前可能还不知道是什么的程序(在后续课程中我们会具体解释这个tail命令是什么)。

    又或者输入:

    $ find /

    显然这不是你想的结果,可以使用Ctrl+c结束。

    虽然这个按着很方便,但不要随便按,因为有时候,当你看到终端没有任何反应或提示,也不能接受你的输入时,可能只是运行的程序需要你耐心等一下,就不要急着按Ctrl+c了。

    其他一些常用快捷键

    按键

    作用

    Ctrl+d

    键盘输入结束或退出终端

    Ctrl+s

    暂停当前程序,暂停后按下任意键恢复运行

    Ctrl+z

    将当前程序放到后台运行,恢复到前台为命令fg

    Ctrl+a

    将光标移至输入行头,相当于Home键

    Ctrl+e

    将光标移至输入行末,相当于End键

    Ctrl+k

    删除从光标所在位置到行末

    Alt+Backspace

    向前删除一个单词

    Shift+PgUp

    将终端显示向上滚动

    Shift+PgDn

    将终端显示向下滚动

    2) 学会利用历史输入命令

    很简单,你可以使用键盘上的方向上键↑,恢复你之前输入过的命令,你一试便知。

    3) 学会使用通配符

    通配符是一种特殊语句,主要有星号(*)和问号(?),用来对字符串进行模糊匹配(比如文件名、参数名)。当查找文件夹时,可以使用它来代替一个或多个真正字符;当不知道真正字符或者懒得输入完整名字时,常常使用通配符代替一个或多个真正字符。

    终端里面输入的通配符是由 Shell 处理的,不是由所涉及的命令语句处理的,它只会出现在命令的“参数值”里(它不能出现在命令名称里, 命令不记得,那就用Tab补全)。当 Shell 在“参数值”中遇到了通配符时,Shell 会将其当作路径或文件名在磁盘上搜寻可能的匹配:若符合要求的匹配存在,则进行代换(路径扩展);否则就将该通配符作为一个普通字符传递给“命令”,然后再由命令进行处理。总之,通配符实际上就是一种 Shell 实现的路径扩展功能。在通配符被处理后, Shell 会先完成该命令的重组,然后继续处理重组后的命令,直至执行该命令。

    首先回到用户家目录:

    $ cd /home/shiyanlou

    然后使用 touch 命令创建 2 个文件,后缀都为 txt:

    $ touch asd.txt fgh.txt

    可以给文件随意命名,假如过了很长时间,你已经忘了这两个文件的文件名,现在你想在一大堆文件中找到这两个文件,就可以使用通配符:

    $ ls *.txt

    在创建文件的时候,如果需要一次性创建多个文件,比如:“love_1_linux.txt,love_2_linux.txt,... love_10_linux.txt”。在 Linux 中十分方便:

    $ touch love_{1..10}_shiyanlou.txt

    Shell 常用通配符:

    字符

    含义

    *

    匹配 0 或多个字符

    ?

    匹配任意一个字符

    [list]

    匹配 list 中的任意单一字符

    [^list]

    匹配 除list 中的任意单一字符以外的字符

    [c1-c2]

    匹配 c1-c2 中的任意单一字符 如:[0-9] [a-z]

    {string1,string2,...}

    匹配 string1 或 string2 (或更多)其一字符串

    {c1..c2}

    匹配 c1-c2 中全部字符 如{1..10}

    4) 学会在命令行中获取帮助

    在 Linux 环境中,如果你遇到困难,可以使用man命令,它是Manual pages的缩写。

    Manual pages 是 UNIX 或类 UNIX 操作系统中在线软件文档的一种普遍的形式, 内容包括计算机程序(包括库和系统调用)、正式的标准和惯例,甚至是抽象的概念。用户可以通过执行man命令调用手册页。

    你可以使用如下方式来获得某个命令的说明和使用方式的详细介绍:

    $ man <command_name>

    比如你想查看 man 命令本身的使用方式,你可以输入:

    man man

    通常情况下,man 手册里面的内容都是英文的,这就要求你有一定的英文基础。man 手册的内容很多,涉及了 Linux 使用过程中的方方面面。为了便于查找,man 手册被进行了分册(分区段)处理,在 Research UNIX、BSD、OS X 和 Linux 中,手册通常被分为8个区段,安排如下:

    区段

    说明

    1

    一般命令

    2

    系统调用

    3

    库函数,涵盖了C标准函数库

    4

    特殊文件(通常是/dev中的设备)和驱动程序

    5

    文件格式和约定

    6

    游戏和屏保

    7

    杂项

    8

    系统管理命令和守护进程

    要查看相应区段的内容,就在 man 后面加上相应区段的数字即可,如:

    $ man 1 ls

    会显示第一区段中的ls命令 man 页面。

    所有的手册页遵循一个常见的布局,为了通过简单的 ASCII 文本展示而被优化,而这种情况下可能没有任何形式的高亮或字体控制。一般包括以下部分内容:

    NAME(名称)

    该命令或函数的名称,接着是一行简介。

    SYNOPSIS(概要)

    对于命令,正式的描述它如何运行,以及需要什么样的命令行参数。对于函数,介绍函数所需的参数,以及哪个头文件包含该函数的定义。

    DESCRIPTION(说明)

    命令或函数功能的文本描述。

    EXAMPLES(示例)

    常用的一些示例。

    SEE ALSO(参见)

    相关命令或函数的列表。

    也可能存在其它部分内容,但这些部分没有得到跨手册页的标准化。常见的例子包括:OPTIONS(选项),EXIT STATUS(退出状态),ENVIRONMENT(环境),BUGS(程序漏洞),FILES(文件),AUTHOR(作者),REPORTING BUGS(已知漏洞),HISTORY(历史)和 COPYRIGHT(版权)。

    通常 man 手册中的内容很多,你可能不太容易找到你想要的结果,不过幸运的是你可以在 man 中使用搜索/<你要搜索的关键字>,查找完毕后你可以使用n键切换到下一个关键字所在处,shift+n为上一个关键字所在处。使用Space(空格键)翻页,Enter(回车键)向下滚动一行,或者使用k,j(vim 编辑器的移动键)进行向前向后滚动一行。按下h键为显示使用帮助(因为 man 使用 less 作为阅读器,实为less工具的帮助),按下q退出。

    想要获得更详细的帮助,你还可以使用info命令,不过通常使用man就足够了。如果你知道某个命令的作用,只是想快速查看一些它的某个具体参数的作用,那么你可以使用--help参数,大部分命令都会带有这个参数,如:

    $ ls --help

     

     

    2.1 查看用户

    请打开终端,输入命令:

    $ who am i 或者 $ who mom likes

    输出的第一列表示打开当前伪终端的用户的用户名(要查看当前登录用户的用户名,去掉空格直接使用 whoami 即可),第二列的 pts/0 中 pts 表示伪终端,所谓伪是相对于 /dev/tty 设备而言的,还记得上一节讲终端时的那七个使用 [Ctrl]+[Alt]+[F1]~[F7]进行切换的 /dev/tty 设备么,这是“真终端”,伪终端就是当你在图形用户界面使用 /dev/tty7 时每打开一个终端就会产生一个伪终端, pts/0 后面那个数字就表示打开的伪终端序号,你可以尝试再打开一个终端,然后在里面输入 who am i ,看第二列是不是就变成 pts/1 了,第三列则表示当前伪终端的启动时间。

    who 命令其它常用参数

    参数

    说明

    -a

    打印能打印的全部

    -d

    打印死掉的进程

    -m

    同am i,mom likes

    -q

    打印当前登录用户数及用户名

    -u

    打印当前登录用户登录信息

    -r

    打印运行等级

     

     

    2.2 创建用户

    在 Linux 系统里, root 账户拥有整个系统至高无上的权利,比如 新建/添加 用户。

    root 权限,系统权限的一种,与 SYSTEM 权限可以理解成一个概念,但高于 Administrator 权限,root 是 Linux 和 UNIX 系统中的超级管理员用户帐户,该帐户拥有整个系统至高无上的权力,所有对象他都可以操作,所以很多黑客在入侵系统的时候,都要把权限提升到 root 权限,用 Windows 的方法理解也就是将自己的非法帐户添加到 Administrators 用户组。更比如安卓操作系统中(基于 Linux 内核)获得 root 权限之后就意味着已经获得了手机的最高权限,这时候你可以对手机中的任何文件(包括系统文件)执行所有增、删、改、查的操作。

    我们一般登录系统时都是以普通账户的身份登录的,要创建用户需要 root 权限,这里就要用到 sudo 这个命令了。不过使用这个命令有两个大前提,一是你要知道当前登录用户的密码,二是当前用户必须在 sudo 用户组。shiyanlou 用户也属于 sudo 用户组(稍后会介绍如何查看和添加用户组)。

    su,su- 与 sudo

    需要注意 Linux 环境下输入密码是不会显示的。

    su <user> 可以切换到用户 user,执行时需要输入目标用户的密码,sudo <cmd> 可以以特权级别运行 cmd 命令,需要当前用户属于 sudo 组,且需要输入当前用户的密码。su - <user> 命令也是切换用户,同时环境变量也会跟着改变成目标用户的环境变量。

    现在我们新建一个叫 lilei 的用户:

    $ sudo adduser lilei

    实验楼的环境目前设置为 shiyanlou 用户执行 sudo 不需要输入密码,通常此处需要按照提示输入 shiyanlou 密码(Linux 下密码输入是不显示任何内容的),shiyanlou 用户密码可以通过 sudo passwd shiyanlou 命令进行设置。然后是给 lilei 用户设置密码,后面的选项的一些内容你可以选择直接回车使用默认值:

    这个命令不但可以添加用户到系统,同时也会默认为新用户创建 home 目录:

    $ ls /home

    现在你已经创建好一个用户,并且你可以使用你创建的用户登录了,使用如下命令切换登录用户:

    $ su -l lilei

    输入刚刚设置的 lilei 的密码,然后输入如下命令并查看输出:

    $ who am i $ whoami $ pwd

    退出当前用户跟退出终端一样可以使用 exit 命令或者使用快捷键 Ctrl+d。

     

     

     

    2.3 用户组

    在 Linux 里面每个用户都有一个归属(用户组),用户组简单地理解就是一组用户的集合,它们共享一些资源和权限,同时拥有私有资源,就跟家的形式差不多,你的兄弟姐妹(不同的用户)属于同一个家(用户组),你们可以共同拥有这个家(共享资源),爸妈对待你们都一样(共享权限),你偶尔写写日记,其他人未经允许不能查看(私有资源和权限)。当然一个用户是可以属于多个用户组的,正如你既属于家庭,又属于学校或公司。

    在 Linux 里面如何知道自己属于哪些用户组呢?

    方法一:使用 groups 命令

    $ groups shiyanlou

    其中冒号之前表示用户,后面表示该用户所属的用户组。这里可以看到 shiyanlou 用户属于 shiyanlou 用户组,每次新建用户如果不指定用户组的话,默认会自动创建一个与用户名相同的用户组(差不多就相当于家长的意思,或者说是老总)。默认情况下在 sudo 用户组里的可以使用 sudo 命令获得 root 权限。shiyanlou 用户也可以使用 sudo 命令,为什么这里没有显示在 sudo 用户组里呢?可以查看下 /etc/sudoers.d/shiyanlou 文件,我们在 /etc/sudoers.d 目录下创建了这个文件,从而给 shiyanlou 用户赋予了 sudo 权限:

    方法二:查看 /etc/group 文件

    $ cat /etc/group | sort

    这里 cat 命令用于读取指定文件的内容并打印到终端输出,后面会详细讲它的使用。 | sort 表示将读取的文本进行一个字典排序再输出,然后你将看到如下一堆输出,你可以在最下面看到 shiyanlou 的用户组信息:

    没找到,没关系,你可以使用命令过滤掉一些你不想看到的结果:

    $ cat /etc/group | grep -E "shiyanlou"

    /etc/group 文件格式说明

    /etc/group 的内容包括用户组(Group)、用户组口令、GID 及该用户组所包含的用户(User),每个用户组一条记录。格式如下:

    group_name:password:GID:user_list

    你看到上面的 password 字段为一个 x 并不是说密码就是它,只是表示密码不可见而已。

    这里需要注意,如果用户主用户组,即用户的 GID 等于用户组的 GID,那么最后一个字段 user_list 就是空的,比如 shiyanlou 用户,在 /etc/group 中的 shiyanlou 用户组后面是不会显示的。lilei 用户,在 /etc/group 中的 lilei 用户组后面是不会显示的。

    将其它用户加入 sudo 用户组

    默认情况下新创建的用户是不具有 root 权限的,也不在 sudo 用户组,可以让其加入 sudo 用户组从而获取 root 权限:

    # 注意 Linux 上输入密码是不会显示的 $ su -l lilei $ sudo ls

    会提示 lilei 不在 sudoers 文件中,意思就是 lilei 不在 sudo 用户组中,至于 sudoers 文件(/etc/sudoers)你现在最好不要动它,操作不慎会导致比较麻烦的后果。

    使用 usermod 命令可以为用户添加用户组,同样使用该命令你必需有 root 权限,你可以直接使用 root 用户为其它用户添加用户组,或者用其它已经在 sudo 用户组的用户使用 sudo 命令获取权限来执行该命令。

    这里我用 shiyanlou 用户执行 sudo 命令将 lilei 添加到 sudo 用户组,让它也可以使用 sudo 命令获得 root 权限:

    $ su shiyanlou # 此处需要输入 shiyanlou 用户密码,shiyanlou 的密码可以通过 `sudo passwd shiyanlou` 进行设置。 $ groups lilei $ sudo usermod -G sudo lilei $ groups lilei

    然后你再切换回 lilei 用户,现在就可以使用 sudo 获取 root 权限了。

     

     

    2.4 删除用户

    删除用户是很简单的事:

    $ sudo deluser lilei --remove-home

     

    3.1 查看文件权限

    我们之前已经很多次用到 ls 命令了,如你所见,我们用它来列出并显示当前目录下的文件,当然这是在不带任何参数的情况下,它能做的当然不止这么多,现在我们就要用它来查看文件权限。

    使用较长格式列出文件:

    $ ls -l

    你可能除了知道最后面那一项是文件名之外,其它项就不太清楚了,那么到底是什么意思呢:

     

    可能你还是不太明白,比如第一项文件类型和权限那一堆东西具体指什么,链接又是什么,何为最后修改时间,下面一一道来:

    • 文件类型

    关于文件类型,这里有一点你必需时刻牢记 Linux 里面一切皆文件,正因为这一点才有了设备文件( /dev 目录下有各种设备文件,大都跟具体的硬件设备相关)这一说。 socket:网络套接字,具体是什么,感兴趣的用户可以自己去了解或期待实验楼的后续相关课程。pipe 管道,这个东西很重要,我们以后将会讨论到,这里你先知道有它的存在即可。软链接文件:链接文件是分为两种的,另一种当然是“硬链接”(硬链接不常用,具体内容不作为本课程讨论重点,而软链接等同于 Windows 上的快捷方式,你记住这一点就够了)。

    • 文件权限

    读权限,表示你可以使用 cat <file name> 之类的命令来读取某个文件的内容;写权限,表示你可以编辑和修改某个文件; 执行权限,通常指可以运行的二进制程序文件或者脚本文件,如同 Windows 上的 exe 后缀的文件,不过 Linux 上不是通过文件后缀名来区分文件的类型。你需要注意的一点是,一个目录同时具有读权限和执行权限才可以打开并查看内部文件,而一个目录要有写权限才允许在其中创建其它文件,这是因为目录文件实际保存着该目录里面的文件的列表等信息。

    所有者权限,这一点相信你应该明白了,至于所属用户组权限,是指你所在的用户组中的所有其它用户对于该文件的权限,比如,你有一个 iPad,那么这个用户组权限就决定了你的兄弟姐妹有没有权限使用它破坏它和占有它。

    • 链接数

    链接到该文件所在的 inode 结点的文件名数目(关于这个概念涉及到 Linux 文件系统的相关概念知识,不在本课程的讨论范围,感兴趣的用户可以自己去了解)。

    • 文件大小

    以 inode 结点大小为单位来表示的文件大小,你可以给 ls 加上 -lh 参数来更直观的查看文件的大小。

    明白了文件权限的一些概念,我们顺带补充一下关于 ls 命令的一些其它常用的用法:

    • 显示除了 .(当前目录)和 ..(上一级目录)之外的所有文件,包括隐藏文件(Linux 下以 . 开头的文件为隐藏文件)。

    $ ls -A

    当然,你可以同时使用 -A 和 -l 参数:

    $ ls -Al

    查看某一个目录的完整属性,而不是显示目录里面的文件属性:

    $ ls -dl <目录名>

    • 显示所有文件大小,并以普通人类能看懂的方式呈现:

    $ ls -AsSh

    其中小 s 为显示文件大小,大 S 为按文件大小排序,若需要知道如何按其它方式排序,请使用“man”命令查询。

     

     

    3.2 变更文件所有者

    若前面已经执行删除lilei用户的命令,这里重新创建一下。

    假设目前是 lilei 用户登录,新建一个文件,命名为 “ iphone6 ”:

    # 注意当前的用户必须是 lilei # 如果是 shiyanlou 用户需要切换到 lilei(如果之前已经删除需要重新创建下) $ su lilei $ cd /home/lilei $ touch iphone6

    可见文件所有者是 lilei :

    现在,换回到 shiyanlou 用户身份,使用以下命令变更文件所有者为 shiyanlou :

    # 需要切换到 shiyanlou 用户执行以下操作 $ cd /home/lilei $ ls iphone6 $ sudo chown shiyanlou iphone6

    现在查看,发现 文件所有者成功修改为 shiyanlou :

     

     

     

    3.3 修改文件权限

    如果你有一个自己的文件不想被其他用户读、写、执行,那么就需要对文件的权限做修改,这里有两种方式:

    • 方式一:二进制数字表示

    每个文件的三组权限(拥有者,所属用户组,其他用户,记住这个顺序是一定的)对应一个 " rwx ",也就是一个 “ 7 ” ,所以如果我要将文件“ iphone6 ”的权限改为只有我自己可以用那么就这样:

    为了演示,我先在文件里加点内容:

    $ echo "echo \"hello shiyanlou\"" > iphone6

    然后修改权限:

    $ chmod 600 iphone6

    现在,其他用户已经不能读这个“ iphone6 ”文件了:

    • 方式二:加减赋值操作

    完成上述相同的效果,你可以:

    $ chmod go-rw iphone6

    g、o 还有 u 分别表示 group、others 和 user,+ 和 - 分别表示增加和去掉相应的权限

     

     

    四、更多

    adduser 和 useradd 的区别是什么?

    答:useradd 只创建用户,创建完了用 passwd lilei 去设置新用户的密码。adduser 会创建用户,创建目录,创建密码(提示你设置),做这一系列的操作。其实 useradd、userdel 这类操作更像是一种命令,执行完了就返回。而 adduser 更像是一种程序,需要你输入、确定等一系列操作。

    Linux 还有一些关于隐藏权限和特殊权限的内容,想全面了解 Linux 权限管理这部分内容的用户可以通过其它方式学习。

     

     

    1. FHS 标准

    Linux 的目录结构说复杂很复杂,说简单也很简单。复杂在于,因为系统的正常运行是以目录结构为基础的,对于初学者来说里面大部分目录都不知道其作用,重要与否,特别对于那些曾经的重度 Windows 用户,他们会纠结很长时间,关于我安装的软件在哪里这类问题。说它简单是因为,其中大部分目录结构是规定好了的(FHS 标准),是死的,当你掌握后,你在里面的一切操作都会变得井然有序。

    FHS(英文:Filesystem Hierarchy Standard 中文:文件系统层次结构标准),多数 Linux 版本采用这种文件组织形式,FHS 定义了系统中每个区域的用途、所需要的最小构成的文件和目录同时还给出了例外处理与矛盾处理。

    FHS 定义了两层规范,第一层是, / 下面的各个目录应该要放什么文件数据,例如 /etc应该放置设置文件,/bin 与 /sbin 则应该放置可执行文件等等。

    第二层则是针对 /usr 及 /var 这两个目录的子目录来定义。例如 /var/log 放置系统日志文件,/usr/share 放置共享数据等等。

    FHS_2.3 标准文档

    如果觉得图片不清晰,建议另存为到本地放大查看:

    如果你觉得看这个不明白,那么可以试试最真实最直观的方式,执行如下命令:

    $ tree /

    如果提示" command not found ",就先安装:

    # 因为我们的环境的原因,每次新启动实验会清除系统恢复到初始状态,所以需要手动更新软件包索引,以便我们安装时能找到相应软件包的源。 sudo apt-get update sudo apt-get install tree

    关于上面提到的 FHS,这里还有个很重要的内容你一定要明白,FHS 是根据以往无数 Linux 用户和开发者的经验总结出来的,并且会维持更新,FHS 依据文件系统使用的频繁与否以及是否允许用户随意改动(注意,不是不能,学习过程中,不要怕这些),将目录定义为四种交互作用的形态,如下表所示:

     

     

     

    2. 目录路径

    路径

    有人可能不明白这路径是指什么,有什么用。顾名思义,路径就是你要去哪儿的路线嘛。如果你想进入某个具体的目录或者想获得某个目录的文件(目录本身也是文件)那就得用路径来找到了。

    使用 cd 命令可以切换目录,在 Linux 里面使用 . 表示当前目录,.. 表示上一级目录(注意,我们上一节介绍过的,以 . 开头的文件都是隐藏文件,所以这两个目录必然也是隐藏的,你可以使用 ls -a 命令查看隐藏文件), - 表示上一次所在目录,~ 通常表示当前用户的 home 目录。使用 pwd 命令可以获取当前所在路径(绝对路径)。

    进入上一级目录:

    $ cd ..

    进入你的 home 目录:

    $ cd ~ # 或者 cd /home/<你的用户名>

    使用 pwd 获取当前路径:

    $ pwd

    绝对路径

    关于绝对路径,简单地说就是以根" / "目录为起点的完整路径,以你所要到的目录为终点,表现形式如: /usr/local/bin,表示根目录下的 usr 目录中的 local 目录中的 bin目录。

    相对路径

    相对路径,也就是相对于你当前的目录的路径,相对路径是以当前目录 . 为起点,以你所要到的目录为终点,表现形式如: usr/local/bin (这里假设你当前目录为根目录)。你可能注意到,我们表示相对路径实际并没有加上表示当前目录的那个 . ,而是直接以目录名开头,因为这个 usr 目录为 / 目录下的子目录,是可以省略这个 . 的(以后会讲到一个类似不能省略的情况);如果是当前目录的上一级目录,则需要使用 ..,比如你当前目录为 home 目录,根目录就应该表示为 ../../ ,表示上一级目录( home目录)的上一级目录( / 目录)。

    下面我们以你的 home目录为起点,分别以绝对路径和相对路径的方式进入 /usr/local/bin 目录:

    # 绝对路径 $ cd /usr/local/bin # 相对路径 $ cd ../../usr/local/bin

    进入一个目录,可以使用绝对路径也可以使用相对路径,那我们应该在什么时候选择正确的方式进入某个目录呢。就是凭直觉嘛,你觉得怎样方便就使用哪一个,而不用特意只使用某一种。比如假设我当前在 /usr/local/bin 目录,我想进入上一级的 local 目录你说是使用 cd .. 方便还是 cd /usr/local 方便?而如果要进入的是 usr 目录,那么 cd /usr ,就比 cd ../.. 方便一点了。

    提示:在进行目录切换的过程中请多使用 Tab 键自动补全,可避免输入错误,连续按两次 Tab 可以显示全部候选结果。

     

     

    新建空白文件

    使用 touch 命令创建空白文件,关于 touch 命令,其主要作用是来更改已有文件的时间戳的(比如,最近访问时间,最近修改时间),但其在不加任何参数的情况下,只指定一个文件名,则可以创建一个指定文件名的空白文件(不会覆盖已有同名文件),当然你也可以同时指定该文件的时间戳,更多关于 touch 命令的用法,会在下一讲文件搜索中涉及。

    创建名为 test 的空白文件,因为在其它目录没有权限,所以需要先 cd ~ 切换回用户的/home/shiyanlou 目录:

    $ cd /home/shiyanlou $ touch test

    新建目录

    使用 mkdir(make directories)命令可以创建一个空目录,也可同时指定创建目录的权限属性。

    创建名为“ mydir ”的空目录:

    $ mkdir mydir

    使用 -p 参数,同时创建父目录(如果不存在该父目录),如下我们同时创建一个多级目录(这在安装软件、配置安装路径时非常有用):

    $ mkdir -p father/son/grandson

    后面的目录路径,以绝对路径的方式表示也是可以的。

     

     

     

    2. 复制

    复制文件

    使用 cp(copy)命令复制一个文件到指定目录。

    将之前创建的“ test ”文件复制到“ /home/shiyanlou/father/son/grandson ”目录中:

    $ cp test father/son/grandson

    是不是很方便啊,如果在图形界面则需要先在源目录复制文件,再进到目的目录粘贴文件,而命令行操作步骤就一步到位了嘛。

    复制目录

    如果直接使用 cp 命令复制一个目录的话,会出现如下错误:

    要成功复制目录需要加上 -r 或者 -R 参数,表示递归复制,就是说有点“株连九族”的意思:

    $ cd /home/shiyanlou $ mkdir family $ cp -r father family

     

     

     

    3. 删除

    删除文件

    使用 rm(remove files or directories)命令删除一个文件:

    $ rm test

    有时候你会遇到想要删除一些为只读权限的文件,直接使用 rm 删除会显示一个提示,如下:

    你如果想忽略这提示,直接删除文件,可以使用 -f 参数强制删除:

    $ rm -f test

    删除目录

    跟复制目录一样,要删除一个目录,也需要加上 -r 或 -R 参数:

    $ rm -r family

     

     

     

     

    4. 移动文件与文件重命名

    移动文件

    使用 mv(move or rename files)命令移动文件(剪切)。将文件“ file1 ”移动到 Documents 目录:

    mv 源目录文件 目的目录:

    $ mkdir Documents $ touch file1 $ mv file1 Documents

    重命名文件

    将文件“ file1 ”重命名为“ myfile ”:

    mv 旧的文件名 新的文件名:

    $ mv file1 myfile

    批量重命名

    要实现批量重命名,mv 命令就有点力不从心了,我们可以使用一个看起来更专业的命令 rename 来实现。不过它要用 perl 正则表达式来作为参数,关于正则表达式我们要在后面才会介绍到,这里只做演示,你只要记得这个 rename 命令可以批量重命名就好了,以后再重新学习也不会有任何问题,毕竟你已经掌握了一个更常用的 mv 命令。

    $ cd /home/shiyanlou/ # 使用通配符批量创建 5 个文件: $ touch file{1..5}.txt # 批量将这 5 个后缀为 .txt 的文本文件重命名为以 .c 为后缀的文件: $ rename 's/\.txt/\.c/' *.txt # 批量将这 5 个文件,文件名和后缀改为大写: $ rename 'y/a-z/A-Z/' *.c

    简单解释一下上面的命令,rename 是先使用第二个参数的通配符匹配所有后缀为 .txt的文件,然后使用第一个参数提供的正则表达式将匹配的这些文件的 .txt 后缀替换为 .c,这一点在我们后面学习了 sed 命令后,相信你会更好地理解。

     

     

    5. 查看文件

    使用 cat,tac 和 nl 命令查看文件

    前两个命令都是用来打印文件内容到标准输出(终端),其中 cat 为正序显示,tac 为倒序显示。

    标准输入输出:当我们执行一个 shell 命令行时通常会自动打开三个标准文件,即标准输入文件(stdin),默认对应终端的键盘、标准输出文件(stdout)和标准错误输出文件(stderr),后两个文件都对应被重定向到终端的屏幕,以便我们能直接看到输出内容。进程将从标准输入文件中得到输入数据,将正常输出数据输出到标准输出文件,而将错误信息送到标准错误文件中。

    比如我们要查看之前从 /etc 目录下拷贝来的 passwd 文件:

    $ cd /home/shiyanlou $ cp /etc/passwd passwd $ cat passwd

    可以加上 -n 参数显示行号:

    $ cat -n passwd

    nl 命令,添加行号并打印,这是个比 cat -n 更专业的行号打印命令。

    这里简单列举它的常用的几个参数:

    -b : 指定添加行号的方式,主要有两种: -b a:表示无论是否为空行,同样列出行号("cat -n"就是这种方式) -b t:只列出非空行的编号并列出(默认为这种方式) -n : 设置行号的样式,主要有三种: -n ln:在行号字段最左端显示 -n rn:在行号字段最右边显示,且不加 0 -n rz:在行号字段最右边显示,且加 0 -w : 行号字段占用的位数(默认为 6 位)

    你会发现使用这几个命令,默认的终端窗口大小,一屏显示不完文本的内容,得用鼠标拖动滚动条或者滑动滚轮才能继续往下翻页,要是可以直接使用键盘操作翻页就好了,那么你就可以使用下面要介绍的命令。

    使用 more 和 less 命令分页查看文件

    如果说上面的 cat 是用来快速查看一个文件的内容的,那么这个 more 和 less 就是天生用来"阅读"一个文件的内容的,比如说 man 手册内部就是使用的 less 来显示内容。其中 more 命令比较简单,只能向一个方向滚动,而 less 为基于 more 和 vi (一个强大的编辑器,我们有单独的课程来让你学习)开发,功能更强大。less 的使用基本和 more一致,具体使用请查看 man 手册,这里只介绍 more 命令的使用。

    使用 more 命令打开 passwd 文件:

    $ more passwd

    打开后默认只显示一屏内容,终端底部显示当前阅读的进度。可以使用 Enter 键向下滚动一行,使用 Space 键向下滚动一屏,按下 h 显示帮助,q 退出。

    使用 head 和 tail 命令查看文件

    这两个命令,那些性子比较急的人应该会喜欢,因为它们一个是只查看文件的头几行(默认为 10 行,不足 10 行则显示全部)和尾几行。还是拿 passwd 文件举例,比如当我们想要查看最近新增加的用户,那么我们可以查看这个 /etc/passwd 文件,不过我们前面也看到了,这个文件里面一大堆乱糟糟的东西,看起来实在费神啊。因为系统新增加一个用户,会将用户的信息添加到 passwd 文件的最后,那么这时候我们就可以使用 tail 命令了:

    $ tail /etc/passwd

    甚至更直接的只看一行, 加上 -n 参数,后面紧跟行数:

    $ tail -n 1 /etc/passwd

    关于 tail 命令,不得不提的还有它一个很牛的参数 -f,这个参数可以实现不停地读取某个文件的内容并显示。这可以让我们动态查看日志,达到实时监视的目的。不过我不会在这门基础课程中介绍它的更多细节,感兴趣的用户可以自己去了解。

     

     

    6. 查看文件类型

    前面我提到过,在 Linux 中文件的类型不是根据文件后缀来判断的,我们通常使用 file 命令查看文件的类型:

    $ file /bin/ls

    说明这是一个可执行文件,运行在 64 位平台,并使用了动态链接文件(共享库)。

    隐藏环境

     

     

     

    二、环境变量

    变量

    要解释环境变量,得先明白变量是什么,准确的说应该是 Shell 变量,所谓变量就是计算机中用于记录一个值(不一定是数值,也可以是字符或字符串)的符号,而这些符号将用于不同的运算处理中。通常变量与值是一对一的关系,可以通过表达式读取它的值并赋值给其它变量,也可以直接指定数值赋值给任意变量。为了便于运算和处理,大部分的编程语言会区分变量的类型,用于分别记录数值、字符或者字符串等等数据类型。Shell 中的变量也基本如此,有不同类型(但不用专门指定类型名),可以参与运算,有作用域限定。

    变量的作用域即变量的有效范围(比如一个函数中、一个源文件中或者全局范围),在该范围内只能有一个同名变量。一旦离开则该变量无效,如同不存在这个变量一般。

    在 Shell 中如何创建一个变量,如何给变量赋值和如何读取变量的值呢?这部分内容会在 bash 脚本编程 这门课中详细介绍,这里我简单举例说明一下:

    使用 declare 命令创建一个变量名为 tmp 的变量:

    $ declare tmp

    其实也可以不用 declare 预声明一个变量,直接即用即创建,这里只是告诉你 declare 的作用,这在创建其它指定类型的变量(如数组)时会用到。

    使用 = 号赋值运算符,将变量 tmp 赋值为 shiyanlou:

    $ tmp=shiyanlou

    读取变量的值,使用 echo 命令和 $ 符号($ 符号用于表示引用一个变量的值,初学者经常忘记输入):

    $ echo $tmp

    注意:并不是任何形式的变量名都是可用的,变量名只能是英文字母、数字或者下划线,且不能以数字作为开头。

     

     

    1. 环境变量

    简单理解了变量的概念,就很容易理解环境变量了。环境变量的作用域比自定义变量的要大,如 Shell 的环境变量作用于自身和它的子进程。在所有的 UNIX 和类 UNIX 系统中,每个进程都有其各自的环境变量设置,且默认情况下,当一个进程被创建时,除了创建过程中明确指定的话,它将继承其父进程的绝大部分环境设置。Shell 程序也作为一个进程运行在操作系统之上,而我们在 Shell 中运行的大部分命令都将以 Shell 的子进程的方式运行。

    通常我们会涉及到的变量类型有三种:

    • 当前 Shell 进程私有用户自定义变量,如上面我们创建的 tmp 变量,只在当前 Shell 中有效。
    • Shell 本身内建的变量。
    • 从自定义变量导出的环境变量。

    也有三个与上述三种环境变量相关的命令:set,env,export。这三个命令很相似,都是用于打印环境变量信息,区别在于涉及的变量范围不同。详见下表:

    命 令

    说 明

    set

    显示当前 Shell 所有变量,包括其内建环境变量(与 Shell 外观等相关),用户自定义变量及导出的环境变量。

    env

    显示与当前用户相关的环境变量,还可以让命令在指定环境中运行。

    export

    显示从 Shell 中导出成环境变量的变量,也能通过它将自定义变量导出为环境变量。

    你可以更直观的使用 vimdiff 工具比较一下它们之间的差别:

    $ temp=shiyanlou $ export temp_env=shiyanlou $ env|sort>env.txt $ export|sort>export.txt $ set|sort>set.txt

    上述操作将命令输出通过管道 | 使用 sort 命令排序,再重定向到对象文本文件中。

    $ vimdiff env.txt export.txt set.txt

    使用 vimdiff 工具比较导出的几个文件的内容:

    关于哪些变量是环境变量,可以简单地理解成在当前进程的子进程有效则为环境变量,否则不是(有些人也将所有变量统称为环境变量,只是以全局环境变量和局部环境变量进行区分,我们只要理解它们的实质区别即可)。我们这里用 export 命令来体会一下,先在 Shell 中设置一个变量 temp=shiyanlou,然后再新创建一个子 Shell 查看 temp 变量的值:

    注意:为了与普通变量区分,通常我们习惯将环境变量名设为大写。

    永久生效

    但是问题来了,当你关机后,或者关闭当前的 shell 之后,环境变量就没了啊。怎么才能让环境变量永久生效呢?

    按变量的生存周期来划分,Linux 变量可分为两类:

    1. 永久的:需要修改配置文件,变量永久生效;
    2. 临时的:使用 export 命令行声明即可,变量在关闭 shell 时失效。

    这里介绍两个重要文件 /etc/bashrc(有的 Linux 没有这个文件) 和 /etc/profile ,它们分别存放的是 shell 变量和环境变量。还有要注意区别的是每个用户目录下的一个隐藏文件:

    .profile 可以用 ls -a 查看 cd /home/shiyanlou ls -a

    这个 .profile 只对当前用户永久生效。而写在 /etc/profile 里面的是对所有用户永久生效,所以如果想要添加一个永久生效的环境变量,只需要打开 /etc/profile,在最后加上你想添加的环境变量就好啦。

     

    2. 命令的查找路径与顺序

    你可能很早之前就有疑问,我们在 Shell 中输入一个命令,Shell 是怎么知道去哪找到这个命令然后执行的呢?这是通过环境变量 PATH 来进行搜索的,熟悉 Windows 的用户可能知道 Windows 中的也是有这么一个 PATH 环境变量。这个 PATH 里面就保存了 Shell 中执行的命令的搜索路径。

    查看 PATH 环境变量的内容:

    $ echo $PATH

    默认情况下你会看到如下输出:

    /usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin:/usr/games:/usr/local/games

    如果你还记得 Linux 目录结构那一节的内容,你就应该知道上面这些目录下放的是哪一类文件了。通常这一类目录下放的都是可执行文件,当我们在 Shell 中执行一个命令时,系统就会按照 PATH 中设定的路径按照顺序依次到目录中去查找,如果存在同名的命令,则执行先找到的那个。

    下面我们将练习创建一个最简单的可执行 Shell 脚本和一个使用 C 语言创建的“ hello world ”程序,如果这两部分内容你之前没有学习过,那么你可以进行一个入门学习: C 语言入门教程 高级 Bash 脚本编程指南 Linux Shell Scripting Tutorial (LSST) v2.0 。

    创建一个 Shell 脚本文件:

    $ cd /home/shiyanlou $ touch hello_shell.sh $ gedit hello_shell.sh

    在脚本中添加如下内容,保存并退出(注意不要省掉第一行,这不是注释,论坛有用户反映有语法错误,就是因为没有了第一行):

    #!/bin/bash for ((i=0; i<10; i++));do echo "hello shell" done exit 0

    为文件添加可执行权限:

    $ chmod 755 hello_shell.sh

    执行脚本:

    $ cd /home/shiyanlou $ ./hello_shell.sh

    创建一个 C 语言“ hello world ”程序:

    $ cd /home/shiyanlou $ gedit hello_world.c

    #include <stdio.h> int main(void) { printf("hello world!\n"); return 0; }

    保存后使用 gcc 生成可执行文件:

    $ gcc -o hello_world hello_world.c

    gcc 生成二进制文件默认具有可执行权限,不需要修改

    在 /home/shiyanlou 家目录创建一个 mybin 目录,并将上述 hello_shell.sh 和 hello_world 文件移动到其中:

    $ cd /home/shiyanlou $ mkdir mybin $ mv hello_shell.sh hello_world mybin/

    现在你可以在 mybin 目录中分别运行你刚刚创建的两个程序:

    $ cd mybin $ ./hello_shell.sh $ ./hello_world

    回到上一级目录,也就是 shiyanlou 家目录,当再想运行那两个程序时,会发现提示命令找不到,除非加上命令的完整路径,但那样很不方便,如何做到像使用系统命令一样执行自己创建的脚本文件或者程序呢?那就要将命令所在路径添加到 PATH 环境变量

     

     

    3. 添加自定义路径到“ PATH ”环境变量

    在前面我们应该注意到 PATH 里面的路径是以 : 作为分割符的,所以我们可以这样添加自定义路径:

    $ PATH=$PATH:/home/shiyanlou/mybin

    注意这里一定要使用绝对路径。

    现在你就可以在任意目录执行那两个命令了(注意需要去掉前面的 ./)。你可能会意识到这样还并没有很好的解决问题,因为我给 PATH 环境变量追加了一个路径,它也只是在当前 Shell 有效,我一旦退出终端,再打开就会发现又失效了。有没有方法让添加的环境变量全局有效?或者每次启动 Shell 时自动执行上面添加自定义路径到 PATH 的命令?下面我们就来说说后一种方式——让它自动执行。

    在每个用户的 home 目录中有一个 Shell 每次启动时会默认执行一个配置脚本,以初始化环境,包括添加一些用户自定义环境变量等等。zsh 的配置文件是 .zshrc,相应 Bash 的配置文件为 .bashrc 。它们在 etc 下还都有一个或多个全局的配置文件,不过我们一般只修改用户目录下的配置文件。

    我们可以简单地使用下面命令直接添加内容到 .zshrc 中:

    $ echo "PATH=$PATH:/home/shiyanlou/mybin" >> .zshrc

    上述命令中 >> 表示将标准输出以追加的方式重定向到一个文件中,注意前面用到的 > 是以覆盖的方式重定向到一个文件中,使用的时候一定要注意分辨。在指定文件不存在的情况下都会创建新的文件。

     

     

    4. 修改和删除已有变量

    变量修改

    变量的修改有以下几种方式:

    变量设置方式

    说明

    ${变量名#匹配字串}

    从头向后开始匹配,删除符合匹配字串的最短数据

    ${变量名##匹配字串}

    从头向后开始匹配,删除符合匹配字串的最长数据

    ${变量名%匹配字串}

    从尾向前开始匹配,删除符合匹配字串的最短数据

    ${变量名%%匹配字串}

    从尾向前开始匹配,删除符合匹配字串的最长数据

    ${变量名/旧的字串/新的字串}

    将符合旧字串的第一个字串替换为新的字串

    ${变量名//旧的字串/新的字串}

    将符合旧字串的全部字串替换为新的字串

    比如要修改我们前面添加到 PATH 的环境变量。为了避免操作失误导致命令找不到,我们先将 PATH 赋值给一个新的自定义变量 path:

    $ path=$PATH $ echo $path $ path=${path%/home/shiyanlou/mybin} # 或使用通配符,*表示任意多个任意字符 $ path=${path%*/mybin}

    变量删除

    可以使用 unset 命令删除一个环境变量:

    $ unset temp

     

    5. 如何让环境变量立即生效

    前面我们在 Shell 中修改了一个配置脚本文件之后(比如 zsh 的配置文件 home 目录下的 .zshrc),每次都要退出终端重新打开甚至重启主机之后其才能生效,很是麻烦,我们可以使用 source 命令来让其立即生效,如:

    $ cd /home/shiyanlou $ source .zshrc

    source 命令还有一个别名就是 .,上面的命令如果替换成 . 的方式就该是:

    $ . ./.zshrc

    在使用.的时候,需要注意与表示当前路径的那个点区分开。

    注意第一个点后面有一个空格,而且后面的文件必须指定完整的绝对或相对路径名,source 则不需要。

     

    三、搜索文件

    与搜索相关的命令常用的有 whereis,which,find 和 locate 。

    • whereis 简单快速

    $ whereis who $ whereis find

    你会看到 whereis find 找到了三个路径,两个可执行文件路径和一个 man 在线帮助文件所在路径,这个搜索很快,因为它并没有从硬盘中依次查找,而是直接从数据库中查询。whereis 只能搜索二进制文件(-b),man 帮助文件(-m)和源代码文件(-s)。如果想要获得更全面的搜索结果可以使用 locate 命令。

    • locate 快而全

    通过“ /var/lib/mlocate/mlocate.db ”数据库查找,不过这个数据库也不是实时更新的,系统会使用定时任务每天自动执行 updatedb 命令更新一次,所以有时候你刚添加的文件,它可能会找不到,需要手动执行一次 updatedb 命令(在我们的环境中必须先执行一次该命令)。它可以用来查找指定目录下的不同文件类型,如查找 /etc 下所有以 sh 开头的文件:

    $ sudo apt-get update $ sudo apt-get install locate $ locate /etc/sh

    注意,它不只是在 /bin 目录下查找,还会自动递归子目录进行查找。

    查找 /usr/share/ 下所有 jpg 文件:

    $ locate /usr/share/\*.jpg

    注意要添加 * 号前面的反斜杠转义,否则会无法找到。

    如果想只统计数目可以加上 -c 参数,-i 参数可以忽略大小写进行查找,whereis 的 -b、-m、-s 同样可以使用。

    • which 小而精

    which 本身是 Shell 内建的一个命令,我们通常使用 which 来确定是否安装了某个指定的软件,因为它只从 PATH 环境变量指定的路径中去搜索命令:

    $ which man

    • find 精而细

    find 应该是这几个命令中最强大的了,它不但可以通过文件类型、文件名进行查找而且可以根据文件的属性(如文件的时间戳,文件的权限等)进行搜索。find 命令强大到,要把它讲明白至少需要单独好几节课程才行,我们这里只介绍一些常用的内容。

    这条命令表示去 /etc/ 目录下面 ,搜索名字叫做 interfaces 的文件或者目录。这是 find 命令最常见的格式,千万记住 find 的第一个参数是要搜索的地方:

    $ sudo find /etc/ -name interfaces

    注意 find 命令的路径是作为第一个参数的, 基本命令格式为 find [path] [option] [action] 。

    与时间相关的命令参数:

    参数

    说明

    -atime

    最后访问时间

    -ctime

    最后修改文件内容的时间

    -mtime

    最后修改文件属性的时间

    下面以 -mtime 参数举例:

    • -mtime n:n 为数字,表示为在 n 天之前的“一天之内”修改过的文件
    • -mtime +n:列出在 n 天之前(不包含 n 天本身)被修改过的文件
    • -mtime -n:列出在 n 天之内(包含 n 天本身)被修改过的文件
    • -newer file:file 为一个已存在的文件,列出比 file 还要新的文件名

    列出 home 目录中,当天(24 小时之内)有改动的文件:

    $ find ~ -mtime 0

    列出用户家目录下比 Code 文件夹新的文件:

    $ find ~ -newer /home/shiyanlou/Code

     

     

    •  

    使用 zip 打包文件夹:

    $ cd /home/shiyanlou $ zip -r -q -o shiyanlou.zip /home/shiyanlou/Desktop $ du -h shiyanlou.zip $ file shiyanlou.zip

    上面命令将目录 /home/shiyanlou/Desktop 打包成一个文件,并查看了打包后文件的大小和类型。第一行命令中,-r 参数表示递归打包包含子目录的全部内容,-q 参数表示为安静模式,即不向屏幕输出信息,-o,表示输出文件,需在其后紧跟打包输出文件名。后面使用 du 命令查看打包后文件的大小(后面会具体说明该命令)。

    • 设置压缩级别为 9 和 1(9 最大,1 最小),重新打包:

    $ zip -r -9 -q -o shiyanlou_9.zip /home/shiyanlou/Desktop -x ~/*.zip $ zip -r -1 -q -o shiyanlou_1.zip /home/shiyanlou/Desktop -x ~/*.zip

    这里添加了一个参数用于设置压缩级别 -[1-9],1 表示最快压缩但体积大,9 表示体积最小但耗时最久。最后那个 -x 是为了排除我们上一次创建的 zip 文件,否则又会被打包进这一次的压缩文件中,注意:这里只能使用绝对路径,否则不起作用。

    我们再用 du 命令分别查看默认压缩级别、最低、最高压缩级别及未压缩的文件的大小:

    $ du -h -d 0 *.zip ~ | sort

    通过 man 手册可知:

    • h, --human-readable(顾名思义,你可以试试不加的情况)
    • d, --max-depth(所查看文件的深度)

    这样一目了然,理论上来说默认压缩级别应该是最高的,但是由于文件不大,这里的差异不明显(几乎看不出差别),不过你在环境中操作之后看到的压缩文件大小可能跟图上的有些不同,因为系统在使用过程中,会随时生成一些缓存文件在当前用户的家目录中,这对于我们学习命令使用来说,是无关紧要的,可以忽略这些不同。

    • 创建加密 zip 包

    使用 -e 参数可以创建加密压缩包:

    $ zip -r -e -o shiyanlou_encryption.zip /home/shiyanlou/Desktop

    注意: 关于 zip 命令,因为 Windows 系统与 Linux/Unix 在文本文件格式上的一些兼容问题,比如换行符(为不可见字符),在 Windows 为 CR+LF(Carriage-Return+Line-Feed:回车加换行),而在 Linux/Unix 上为 LF(换行),所以如果在不加处理的情况下,在 Linux 上编辑的文本,在 Windows 系统上打开可能看起来是没有换行的。如果你想让你在 Linux 创建的 zip 压缩文件在 Windows 上解压后没有任何问题,那么你还需要对命令做一些修改:

    $ zip -r -l -o shiyanlou.zip /home/shiyanlou/Desktop

    需要加上 -l 参数将 LF 转换为 CR+LF 来达到以上目的。

     

    3.2 使用 unzip 命令解压缩 zip 文件

    将 shiyanlou.zip 解压到当前目录:

    $ unzip shiyanlou.zip

    使用安静模式,将文件解压到指定目录:

    $ unzip -q shiyanlou.zip -d ziptest

    上述指定目录不存在,将会自动创建。如果你不想解压只想查看压缩包的内容你可以使用 -l 参数:

    $ unzip -l shiyanlou.zip

    注意: 使用 unzip 解压文件时我们同样应该注意兼容问题,不过这里我们关心的不再是上面的问题,而是中文编码的问题,通常 Windows 系统上面创建的压缩文件,如果有有包含中文的文档或以中文作为文件名的文件时默认会采用 GBK 或其它编码,而 Linux 上面默认使用的是 UTF-8 编码,如果不加任何处理,直接解压的话可能会出现中文乱码的问题(有时候它会自动帮你处理),为了解决这个问题,我们可以在解压时指定编码类型。

    使用 -O(英文字母,大写 o)参数指定编码类型:

    unzip -O GBK 中文压缩文件.zip

     

     

     

    3.3 tar 打包工具

    在 Linux 上面更常用的是 tar 工具,tar 原本只是一个打包工具,只是同时还是实现了对 7z、gzip、xz、bzip2 等工具的支持,这些压缩工具本身只能实现对文件或目录(单独压缩目录中的文件)的压缩,没有实现对文件的打包压缩,所以我们也无需再单独去学习其他几个工具,tar 的解压和压缩都是同一个命令,只需参数不同,使用比较方便。

    下面先掌握 tar 命令一些基本的使用方式,即不进行压缩只是进行打包(创建归档文件)和解包的操作。

    • 创建一个 tar 包:

    $ cd /home/shiyanlou $ tar -cf shiyanlou.tar /home/shiyanlou/Desktop

    上面命令中,-c 表示创建一个 tar 包文件,-f 用于指定创建的文件名,注意文件名必须紧跟在 -f 参数之后,比如不能写成 tar -fc shiyanlou.tar,可以写成 tar -f shiyanlou.tar -c ~。你还可以加上 -v 参数以可视的的方式输出打包的文件。上面会自动去掉表示绝对路径的 /,你也可以使用 -P 保留绝对路径符。

    • 解包一个文件(-x 参数)到指定路径的已存在目录(-C 参数):

    $ mkdir tardir $ tar -xf shiyanlou.tar -C tardir

    • 只查看不解包文件 -t 参数:

    $ tar -tf shiyanlou.tar

    • 保留文件属性和跟随链接(符号链接或软链接),有时候我们使用 tar 备份文件当你在其他主机还原时希望保留文件的属性(-p 参数)和备份链接指向的源文件而不是链接本身(-h 参数):

    $ tar -cphf etc.tar /etc

    对于创建不同的压缩格式的文件,对于 tar 来说是相当简单的,需要的只是换一个参数,这里我们就以使用 gzip 工具创建 *.tar.gz 文件为例来说明。

    • 我们只需要在创建 tar 文件的基础上添加 -z 参数,使用 gzip 来压缩文件:

    $ tar -czf shiyanlou.tar.gz /home/shiyanlou/Desktop

    • 解压 *.tar.gz 文件:

    $ tar -xzf shiyanlou.tar.gz

    现在我们要使用其它的压缩工具创建或解压相应文件只需要更改一个参数即可:

    压缩文件格式

    参数

    *.tar.gz

    -z

    *.tar.xz

    -J

    *tar.bz2

    -j

    tar 命令的参数很多,不过常用的就是上述这些,需要了解更多你可以查看 man 手册获取帮助。

     

     

    3.3 tar 打包工具

    在 Linux 上面更常用的是 tar 工具,tar 原本只是一个打包工具,只是同时还是实现了对 7z、gzip、xz、bzip2 等工具的支持,这些压缩工具本身只能实现对文件或目录(单独压缩目录中的文件)的压缩,没有实现对文件的打包压缩,所以我们也无需再单独去学习其他几个工具,tar 的解压和压缩都是同一个命令,只需参数不同,使用比较方便。

    下面先掌握 tar 命令一些基本的使用方式,即不进行压缩只是进行打包(创建归档文件)和解包的操作。

    • 创建一个 tar 包:

    $ cd /home/shiyanlou $ tar -cf shiyanlou.tar /home/shiyanlou/Desktop

    上面命令中,-c 表示创建一个 tar 包文件,-f 用于指定创建的文件名,注意文件名必须紧跟在 -f 参数之后,比如不能写成 tar -fc shiyanlou.tar,可以写成 tar -f shiyanlou.tar -c ~。你还可以加上 -v 参数以可视的的方式输出打包的文件。上面会自动去掉表示绝对路径的 /,你也可以使用 -P 保留绝对路径符。

    • 解包一个文件(-x 参数)到指定路径的已存在目录(-C 参数):

    $ mkdir tardir $ tar -xf shiyanlou.tar -C tardir

    • 只查看不解包文件 -t 参数:

    $ tar -tf shiyanlou.tar

    • 保留文件属性和跟随链接(符号链接或软链接),有时候我们使用 tar 备份文件当你在其他主机还原时希望保留文件的属性(-p 参数)和备份链接指向的源文件而不是链接本身(-h 参数):

    $ tar -cphf etc.tar /etc

    对于创建不同的压缩格式的文件,对于 tar 来说是相当简单的,需要的只是换一个参数,这里我们就以使用 gzip 工具创建 *.tar.gz 文件为例来说明。

    • 我们只需要在创建 tar 文件的基础上添加 -z 参数,使用 gzip 来压缩文件:

    $ tar -czf shiyanlou.tar.gz /home/shiyanlou/Desktop

    • 解压 *.tar.gz 文件:

    $ tar -xzf shiyanlou.tar.gz

    现在我们要使用其它的压缩工具创建或解压相应文件只需要更改一个参数即可:

    压缩文件格式

    参数

    *.tar.gz

    -z

    *.tar.xz

    -J

    *tar.bz2

    -j

    tar 命令的参数很多,不过常用的就是上述这些,需要了解更多你可以查看 man 手册获取帮助。

     

     

     

     

    说了这么多,其实平常使用的参数并没有那么复杂,只需要记住常用的组合就可以了。 常用命令:

    • zip:
    • 打包 :zip something.zip something (目录请加 -r 参数)
    • 解包:unzip something.zip
    • 指定路径:-d 参数
    • tar:
    • 打包:tar -cf something.tar something
    • 解包:tar -xf something.tar
    • 指定路径:-C 参数

     

    二、基本操作

    2.1 查看磁盘和目录的容量

    使用 df 命令查看磁盘的容量

    $ df

    在实验楼的环境中你将看到如下的输出内容: 

    但在实际的物理主机上会更像这样:

    物理主机上的 /dev/sda2 是对应着主机硬盘的分区,后面的数字表示分区号,数字前面的字母 a 表示第几块硬盘(也可能是可移动磁盘),你如果主机上有多块硬盘则可能还会出现 /dev/sdb,/dev/sdc 这些磁盘设备都会在 /dev 目录下以文件的存在形式。

    接着你还会看到"1k-块"这个陌生的东西,它表示以磁盘块大小的方式显示容量,后面为相应的以块大小表示的已用和可用容量,在你了解 Linux 的文件系统之前这个就先不管吧,我们以一种你应该看得懂的方式展示:

    $ df -h

    现在你就可以使用命令查看你主机磁盘的使用情况了。至于挂载点如果你还记得前面第 4 节介绍 Linux 目录树结构的内容,那么你就应该能很好的理解挂载的概念,这里就不再赘述。

    使用 du 命令查看目录的容量

    这个命令前面其实已经用了很多次了:

    # 默认同样以 块 的大小展示 $ du # 加上`-h`参数,以更易读的方式展示 $ du -h

    -d参数指定查看目录的深度

    # 只查看1级目录的信息 $ du -h -d 0 ~ # 查看2级 $ du -h -d 1 ~

    常用参数

    du -h #同--human-readable 以K,M,G为单位,提高信息的可读性。 du -a #同--all 显示目录中所有文件的大小。 du -s #同--summarize 仅显示总计,只列出最后加总的值。 来自: http://man.linuxde.net/du

    du(estimate file space usage)命令与df(report file system disk space usage)命令只有一字之差,希望大家注意不要弄混淆了,你可以像我这样从man手册中获取命令的完整描述,记全称就不会搞混了。

     

     

    3.1 创建虚拟磁盘

    dd 命令简介(部分说明来自dd (Unix) wiki

    dd命令用于转换和复制文件,不过它的复制不同于cp。之前提到过关于 Linux 的很重要的一点,一切即文件,在 Linux 上,硬件的设备驱动(如硬盘)和特殊设备文件(如/dev/zero和/dev/random)都像普通文件一样,只是在各自的驱动程序中实现了对应的功能,dd 也可以读取文件或写入这些文件。这样,dd也可以用在备份硬件的引导扇区、获取一定数量的随机数据或者空数据等任务中。dd程序也可以在复制时处理数据,例如转换字节序、或在 ASCII 与 EBCDIC 编码间互换。

    dd的命令行语句与其他的 Linux 程序不同,因为它的命令行选项格式为选项=值,而不是更标准的--选项 值或-选项=值。dd默认从标准输入中读取,并写入到标准输出中,但可以用选项if(input file,输入文件)和of(output file,输出文件)改变。

    我们先来试试用dd命令从标准输入读入用户的输入到标准输出或者一个文件中:

    # 输出到文件 $ dd of=test bs=10 count=1 # 或者 dd if=/dev/stdin of=test bs=10 count=1 # 输出到标准输出 $ dd if=/dev/stdin of=/dev/stdout bs=10 count=1 # 注 在打完了这个命令后,继续在终端打字,作为你的输入

    上述命令从标准输入设备读入用户输入(缺省值,所以可省略)然后输出到 test 文件,bs(block size)用于指定块大小(缺省单位为 Byte,也可为其指定如'K','M','G'等单位),count用于指定块数量。如上图所示,我指定只读取总共 10 个字节的数据,当我输入了“hello shiyanlou”之后加上空格回车总共 16 个字节(一个英文字符占一个字节)内容,显然超过了设定大小。使用du和cat命令看到的写入完成文件实际内容确实只有 10 个字节(那个黑底百分号表示这里没有换行符),而其他的多余输入将被截取并保留在标准输入。

    前面说到dd在拷贝的同时还可以实现数据转换,那下面就举一个简单的例子:将输出的英文字符转换为大写再写入文件:

    $ dd if=/dev/stdin of=test bs=10 count=1 conv=ucase

    你可以在man文档中查看其他所有转换参数。

    使用 dd 命令创建虚拟镜像文件

    通过上面一小节,你应该掌握了dd的基本使用,下面就来使用dd命令来完成创建虚拟磁盘的第一步。

    从/dev/zero设备创建一个容量为 256M 的空文件:

    $ dd if=/dev/zero of=virtual.img bs=1M count=256 $ du -h virtual.img

    然后我们要将这个文件格式化(写入文件系统),这里我们要学到一个(准确的说是一组)新的命令来完成这个需求。

    使用 mkfs 命令格式化磁盘(我们这里是自己创建的虚拟磁盘镜像)

    你可以在命令行输入 sudo mkfs 然后按下Tab键,你可以看到很多个以 mkfs 为前缀的命令,这些不同的后缀其实就是表示着不同的文件系统,可以用 mkfs 格式化成的文件系统。

    我们可以简单的使用下面的命令来将我们的虚拟磁盘镜像格式化为ext4文件系统:

    $ sudo mkfs.ext4 virtual.img

    可以看到实际 mkfs.ext4 是使用 mke2fs 来完成格式化工作的。mke2fs 的参数很多,不过我们也不会经常格式化磁盘来玩,所以就掌握这基本用法吧,等你有特殊需求时,再查看 man 文档解决。

    更多关于文件系统的知识,请查看wiki: 文件系统 ext3,ext4

    如果你想知道 Linux 支持哪些文件系统你可以输入ls -l /lib/modules/$(uname -r)/kernel/fs(我们的环境中无法查看)查看。

    使用 mount 命令挂载磁盘到目录树

    用户在 Linux/UNIX 的机器上打开一个文件以前,包含该文件的文件系统必须先进行挂载的动作,此时用户要对该文件系统执行 mount 的指令以进行挂载。该指令通常是使用在 USB 或其他可移除存储设备上,而根目录则需要始终保持挂载的状态。又因为 Linux/UNIX 文件系统可以对应一个文件而不一定要是硬件设备,所以可以挂载一个包含文件系统的文件到目录树。

    Linux/UNIX 命令行的 mount 指令是告诉操作系统,对应的文件系统已经准备好,可以使用了,而该文件系统会对应到一个特定的点(称为挂载点)。挂载好的文件、目录、设备以及特殊文件即可提供用户使用。

    我们先来使用mount来查看下主机已经挂载的文件系统:

    $ sudo mount

    输出的结果中每一行表示一个设备或虚拟设备,每一行最前面是设备名,然后是 on 后面是挂载点,type 后面表示文件系统类型,再后面是挂载选项(比如可以在挂载时设定以只读方式挂载等等)。

    那么我们如何挂载真正的磁盘到目录树呢,mount命令的一般格式如下:

    mount [options] [source] [directory]

    一些常用操作:

    mount [-o [操作选项]] [-t 文件系统类型] [-w|--rw|--ro] [文件系统源] [挂载点]

    注意:由于实验楼的环境限制,mount 命令挂载及 umount 卸载都无法进行操作,可以简单了解这些步骤。

    现在直接来挂载我们创建的虚拟磁盘镜像到/mnt目录:

    $ mount -o loop -t ext4 virtual.img /mnt # 也可以省略挂载类型,很多时候 mount 会自动识别 # 以只读方式挂载 $ mount -o loop --ro virtual.img /mnt # 或者mount -o loop,ro virtual.img /mnt

    使用 umount 命令卸载已挂载磁盘

    注意:由于实验楼的环境限制,mount 命令挂载及 umount 卸载都无法进行操作,可以简单了解这些步骤。

    # 命令格式 sudo umount 已挂载设备名或者挂载点,如: $ sudo umount /mnt

    不过遗憾的是,由于我们环境的问题(环境中使用的 Linux 内核在编译时没有添加对 Loop device的支持),所以你将无法挂载成功:

    另外关于 loop 设备,你可能会有诸多疑问,那么请看下面来自维基百科/dev/loop的说明:

    在类 UNIX 系统中,/dev/loop(或称vnd (vnode disk)、lofi(循环文件接口))是一种伪设备,这种设备使得文件可以如同块设备一般被访问。

    在使用之前,循环设备必须与现存文件系统上的文件相关联。这种关联将提供给用户一个应用程序接口,接口将允许文件视为块特殊文件(参见设备文件系统)使用。因此,如果文件中包含一个完整的文件系统,那么这个文件就能如同磁盘设备一般被挂载。

    这种设备文件经常被用于光盘或是磁盘镜像。通过循环挂载来挂载包含文件系统的文件,便使处在这个文件系统中的文件得以被访问。这些文件将出现在挂载点目录。如果挂载目录中本身有文件,这些文件在挂载后将被禁止使用。

    使用 fdisk 为磁盘分区(关于分区的一些概念不清楚的用户请参看主引导记录

    注意:由于实验楼的环境限制,fdisk 命令无法进行操作,可以简单了解这些步骤。

    同样因为环境中没有物理磁盘,也无法创建虚拟磁盘的原因我们就无法实验练习使用该命令了,下面我将以我的物理主机为例讲解如何为磁盘分区。

    # 查看硬盘分区表信息 $ sudo fdisk -l

    输出结果中开头显示了我主机上的磁盘的一些信息,包括容量扇区数,扇区大小,I/O 大小等信息。

    我们重点看一下中间的分区信息,/dev/sda1,/dev/sda2 为主分区分别安装了 Windows 和 Linux 操作系统,/dev/sda3 为交换分区(可以理解为虚拟内存),/dev/sda4 为扩展分区其中包含 /dev/sda5,/dev/sda6,/dev/sda7,/dev/sda8 四个逻辑分区,因为主机上有几个分区之间有空隙,没有对齐边界扇区,所以分区之间不是完全连续的。

    # 进入磁盘分区模式 $ sudo fdisk virtual.img

    在进行操作前我们首先应先规划好我们的分区方案,这里我将在使用 128M(可用 127M 左右)的虚拟磁盘镜像创建一个 30M 的主分区剩余部分为扩展分区包含 2 个大约 45M 的逻辑分区。

    操作完成后输入p查看结果如下:

    最后不要忘记输入w写入分区表。

    使用 losetup 命令建立镜像与回环设备的关联

    注意:由于实验楼的环境限制,losetup 命令无法进行操作,可以简单了解这些步骤。

    同样因为环境原因中没有物理磁盘,也没有 loop device 的原因我们就无法实验练习使用该命令了,下面我将以我的物理主机为例讲解。

    $ sudo losetup /dev/loop0 virtual.img # 如果提示设备忙你也可以使用其它的回环设备,"ls /dev/loop*"参看所有回环设备 # 解除设备关联 $ sudo losetup -d /dev/loop0

    然后再使用mkfs格式化各分区(前面我们是格式化整个虚拟磁盘镜像文件或磁盘),不过格式化之前,我们还要为各分区建立虚拟设备的映射,用到kpartx工具,需要先安装:

    $ sudo apt-get install kpartx $ sudo kpartx -av /dev/loop0 # 取消映射 $ sudo kpartx -dv /dev/loop0

    接着再是格式化,我们将其全部格式化为 ext4:

    $ sudo mkfs.ext4 -q /dev/mapper/loop0p1 $ sudo mkfs.ext4 -q /dev/mapper/loop0p5 $ sudo mkfs.ext4 -q /dev/mapper/loop0p6

    格式化完成后在/media目录下新建四个空目录用于挂载虚拟磁盘:

    $ mkdir -p /media/virtualdisk_{1..3}

    # 挂载磁盘分区 $ sudo mount /dev/mapper/loop0p1 /media/virtualdisk_1 $ sudo mount /dev/mapper/loop0p5 /media/virtualdisk_2 $ sudo mount /dev/mapper/loop0p6 /media/virtualdisk_3 # 卸载磁盘分区 $ sudo umount /dev/mapper/loop0p1 $ sudo umount /dev/mapper/loop0p5 $ sudo umount /dev/mapper/loop0p6

    然后:

    $ df -h

    轻松一下

    cowsay命令,可以让你在终端里以一种动物说话的形式打印出一段话。

    # 更新软件包 $ sudo apt update # 安装 $ sudo apt install -y cowsay # 默认是一只牛 $ cowsay hello shiyanlou # 加上'-l'参数打印所有支持的动物(其实不只是动物)种类 $ cowsay -l # 使用'-f'参数选择动物种类 $ cowsay -f elephant hello shiyanlou # 安装 fortune-zh $ sudo apt-get install fortune-zh # 此外它还可以结合我们之前的作业讲过的 fortune 命令一起使用 $ /usr/games/fortune | cowsay -f daemon

     

     

     

    什么是内建命令,什么是外部命令呢?这和帮助命令又有什么关系呢?

    因为有一些查看帮助的工具在内建命令与外建命令上是有区别对待的。

    内建命令实际上是 shell 程序的一部分,其中包含的是一些比较简单的 Linux 系统命令,这些命令是写在bash源码的builtins里面的,由 shell 程序识别并在 shell 程序内部完成运行,通常在 Linux 系统加载运行时 shell 就被加载并驻留在系统内存中。而且解析内部命令 shell 不需要创建子进程,因此其执行速度比外部命令快。比如:history、cd、exit 等等。

    外部命令是 Linux 系统中的实用程序部分,因为实用程序的功能通常都比较强大,所以其包含的程序量也会很大,在系统加载时并不随系统一起被加载到内存中,而是在需要时才将其调入内存。虽然其不包含在 shell 中,但是其命令执行过程是由 shell 程序控制的。外部命令是在 Bash 之外额外安装的,通常放在/bin,/usr/bin,/sbin,/usr/sbin等等。比如:ls、vi等。

    简单来说就是:一个是天生自带的天赋技能,一个是后天得来的附加技能。我们可以使用 type 命令来区分命令是内建的还是外部的。例如这两个得出的结果是不同的

    type exit type vim

    得到的是两种结果,若是对ls你还能得到第三种结果

    #得到这样的结果说明是内建命令,正如上文所说内建命令都是在 bash 源码中的 builtins 的.def中 xxx is a shell builtin #得到这样的结果说明是外部命令,正如上文所说,外部命令在/usr/bin or /usr/sbin等等中 xxx is /usr/bin/xxx #若是得到alias的结果,说明该指令为命令别名所设定的名称; xxx is an alias for xx --xxx

     

     

    1. help 命令

    本实验环境是 zsh,而 zsh 中内置并没有 help 命令,我们可以进入 bash 中,在 bash 中内置有该命令

    bash

    做好了以上的准备,我们就可以愉快的使用 help 命令了,我们可以尝试下这个命令:

    help ls

    得到的结果如图所示,为什么是这样的结果?

    因为 help 命令是用于显示 shell 内建命令的简要帮助信息。帮助信息中显示有该命令的简要说明以及一些参数的使用以及说明,一定记住 help 命令只能用于显示内建命令的帮助信息,不然就会得到你刚刚得到的结果。

    那如果是外部命令怎么办,不能就这么抛弃它呀。其实外部命令基本上都有一个参数--help,这样就可以得到相应的帮助,看到你想要的东西了。试试下面这个命令是不是能看到你想要的东西了。

    ls --help

     

     

    2. man 命令

    你可以尝试下这个命令

    man ls

    得到的内容比用 help 更多更详细,而且 man 没有内建与外部命令的区分,因为 man 工具是显示系统手册页中的内容,也就是一本电子版的字典,这些内容大多数都是对命令的解释信息,还有一些相关的描述。通过查看系统文档中的 man 也可以得到程序的更多相关信息和 Linux 的更多特性。

    是不是好用许多,当然也不代表 help 就没有存在的必要,当你非常紧急只是忘记该用哪个参数的时候,help 这种显示简单扼要的信息就特别实用,若是不太紧急的时候就可以用 man 这种详细描述的查询方式

    在尝试上面这个命令时我们会发现最左上角显示“ LS (1)”,在这里,“ LS ”表示手册名称,而“(1)”表示该手册位于第一章节。这个章节又是什么?在 man 手册中一共有这么几个章节

    章节数

    说明

    1

    Standard commands (标准命令)

    2

    System calls (系统调用)

    3

    Library functions (库函数)

    4

    Special devices (设备说明)

    5

    File formats (文件格式)

    6

    Games and toys (游戏和娱乐)

    7

    Miscellaneous (杂项)

    8

    Administrative Commands (管理员命令)

    9

    其他(Linux特定的), 用来存放内核例行程序的文档。

    打开手册之后我们可以通过 pgup 与 pgdn 或者上下键来上下翻看,可以按 q 退出当前页面

     

     

    3. info 命令

    要是你觉得man显示的信息都还不够,满足不了你的需求,那试试 info 命令,注意实验楼的环境中没有安装 info,可以手动安装,安装和操作步骤如下:

    # 安装 info $ sudo apt-get update $ sudo apt-get install info # 查看 ls 命令的 info $ info ls

    得到的信息是不是比 man 还要多了,info 来自自由软件基金会的 GNU 项目,是 GNU 的超文本帮助系统,能够更完整的显示出 GNU 信息。所以得到的信息当然更多

    man 和 info 就像两个集合,它们有一个交集部分,但与 man 相比,info 工具可显示更完整的 GNU 工具信息。若 man 页包含的某个工具的概要信息在 info 中也有介绍,那么 man 页中会有“请参考 info 页更详细内容”的字样。

     

    2.1 crontab 简介

    crontab 命令从输入设备读取指令,并将其存放于 crontab 文件中,以供之后读取和执行。通常,crontab 储存的指令被守护进程激活,crond 为其守护进程,crond 常常在后台运行,每一分钟会检查一次是否有预定的作业需要执行。

    通过 crontab 命令,我们可以在固定的间隔时间执行指定的系统指令或 shell script 脚本。时间间隔的单位可以是分钟、小时、日、月、周的任意组合。

    这里我们看一看crontab 的格式

    # Example of job definition: # .---------------- minute (0 - 59) # | .------------- hour (0 - 23) # | | .---------- day of month (1 - 31) # | | | .------- month (1 - 12) OR jan,feb,mar,apr ... # | | | | .---- day of week (0 - 6) (Sunday=0 or 7) OR sun,mon,tue,wed,thu,fri,sat # | | | | | # * * * * * user-name command to be executed

     

     

     

     

    2.2 crontab 准备

    crontab 在本实验环境中需要做一些特殊的准备,首先我们会启动 rsyslog,以便我们可以通过日志中的信息来了解我们的任务是否真正的被执行了(在本实验环境中需要手动启动,而在自己本地中 Ubuntu 会默认自行启动不需要手动启动)

    sudo apt-get install -y rsyslog sudo service rsyslog start

    在本实验环境中 crontab 也是不被默认启动的,同时不能在后台由 upstart 来管理,所以需要我们来启动它:

    sudo cron -f &

     

     

     

    2.2 crontab 准备

    crontab 在本实验环境中需要做一些特殊的准备,首先我们会启动 rsyslog,以便我们可以通过日志中的信息来了解我们的任务是否真正的被执行了(在本实验环境中需要手动启动,而在自己本地中 Ubuntu 会默认自行启动不需要手动启动)

    sudo apt-get install -y rsyslog sudo service rsyslog start

    在本实验环境中 crontab 也是不被默认启动的,同时不能在后台由 upstart 来管理,所以需要我们来启动它:

    sudo cron -f &

     

     

    2.3 crontab 使用

    下面将开始 crontab 的使用了,我们通过下面一个命令来添加一个计划任务

    crontab -e

    第一次启动会出现这样一个画面,这是让我们选择编辑的工具,选择第二个基本的 vim 就可以了

    而选择后我们会进入这样一个画面,这就是添加计划的地方了,与一般的配置文档相同,以#号开头的都是注释,通过文档的最后一排我们可以猜猜 crontab 的格式是什么样的呢?

    详细的格式可以使用上一节中学习到的 man 命令查看:

    man crontab

    在了解命令格式之后,我们通过这样的一个例子来完成一个任务的添加,在文档的最后一排加上这样一排命令,该任务是每分钟我们会在/home/shiyanlou目录下创建一个以当前的年月日时分秒为名字的空白文件

    */1 * * * * touch /home/shiyanlou/$(date +\%Y\%m\%d\%H\%M\%S)

    注意 “ % ” 在 crontab 文件中,有结束命令行、换行、重定向的作用,前面加 ” \ ” 符号转义,否则,“ % ” 符号将执行其结束命令行或者换行的作用,并且其后的内容会被做为标准输入发送给前面的命令。

    添加成功后我们会得到最后一排 installing new crontab 的一个提示

    当然我们也可以通过这样的一个指令来查看我们添加了哪些任务

    crontab -l

    通过图中的显示,我们也可以看出,我们正确的保存并且添加成功了该任务的

    虽然我们添加了任务,但是如果 cron 的守护进程并没有启动,它根本都不会监测到有任务,当然也就不会帮我们执行,我们可以通过以下2种方式来确定我们的 cron 是否成功的在后台启动,默默的帮我们做事,若是没有就得执行上文准备中的第二步了

    ps aux | grep cron or pgrep cron

    通过下图可以看到任务在创建之后,执行了几次,生成了一些文件,且每分钟生成一个:

    我们通过这样一个命令可以查看到执行任务命令之后在日志中的信息反馈

    sudo tail -f /var/log/syslog

    从图中我们可以看到分别在13点28、29、30分的01秒为我们在 shiyanlou 用户的家目录下创建了文件

    当我们并不需要这个任务的时候我们可以使用这么一个命令去删除任务

    crontab -r

    通过图中我们可以看出我们删除之后再查看任务列表,系统已经显示该用户并没有任务哦

     

     

     

    三、crontab 的深入

    每个用户使用 crontab -e 添加计划任务,都会在 /var/spool/cron/crontabs 中添加一个该用户自己的任务文档,这样目的是为了隔离。

    如果是系统级别的定时任务,应该如何处理?只需要以 sudo 权限编辑 /etc/crontab 文件就可以。

    cron 服务监测时间最小单位是分钟,所以 cron 会每分钟去读取一次 /etc/crontab 与 /var/spool/cron/crontabs 里面的內容。

    在 /etc 目录下,cron 相关的目录有下面几个:

    每个目录的作用:

    1. /etc/cron.daily,目录下的脚本会每天执行一次,在每天的6点25分时运行;
    2. /etc/cron.hourly,目录下的脚本会每个小时执行一次,在每小时的17分钟时运行;
    3. /etc/cron.monthly,目录下的脚本会每月执行一次,在每月1号的6点52分时运行;
    4. /etc/cron.weekly,目录下的脚本会每周执行一次,在每周第七天的6点47分时运行;

    系统默认执行时间可以根据需求进行修改。

     

     

    挑战:备份日志

    小明是一个服务器管理员,他需要每天备份论坛数据(这里我们用 alternatives.log 日志替代),备份当天的日志并删除之前的日志。而且备份之后文件名是 年-月-日 的格式。alternatives.log 在 /var/log/ 下面。

    目标

    1. 为 shiyanlou 用户添加计划任务
    2. 每天凌晨 3 点的时候定时备份 alternatives.log 到 /home/shiyanlou/tmp/ 目录
    3. 命名格式为 年-月-日,比如今天是2017年4月1日,那么文件名为 2017-04-01

    提示语

    • date
    • crontab
    • cp 命令
    • 用一条命令写在 crontab 里面即可,不用写脚本

    注意 crontab 的计划任务设定的用户:

    $ crontab -e 表示为当前用户添加计划任务 $ sudo crontab -e 表示为root用户添加计划任务

    注意使用下面的命令启动 crontab:

    $ sudo cron -f &

    参考答案

    注意:请务必自己独立思考解决问题之后再对照参考答案,一开始直接看参考答案收获不大。

    sudo cron -f & crontab -e 添加 0 3 * * * sudo rm /home/shiyanlou/tmp/* 0 3 * * * sudo cp /var/log/alternatives.log /home/shiyanlou/tmp/$(date +\%Y-\%m-\%d)

     

     

     

    2.1 顺序执行多条命令

    当我们需要使用apt-get安装一个软件,然后安装完成后立即运行安装的软件(或命令工具),又恰巧你的主机才更换的软件源还没有更新软件列表(比如之前我们的环境中,每次重新开始实验就得sudo apt-get update,现在已经没有这个问题了),那么你可能会有如下一系列操作:

    $ sudo apt-get update # 等待——————————然后输入下面的命令 $ sudo apt-get install some-tool //这里some-tool是指具体的软件包,例如:banner # 等待——————————然后输入下面的命令 $ some-tool

    这时你可能就会想:要是我可以一次性输入完,让它自己去依次执行各命令就好了,这就是我们这一小节要解决的问题。

    简单的顺序执行你可以使用;来完成,比如上述操作你可以:

    $ sudo apt-get update;sudo apt-get install some-tool;some-tool # 让它自己运行

     

     

    2.2 有选择的执行命令

    关于上面的操作,不知你有没有思考过一个问题,如果我们在让它自动顺序执行命令时,前面的命令执行不成功,而后面的命令又依赖于上一条命令的结果,那么就会造成花了时间,最终却得到一个错误的结果,而且有时候直观的看你还无法判断结果是否正确。那么我们需要能够有选择性的来执行命令,比如上一条命令执行成功才继续下一条,或者不成功又该做出其它什么处理,比如我们使用which来查找是否安装某个命令,如果找到就执行该命令,否则什么也不做(虽然这个操作没有什么实际意义,但可帮你更好的理解一些概念):

    $ which cowsay>/dev/null && cowsay -f head-in ohch~

    你如果没有安装cowsay,你可以先执行一次上述命令,你会发现什么也没发生,你再安装好之后你再执行一次上述命令,你也会发现一些惊喜。

    上面的&&就是用来实现选择性执行的,它表示如果前面的命令执行结果(不是表示终端输出的内容,而是表示命令执行状态的结果)返回0则执行后面的,否则不执行,你可以从$?环境变量获取上一次命令的返回结果:

    学习过 C 语言的用户应该知道在 C 语言里面&&表示逻辑与,而且还有一个||表示逻辑或,同样 Shell 也有一个||,它们的区别就在于,shell中的这两个符号除了也可用于表示逻辑与和或之外,就是可以实现这里的命令执行顺序的简单控制。||在这里就是与&&相反的控制效果,当上一条命令执行结果为≠0($?≠0)时则执行它后面的命令:

    $ which cowsay>/dev/null || echo "cowsay has not been install, please run 'sudo apt-get install cowsay' to install"

    除了上述基本的使用之外,我们还可以结合着&&和||来实现一些操作,比如:

    $ which cowsay>/dev/null && echo "exist" || echo "not exist"

    我画个流程图来解释一下上面的流程:

     

     

     

    三、管道

    管道是什么?管道是一种通信机制,通常用于进程间的通信(也可通过socket进行网络通信),它表现出来的形式就是将前面每一个进程的输出(stdout)直接作为下一个进程的输入(stdin)。

    管道又分为匿名管道和具名管道(这里将不会讨论在源程序中使用系统调用创建并使用管道的情况,它与命令行的管道在内核中实际都是采用相同的机制)。我们在使用一些过滤程序时经常会用到的就是匿名管道,在命令行中由|分隔符表示,|在前面的内容中我们已经多次使用到了。具名管道简单的说就是有名字的管道,通常只会在源程序中用到具名管道。下面我们就将通过一些常用的可以使用管道的"过滤程序"来帮助你熟练管道的使用。

     

    3.1 试用

    先试用一下管道,比如查看/etc目录下有哪些文件和目录,使用ls命令来查看:

    $ ls -al /etc

    有太多内容,屏幕不能完全显示,这时候可以使用滚动条或快捷键滚动窗口来查看。不过这时候可以使用管道:

    $ ls -al /etc | less

    通过管道将前一个命令(ls)的输出作为下一个命令(less)的输入,然后就可以一行一行地看。

     

     

    3.2 cut 命令,打印每一行的某一字段

    打印/etc/passwd文件中以:为分隔符的第1个字段和第6个字段分别表示用户名和其家目录:

    $ cut /etc/passwd -d ':' -f 1,6

    打印/etc/passwd文件中每一行的前N个字符:

    # 前五个(包含第五个) $ cut /etc/passwd -c -5 # 前五个之后的(包含第五个) $ cut /etc/passwd -c 5- # 第五个 $ cut /etc/passwd -c 5 # 2到5之间的(包含第五个) $ cut /etc/passwd -c 2-5

     

     

     

    3.3 grep 命令,在文本中或 stdin 中查找匹配字符串

    grep命令是很强大的,也是相当常用的一个命令,它结合正则表达式可以实现很复杂却很高效的匹配和查找,不过在学习正则表达式之前,这里介绍它简单的使用,而关于正则表达式后面将会有单独一小节介绍到时会再继续学习grep命令和其他一些命令。

    grep命令的一般形式为:

    grep [命令选项]... 用于匹配的表达式 [文件]...

    还是先体验一下,我们搜索/home/shiyanlou目录下所有包含"shiyanlou"的文本文件,并显示出现在文本中的行号:

    $ grep -rnI "shiyanlou" ~

    -r 参数表示递归搜索子目录中的文件,-n表示打印匹配项行号,-I表示忽略二进制文件。这个操作实际没有多大意义,但可以感受到grep命令的强大与实用。

    当然也可以在匹配字段中使用正则表达式,下面简单的演示:

    # 查看环境变量中以"yanlou"结尾的字符串 $ export | grep ".*yanlou$"

    其中$就表示一行的末尾。

     

     

    3.4 wc 命令,简单小巧的计数工具

    wc 命令用于统计并输出一个文件中行、单词和字节的数目,比如输出/etc/passwd文件的统计信息:

    $ wc /etc/passwd

    分别只输出行数、单词数、字节数、字符数和输入文本中最长一行的字节数:

    # 行数 $ wc -l /etc/passwd # 单词数 $ wc -w /etc/passwd # 字节数 $ wc -c /etc/passwd # 字符数 $ wc -m /etc/passwd # 最长行字节数 $ wc -L /etc/passwd

    注意:对于西文字符来说,一个字符就是一个字节,但对于中文字符一个汉字是大于2个字节的,具体数目是由字符编码决定的

    再来结合管道来操作一下,下面统计 /etc 下面所有目录数:

    $ ls -dl /etc/*/ | wc -l

     

    3.5 sort 排序命令

    这个命令前面我们也是用过多次,功能很简单就是将输入按照一定方式排序,然后再输出,它支持的排序有按字典排序,数字排序,按月份排序,随机排序,反转排序,指定特定字段进行排序等等。

    默认为字典排序:

    $ cat /etc/passwd | sort

    反转排序:

    $ cat /etc/passwd | sort -r

    按特定字段排序:

    $ cat /etc/passwd | sort -t':' -k 3

    上面的-t参数用于指定字段的分隔符,这里是以":"作为分隔符;-k 字段号用于指定对哪一个字段进行排序。这里/etc/passwd文件的第三个字段为数字,默认情况下是以字典序排序的,如果要按照数字排序就要加上-n参数:

    $ cat /etc/passwd | sort -t':' -k 3 -n

    注意观察第二个冒号后的数字: 

     

     

     

    3.6 uniq 去重命令

    uniq命令可以用于过滤或者输出重复行。

    • 过滤重复行

    我们可以使用history命令查看最近执行过的命令(实际为读取${SHELL}_history文件,如我们环境中的~/.zsh_history文件),不过你可能只想查看使用了哪个命令而不需要知道具体干了什么,那么你可能就会要想去掉命令后面的参数然后去掉重复的命令:

    $ history | cut -c 8- | cut -d ' ' -f 1 | uniq

    然后经过层层过滤,你会发现确是只输出了执行的命令那一列,不过去重效果好像不明显,仔细看你会发现它确实去重了,只是不那么明显,之所以不明显是因为uniq命令只能去连续重复的行,不是全文去重,所以要达到预期效果,我们先排序:

    $ history | cut -c 8- | cut -d ' ' -f 1 | sort | uniq # 或者$ history | cut -c 8- | cut -d ' ' -f 1 | sort -u

    这就是 Linux/UNIX 哲学吸引人的地方,大繁至简,一个命令只干一件事却能干到最好。

    • 输出重复行

    # 输出重复过的行(重复的只输出一个)及重复次数 $ history | cut -c 8- | cut -d ' ' -f 1 | sort | uniq -dc # 输出所有重复的行 $ history | cut -c 8- | cut -d ' ' -f 1 | sort | uniq -D

    文本处理命令还有很多,下一节将继续介绍一些常用的文本处理的命令。

    轻松一下

    使用以前介绍过的方法,安装aview和imagemagick,然后用asciiview命令显示图片,使用方法可以用 man 命令查看。

    Linus大神的照片地址 http://labfile.oss.aliyuncs.com/courses/1/Linus.png

    执行以下命令安装工具包并下载图片:

    shiyanlou:~/ $ sudo apt update shiyanlou:~/ $ sudo apt install -y aview imagemagick shiyanlou:~/ $ wget http://labfile.oss.aliyuncs.com/courses/1/Linus.png

    执行 asciiview [图片文件名] 即可打开图片:

     

     

    2.1 tr 命令

    tr 命令可以用来删除一段文本信息中的某些文字。或者将其进行转换。

    使用方式:

    tr [option]...SET1 [SET2]

    常用的选项有:

    选项

    说明

    -d

    删除和set1匹配的字符,注意不是全词匹配也不是按字符顺序匹配

    -s

    去除set1指定的在输入文本中连续并重复的字符

    操作举例:

    # 删除 "hello shiyanlou" 中所有的'o','l','h' $ echo 'hello shiyanlou' | tr -d 'olh' # 将"hello" 中的ll,去重为一个l $ echo 'hello' | tr -s 'l' # 将输入文本,全部转换为大写或小写输出 $ echo 'input some text here' | tr '[:lower:]' '[:upper:]' # 上面的'[:lower:]' '[:upper:]'你也可以简单的写作'[a-z]' '[A-Z]',当然反过来将大写变小写也是可以的

    更多 tr 的使用,你可以使用--help或者man tr获得。

     

     

    col 命令可以将Tab换成对等数量的空格键,或反转这个操作。

    使用方式:

    col [option]

    常用的选项有:

    选项

    说明

    -x

    将Tab转换为空格

    -h

    将空格转换为Tab(默认选项)

    操作举例:

    # 查看 /etc/protocols 中的不可见字符,可以看到很多 ^I ,这其实就是 Tab 转义成可见字符的符号 $ cat -A /etc/protocols # 使用 col -x 将 /etc/protocols 中的 Tab 转换为空格,然后再使用 cat 查看,你发现 ^I 不见了 $ cat /etc/protocols | col -x | cat -A

     

     

     

     

    2.3 join命令

    学过数据库的用户对这个应该不会陌生,这个命令就是用于将两个文件中包含相同内容的那一行合并在一起。

    使用方式:

    join [option]... file1 file2

    常用的选项有:

    选项

    说明

    -t

    指定分隔符,默认为空格

    -i

    忽略大小写的差异

    -1

    指明第一个文件要用哪个字段来对比,默认对比第一个字段

    -2

    指明第二个文件要用哪个字段来对比,默认对比第一个字段

    操作举例:

    $ cd /home/shiyanlou # 创建两个文件 $ echo '1 hello' > file1 $ echo '1 shiyanlou' > file2 $ join file1 file2 # 将/etc/passwd与/etc/shadow两个文件合并,指定以':'作为分隔符 $ sudo join -t':' /etc/passwd /etc/shadow # 将/etc/passwd与/etc/group两个文件合并,指定以':'作为分隔符, 分别比对第4和第3个字段 $ sudo join -t':' -1 4 /etc/passwd -2 3 /etc/group

     

     

     

    2.4 paste命令

    paste这个命令与join 命令类似,它是在不对比数据的情况下,简单地将多个文件合并一起,以Tab隔开。

    使用方式:

    paste [option] file...

    常用的选项有:

    选项

    说明

    -d

    指定合并的分隔符,默认为Tab

    -s

    不合并到一行,每个文件为一行

    操作举例:

    $ echo hello > file1 $ echo shiyanlou > file2 $ echo www.shiyanlou.com > file3 $ paste -d ':' file1 file2 file3 $ paste -s file1 file2 file3

     

     

    1.1 实验内容

    你可能对重定向这个概念感到些许陌生,但你应该在前面的课程中多次见过>或>>操作了,并知道他们分别是将标准输出导向一个文件或追加到一个文件中。这其实就是重定向,将原本输出到标准输出的数据重定向到一个文件中,因为标准输出(/dev/stdout)本身也是一个文件,我们将命令输出导向另一个文件自然也是没有任何问题的。

    1.2 实验知识点

    • 重定向怎么用
    • 文件描述符(0,1,2)

     

    二、数据流重定向

    下面我们简单的回顾一下我们前面经常用到的两个重定向操作:

    $ echo 'hello shiyanlou' > redirect $ echo 'www.shiyanlou.com' >> redirect $ cat redirect

    当然前面没有用到的<和<<操作也是没有问题的,如你理解的一样,它们的区别在于重定向的方向不一致而已,>表示是从左到右,<右到左。

     

     

    2.1 简单的重定向

    在更多了解 Linux 的重定向之前,我们需要先知道一些基本的东西,前面我们已经提到过 Linux 默认提供了三个特殊设备,用于终端的显示和输出,分别为stdin(标准输入,对应于你在终端的输入),stdout(标准输出,对应于终端的输出),stderr(标准错误输出,对应于终端的输出)。

    文件描述符

    设备文件

    说明

    0

    /dev/stdin

    标准输入

    1

    /dev/stdout

    标准输出

    2

    /dev/stderr

    标准错误

    文件描述符:文件描述符在形式上是一个非负整数。实际上,它是一个索引值,指向内核为每一个进程所维护的该进程打开文件的记录表。当程序打开一个现有文件或者创建一个新文件时,内核向进程返回一个文件描述符。在程序设计中,一些涉及底层的程序编写往往会围绕着文件描述符展开。但是文件描述符这一概念往往只适用于 UNIX、Linux 这样的操作系统。

    我们可以这样使用这些文件描述符:

    默认使用终端的标准输入作为命令的输入和标准输出作为命令的输出

    $ cat (按Ctrl+C退出)

    将cat的连续输出(heredoc方式)重定向到一个文件

    $ mkdir Documents $ cat > Documents/test.c <<EOF #include <stdio.h> int main() { printf("hello world\n"); return 0; } EOF

    将一个文件作为命令的输入,标准输出作为命令的输出

    $ cat Documents/test.c

    将echo命令通过管道传过来的数据作为cat命令的输入,将标准输出作为命令的输出

    $ echo 'hi' | cat

    将echo命令的输出从默认的标准输出重定向到一个普通文件

    $ echo 'hello shiyanlou' > redirect $ cat redirect

    初学者这里要注意不要将管道和重定向混淆,管道默认是连接前一个命令的输出到下一个命令的输入,而重定向通常是需要一个文件来建立两个命令的连接,你可以仔细体会一下上述第三个操作和最后两个操作的异同点。

     

     

     

    2.2 标准错误重定向

    重定向标准输出到文件,这是一个很实用的操作,另一个很实用的操作是将标准错误重定向,标准输出和标准错误都被指向伪终端的屏幕显示,所以我们经常看到的一个命令的输出通常是同时包含了标准输出和标准错误的结果的。比如下面的操作:

    # 使用cat 命令同时读取两个文件,其中一个存在,另一个不存在 $ cat Documents/test.c hello.c # 你可以看到除了正确输出了前一个文件的内容,还在末尾出现了一条错误信息 # 下面我们将输出重定向到一个文件 $ cat Documents/test.c hello.c > somefile

    遗憾的是,这里依然出现了那条错误信息,这正是因为如我上面说的那样,标准输出和标准错误虽然都指向终端屏幕,实际它们并不一样。那有的时候我们就是要隐藏某些错误或者警告,那又该怎么做呢。这就需要用到我们前面讲的文件描述符了:

    # 将标准错误重定向到标准输出,再将标准输出重定向到文件,注意要将重定向到文件写到前面 $ cat Documents/test.c hello.c >somefile 2>&1 # 或者只用bash提供的特殊的重定向符号"&"将标准错误和标准输出同时重定向到文件 $ cat Documents/test.c hello.c &>somefilehell

    注意你应该在输出重定向文件描述符前加上&,否则shell会当做重定向到一个文件名为1的文件中

     

     

     

    2.2 标准错误重定向

    重定向标准输出到文件,这是一个很实用的操作,另一个很实用的操作是将标准错误重定向,标准输出和标准错误都被指向伪终端的屏幕显示,所以我们经常看到的一个命令的输出通常是同时包含了标准输出和标准错误的结果的。比如下面的操作:

    # 使用cat 命令同时读取两个文件,其中一个存在,另一个不存在 $ cat Documents/test.c hello.c # 你可以看到除了正确输出了前一个文件的内容,还在末尾出现了一条错误信息 # 下面我们将输出重定向到一个文件 $ cat Documents/test.c hello.c > somefile

    遗憾的是,这里依然出现了那条错误信息,这正是因为如我上面说的那样,标准输出和标准错误虽然都指向终端屏幕,实际它们并不一样。那有的时候我们就是要隐藏某些错误或者警告,那又该怎么做呢。这就需要用到我们前面讲的文件描述符了:

    # 将标准错误重定向到标准输出,再将标准输出重定向到文件,注意要将重定向到文件写到前面 $ cat Documents/test.c hello.c >somefile 2>&1 # 或者只用bash提供的特殊的重定向符号"&"将标准错误和标准输出同时重定向到文件 $ cat Documents/test.c hello.c &>somefilehell

    注意你应该在输出重定向文件描述符前加上&,否则shell会当做重定向到一个文件名为1的文件中

     

     

     

    2.3 使用tee命令同时重定向到多个文件

    你可能还有这样的需求,除了需要将输出重定向到文件,也需要将信息打印在终端。那么你可以使用tee命令来实现:

    $ echo 'hello shiyanlou' | tee hello

     

     

    2.4 永久重定向

    你应该可以看出我们前面的重定向操作都只是临时性的,即只对当前命令有效,那如何做到“永久”有效呢,比如在一个脚本中,你需要某一部分的命令的输出全部进行重定向,难道要让你在每个命令上面加上临时重定向的操作嘛,当然不需要,我们可以使用exec命令实现“永久”重定向。exec命令的作用是使用指定的命令替换当前的 Shell,即使用一个进程替换当前进程,或者指定新的重定向:

    # 先开启一个子 Shell $ zsh # 使用exec替换当前进程的重定向,将标准输出重定向到一个文件 $ exec 1>somefile # 后面你执行的命令的输出都将被重定向到文件中,直到你退出当前子shell,或取消exec的重定向(后面将告诉你怎么做) $ ls $ exit $ cat somefile

     

     

    2.5 创建输出文件描述符

    在 Shell 中有9个文件描述符。上面我们使用了也是它默认提供的0,1,2号文件描述符。另外我们还可以使用3-8的文件描述符,只是它们默认没有打开而已。你可以使用下面命令查看当前 Shell 进程中打开的文件描述符:

    $ cd /dev/fd/;ls -Al

    同样使用exec命令可以创建新的文件描述符:

    $ zsh $ exec 3>somefile # 先进入目录,再查看,否则你可能不能得到正确的结果,然后再回到上一次的目录 $ cd /dev/fd/;ls -Al;cd - # 注意下面的命令>与&之间不应该有空格,如果有空格则会出错 $ echo "this is test" >&3 $ cat somefile $ exit

     

     

    2.6 关闭文件描述符

    如上面我们打开的3号文件描述符,可以使用如下操作将它关闭:

    $ exec 3>&- $ cd /dev/fd;ls -Al;cd -

     

     

    2.7 完全屏蔽命令的输出

    在 Linux 中有一个被称为“黑洞”的设备文件,所有导入它的数据都将被“吞噬”。

    在类 UNIX 系统中,/dev/null,或称空设备,是一个特殊的设备文件,它通常被用于丢弃不需要的输出流,或作为用于输入流的空文件,这些操作通常由重定向完成。读取它则会立即得到一个EOF。

    我们可以利用设个/dev/null屏蔽命令的输出:

    $ cat Documents/test.c nefile 1>/dev/null 2>&1

    上面这样的操作将使你得不到任何输出结果。

     

     

    2.8 使用 xargs 分割参数列表

    xargs 是一条 UNIX 和类 UNIX 操作系统的常用命令。它的作用是将参数列表转换成小块分段传递给其他命令,以避免参数列表过长的问题。

    这个命令在有些时候十分有用,特别是当用来处理产生大量输出结果的命令如 find,locate 和 grep 的结果,详细用法请参看 man 文档。

    $ cut -d: -f1 < /etc/passwd | sort | xargs echo

    上面这个命令用于将/etc/passwd文件按:分割取第一个字段排序后,使用echo命令生成一个列表。

    轻松一下

    之前介绍过一个在命令行将图片转换为 ascii 字符查看的工具 aview/asciiview,不过它是黑白的。现在,这里是个彩色的:

    $ sudo apt-get install caca-utils $ cacaview <pic_file> $ cacademo $ cacafire

     

     

    挑战:历史命令

    介绍

    在 Linux 中,对于文本的处理和分析是极为重要的,现在有一个文件叫做 data1,可以使用下面的命令下载:

    $ cd /home/shiyanlou $ wget http://labfile.oss.aliyuncs.com/courses/1/data1

    data1 文件里记录是一些命令的操作记录,现在需要你从里面找出出现频率次数前3的命令并保存在 /home/shiyanlou/result。

    目标

    1. 处理文本文件 /home/shiyanlou/data1
    2. 将结果写入 /home/shiyanlou/result
    3. 结果包含三行内容,每行内容都是出现的次数和命令名称,如“100 ls”

    提示

    1. cut 截取 (参数可以使用 -c 8-,使用 man cut 可以查看含义)
    2. uniq -dc 去重
    3. sort 的参数选择 -k1 -n -r
    4. 操作过程使用管道,例如:

    $ cd /home/shiyanlou $ cat data1 |....|....|.... > /home/shiyanlou/result

    来源

    2016 年百度校招面试题

    参考答案

    注意:请务必自己独立思考解决问题之后再对照参考答案,一开始直接看参考答案收获不大。

    cat data1 |cut -c 8-|sort|uniq -dc|sort -rn -k1 |head -3 > /home/shiyanlou/result

     

     

    二、正则表达式

    什么是正则表达式呢?

    正则表达式,又称正规表示式、正规表示法、正规表达式、规则表达式、常规表示法(英语:Regular Expression,在代码中常简写为 regex、regexp 或 RE),计算机科学的一个概念。正则表达式使用单个字符串来描述、匹配一系列符合某个句法规则的字符串。在很多文本编辑器里,正则表达式通常被用来检索、替换那些符合某个模式的文本。

    许多程序设计语言都支持利用正则表达式进行字符串操作。例如,在 Perl 中就内建了一个功能强大的正则表达式引擎。正则表达式这个概念最初是由 UNIX 中的工具软件(例如sed和grep)普及开的。正则表达式通常缩写成“regex”,单数有 regexp、regex,复数有 regexps、regexes、regexen。

    简单的说形式和功能上正则表达式和我们前面讲的通配符很像,不过它们之间又有很大差别,特别在于一些特殊的匹配字符的含义上,希望初学者注意不要将两者弄混淆。

     

     

    2.2 基本语法

    一个正则表达式通常被称为一个模式(pattern),为用来描述或者匹配一系列符合某个句法规则的字符串。

    选择

    |竖直分隔符表示选择,例如"boy|girl"可以匹配"boy"或者"girl"

    数量限定

    数量限定除了我们举例用的*,还有+加号,?问号,如果在一个模式中不加数量限定符则表示出现一次且仅出现一次:

    • +表示前面的字符必须出现至少一次(1次或多次),例如,"goo+gle",可以匹配"gooogle","goooogle"等;
    • ?表示前面的字符最多出现一次(0次或1次),例如,"colou?r",可以匹配"color"或者"colour";
    • *星号代表前面的字符可以不出现,也可以出现一次或者多次(0次、或1次、或多次),例如,“0*42”可以匹配42、042、0042、00042等。

    范围和优先级

    ()圆括号可以用来定义模式字符串的范围和优先级,这可以简单的理解为是否将括号内的模式串作为一个整体。例如,"gr(a|e)y"等价于"gray|grey",(这里体现了优先级,竖直分隔符用于选择a或者e而不是gra和ey),"(grand)?father"匹配father和grandfather(这里体验了范围,?将圆括号内容作为一个整体匹配)。

    语法(部分)

    正则表达式有多种不同的风格,下面列举一些常用的作为 PCRE 子集的适用于perl和python编程语言及grep或egrep的正则表达式匹配规则:(由于markdown表格解析的问题,下面的竖直分隔符用全角字符代替,实际使用时请换回半角字符)

    PCRE(Perl Compatible Regular Expressions中文含义:perl语言兼容正则表达式)是一个用 C 语言编写的正则表达式函数库,由菲利普.海泽(Philip Hazel)编写。PCRE是一个轻量级的函数库,比Boost 之类的正则表达式库小得多。PCRE 十分易用,同时功能也很强大,性能超过了 POSIX 正则表达式库和一些经典的正则表达式库。

    字符

    描述

    \

    将下一个字符标记为一个特殊字符、或一个原义字符。例如,“n”匹配字符“n”。“\n”匹配一个换行符。序列“\\”匹配“\”而“\(”则匹配“(”。

    ^

    匹配输入字符串的开始位置。

    $

    匹配输入字符串的结束位置。

    {n}

    n是一个非负整数。匹配确定的n次。例如,“o{2}”不能匹配“Bob”中的“o”,但是能匹配“food”中的两个o。

    {n,}

    n是一个非负整数。至少匹配n次。例如,“o{2,}”不能匹配“Bob”中的“o”,但能匹配“foooood”中的所有o。“o{1,}”等价于“o+”。“o{0,}”则等价于“o*”。

    {n,m}

    m和n均为非负整数,其中n<=m。最少匹配n次且最多匹配m次。例如,“o{1,3}”将匹配“fooooood”中的前三个o。“o{0,1}”等价于“o?”。请注意在逗号和两个数之间不能有空格。

    *

    匹配前面的子表达式零次或多次。例如,zo*能匹配“z”、“zo”以及“zoo”。*等价于{0,}。

    +

    匹配前面的子表达式一次或多次。例如,“zo+”能匹配“zo”以及“zoo”,但不能匹配“z”。+等价于{1,}。

    ?

    匹配前面的子表达式零次或一次。例如,“do(es)?”可以匹配“do”或“does”中的“do”。?等价于{0,1}。

    ?

    当该字符紧跟在任何一个其他限制符(*,+,?,{n},{n,},{n,m})后面时,匹配模式是非贪婪的。非贪婪模式尽可能少的匹配所搜索的字符串,而默认的贪婪模式则尽可能多的匹配所搜索的字符串。例如,对于字符串“oooo”,“o+?”将匹配单个“o”,而“o+”将匹配所有“o”。

    .

    匹配除“\n”之外的任何单个字符。要匹配包括“\n”在内的任何字符,请使用像“(.|\n)”的模式。

    (pattern)

    匹配pattern并获取这一匹配的子字符串。该子字符串用于向后引用。要匹配圆括号字符,请使用“\(”或“\)”。

    x|y

    匹配x或y。例如,“z|food”能匹配“z”或“food”。“(z|f)ood”则匹配“zood”或“food”。

    [xyz]

    字符集合(character class)。匹配所包含的任意一个字符。例如,“[abc]”可以匹配“plain”中的“a”。其中特殊字符仅有反斜线\保持特殊含义,用于转义字符。其它特殊字符如星号、加号、各种括号等均作为普通字符。脱字符^如果出现在首位则表示负值字符集合;如果出现在字符串中间就仅作为普通字符。连字符 - 如果出现在字符串中间表示字符范围描述;如果出现在首位则仅作为普通字符。

    [^xyz]

    排除型(negate)字符集合。匹配未列出的任意字符。例如,“[^abc]”可以匹配“plain”中的“plin”。

    [a-z]

    字符范围。匹配指定范围内的任意字符。例如,“[a-z]”可以匹配“a”到“z”范围内的任意小写字母字符。

    [^a-z]

    排除型的字符范围。匹配任何不在指定范围内的任意字符。例如,“[^a-z]”可以匹配任何不在“a”到“z”范围内的任意字符。

    优先级

    优先级为从上到下从左到右,依次降低:

    运算符

    说明

    \

    转义符

    (), (?:), (?=), []

    括号和中括号

    *、+、?、{n}、{n,}、{n,m}

    限定符

    ^、$、\任何元字符

    定位点和序列

    选择

    更多正则表达式的内容可以参考以下链接:

    regex的思导图:

     

     

    三、grep模式匹配命令

    上面空谈了那么多正则表达式的内容也并没有提及具体该如何使用它,实在枯燥,如果说正则表达式是一门武功,那它也只能算得上一些口诀招式罢了,要把它真正练起来还得需要一些兵器在手才行,这里我们要介绍的grep命令以及后面要讲的sed,awk这些就该算作是这样的兵器了。

     

     

     

    3.1 基本操作

    grep命令用于打印输出文本中匹配的模式串,它使用正则表达式作为模式匹配的条件。grep支持三种正则表达式引擎,分别用三个参数指定:

    参数

    说明

    -E

    POSIX扩展正则表达式,ERE

    -G

    POSIX基本正则表达式,BRE

    -P

    Perl正则表达式,PCRE

    不过在你没学过perl语言的大多数情况下你将只会使用到ERE和BRE,所以我们接下来的内容都不会讨论到PCRE中特有的一些正则表达式语法(它们之间大部分内容是存在交集的,所以你不用担心会遗漏多少重要内容)

    在通过grep命令使用正则表达式之前,先介绍一下它的常用参数:

    参数

    说明

    -b

    将二进制文件作为文本来进行匹配

    -c

    统计以模式匹配的数目

    -i

    忽略大小写

    -n

    显示匹配文本所在行的行号

    -v

    反选,输出不匹配行的内容

    -r

    递归匹配查找

    -A n

    n为正整数,表示after的意思,除了列出匹配行之外,还列出后面的n行

    -B n

    n为正整数,表示before的意思,除了列出匹配行之外,还列出前面的n行

    --color=auto

    将输出中的匹配项设置为自动颜色显示

    注:在大多数发行版中是默认设置了grep的颜色的,你可以通过参数指定或修改GREP_COLOR环境变量。

     

     

    3.2 使用正则表达式

    使用基本正则表达式,BRE

    • 位置

    查找/etc/group文件中以"shiyanlou"为开头的行

    $ grep 'shiyanlou' /etc/group $ grep '^shiyanlou' /etc/group

    • 数量

    # 将匹配以'z'开头以'o'结尾的所有字符串 $ echo 'zero\nzo\nzoo' | grep 'z.*o' # 将匹配以'z'开头以'o'结尾,中间包含一个任意字符的字符串 $ echo 'zero\nzo\nzoo' | grep 'z.o' # 将匹配以'z'开头,以任意多个'o'结尾的字符串 $ echo 'zero\nzo\nzoo' | grep 'zo*'

    注意:其中\n为换行符

    • 选择

    # grep默认是区分大小写的,这里将匹配所有的小写字母 $ echo '1234\nabcd' | grep '[a-z]' # 将匹配所有的数字 $ echo '1234\nabcd' | grep '[0-9]' # 将匹配所有的数字 $ echo '1234\nabcd' | grep '[[:digit:]]' # 将匹配所有的小写字母 $ echo '1234\nabcd' | grep '[[:lower:]]' # 将匹配所有的大写字母 $ echo '1234\nabcd' | grep '[[:upper:]]' # 将匹配所有的字母和数字,包括0-9,a-z,A-Z $ echo '1234\nabcd' | grep '[[:alnum:]]' # 将匹配所有的字母 $ echo '1234\nabcd' | grep '[[:alpha:]]'

    下面包含完整的特殊符号及说明:

    特殊符号

    说明

    [:alnum:]

    代表英文大小写字母及数字,亦即 0-9, A-Z, a-z

    [:alpha:]

    代表任何英文大小写字母,亦即 A-Z, a-z

    [:blank:]

    代表空白键与 [Tab] 按键两者

    [:cntrl:]

    代表键盘上面的控制按键,亦即包括 CR, LF, Tab, Del.. 等等

    [:digit:]

    代表数字而已,亦即 0-9

    [:graph:]

    除了空白字节 (空白键与 [Tab] 按键) 外的其他所有按键

    [:lower:]

    代表小写字母,亦即 a-z

    [:print:]

    代表任何可以被列印出来的字符

    [:punct:]

    代表标点符号 (punctuation symbol),亦即:" ' ? ! ; : # $...

    [:upper:]

    代表大写字母,亦即 A-Z

    [:space:]

    任何会产生空白的字符,包括空白键, [Tab], CR 等等

    [:xdigit:]

    代表 16 进位的数字类型,因此包括: 0-9, A-F, a-f 的数字与字节

    注意:之所以要使用特殊符号,是因为上面的[a-z]不是在所有情况下都管用,这还与主机当前的语系有关,即设置在LANG环境变量的值,zh_CN.UTF-8的话[a-z],即为所有小写字母,其它语系可能是大小写交替的如,"a A b B...z Z",[a-z]中就可能包含大写字母。所以在使用[a-z]时请确保当前语系的影响,使用[:lower:]则不会有这个问题。

    # 排除字符 $ $ echo 'geek\ngood' | grep '[^o]'

    注意:当^放到中括号内为排除字符,否则表示行首。

    使用扩展正则表达式,ERE

    要通过grep使用扩展正则表达式需要加上-E参数,或使用egrep。

    • 数量

    # 只匹配"zo" $ echo 'zero\nzo\nzoo' | grep -E 'zo{1}' # 匹配以"zo"开头的所有单词 $ echo 'zero\nzo\nzoo' | grep -E 'zo{1,}'

    注意:推荐掌握{n,m}即可,+,?,*,这几个不太直观,且容易弄混淆。

    • 选择

    # 匹配"www.shiyanlou.com"和"www.google.com" $ echo 'www.shiyanlou.com\nwww.baidu.com\nwww.google.com' | grep -E 'www\.(shiyanlou|google)\.com' # 或者匹配不包含"baidu"的内容 $ echo 'www.shiyanlou.com\nwww.baidu.com\nwww.google.com' | grep -Ev 'www\.baidu\.com'

    注意:因为.号有特殊含义,所以需要转义。

    关于正则表达式和grep命令的内容就介绍这么多,下面会介绍两个更强大的工具sed和awk,但同样也正是因为这两个工具的强大,我们的内容无法包含它们的全部,这里将只对基本内容作介绍。

     

     

    3.2 使用正则表达式

    使用基本正则表达式,BRE

    • 位置

    查找/etc/group文件中以"shiyanlou"为开头的行

    $ grep 'shiyanlou' /etc/group $ grep '^shiyanlou' /etc/group

    • 数量

    # 将匹配以'z'开头以'o'结尾的所有字符串 $ echo 'zero\nzo\nzoo' | grep 'z.*o' # 将匹配以'z'开头以'o'结尾,中间包含一个任意字符的字符串 $ echo 'zero\nzo\nzoo' | grep 'z.o' # 将匹配以'z'开头,以任意多个'o'结尾的字符串 $ echo 'zero\nzo\nzoo' | grep 'zo*'

    注意:其中\n为换行符

    • 选择

    # grep默认是区分大小写的,这里将匹配所有的小写字母 $ echo '1234\nabcd' | grep '[a-z]' # 将匹配所有的数字 $ echo '1234\nabcd' | grep '[0-9]' # 将匹配所有的数字 $ echo '1234\nabcd' | grep '[[:digit:]]' # 将匹配所有的小写字母 $ echo '1234\nabcd' | grep '[[:lower:]]' # 将匹配所有的大写字母 $ echo '1234\nabcd' | grep '[[:upper:]]' # 将匹配所有的字母和数字,包括0-9,a-z,A-Z $ echo '1234\nabcd' | grep '[[:alnum:]]' # 将匹配所有的字母 $ echo '1234\nabcd' | grep '[[:alpha:]]'

    下面包含完整的特殊符号及说明:

    特殊符号

    说明

    [:alnum:]

    代表英文大小写字母及数字,亦即 0-9, A-Z, a-z

    [:alpha:]

    代表任何英文大小写字母,亦即 A-Z, a-z

    [:blank:]

    代表空白键与 [Tab] 按键两者

    [:cntrl:]

    代表键盘上面的控制按键,亦即包括 CR, LF, Tab, Del.. 等等

    [:digit:]

    代表数字而已,亦即 0-9

    [:graph:]

    除了空白字节 (空白键与 [Tab] 按键) 外的其他所有按键

    [:lower:]

    代表小写字母,亦即 a-z

    [:print:]

    代表任何可以被列印出来的字符

    [:punct:]

    代表标点符号 (punctuation symbol),亦即:" ' ? ! ; : # $...

    [:upper:]

    代表大写字母,亦即 A-Z

    [:space:]

    任何会产生空白的字符,包括空白键, [Tab], CR 等等

    [:xdigit:]

    代表 16 进位的数字类型,因此包括: 0-9, A-F, a-f 的数字与字节

    注意:之所以要使用特殊符号,是因为上面的[a-z]不是在所有情况下都管用,这还与主机当前的语系有关,即设置在LANG环境变量的值,zh_CN.UTF-8的话[a-z],即为所有小写字母,其它语系可能是大小写交替的如,"a A b B...z Z",[a-z]中就可能包含大写字母。所以在使用[a-z]时请确保当前语系的影响,使用[:lower:]则不会有这个问题。

    # 排除字符 $ $ echo 'geek\ngood' | grep '[^o]'

    注意:当^放到中括号内为排除字符,否则表示行首。

    使用扩展正则表达式,ERE

    要通过grep使用扩展正则表达式需要加上-E参数,或使用egrep。

    • 数量

    # 只匹配"zo" $ echo 'zero\nzo\nzoo' | grep -E 'zo{1}' # 匹配以"zo"开头的所有单词 $ echo 'zero\nzo\nzoo' | grep -E 'zo{1,}'

    注意:推荐掌握{n,m}即可,+,?,*,这几个不太直观,且容易弄混淆。

    • 选择

    # 匹配"www.shiyanlou.com"和"www.google.com" $ echo 'www.shiyanlou.com\nwww.baidu.com\nwww.google.com' | grep -E 'www\.(shiyanlou|google)\.com' # 或者匹配不包含"baidu"的内容 $ echo 'www.shiyanlou.com\nwww.baidu.com\nwww.google.com' | grep -Ev 'www\.baidu\.com'

    注意:因为.号有特殊含义,所以需要转义。

    关于正则表达式和grep命令的内容就介绍这么多,下面会介绍两个更强大的工具sed和awk,但同样也正是因为这两个工具的强大,我们的内容无法包含它们的全部,这里将只对基本内容作介绍。

     

    3.2 使用正则表达式

    使用基本正则表达式,BRE

    • 位置

    查找/etc/group文件中以"shiyanlou"为开头的行

    $ grep 'shiyanlou' /etc/group $ grep '^shiyanlou' /etc/group

    • 数量

    # 将匹配以'z'开头以'o'结尾的所有字符串 $ echo 'zero\nzo\nzoo' | grep 'z.*o' # 将匹配以'z'开头以'o'结尾,中间包含一个任意字符的字符串 $ echo 'zero\nzo\nzoo' | grep 'z.o' # 将匹配以'z'开头,以任意多个'o'结尾的字符串 $ echo 'zero\nzo\nzoo' | grep 'zo*'

    注意:其中\n为换行符

    • 选择

    # grep默认是区分大小写的,这里将匹配所有的小写字母 $ echo '1234\nabcd' | grep '[a-z]' # 将匹配所有的数字 $ echo '1234\nabcd' | grep '[0-9]' # 将匹配所有的数字 $ echo '1234\nabcd' | grep '[[:digit:]]' # 将匹配所有的小写字母 $ echo '1234\nabcd' | grep '[[:lower:]]' # 将匹配所有的大写字母 $ echo '1234\nabcd' | grep '[[:upper:]]' # 将匹配所有的字母和数字,包括0-9,a-z,A-Z $ echo '1234\nabcd' | grep '[[:alnum:]]' # 将匹配所有的字母 $ echo '1234\nabcd' | grep '[[:alpha:]]'

    下面包含完整的特殊符号及说明:

    特殊符号

    说明

    [:alnum:]

    代表英文大小写字母及数字,亦即 0-9, A-Z, a-z

    [:alpha:]

    代表任何英文大小写字母,亦即 A-Z, a-z

    [:blank:]

    代表空白键与 [Tab] 按键两者

    [:cntrl:]

    代表键盘上面的控制按键,亦即包括 CR, LF, Tab, Del.. 等等

    [:digit:]

    代表数字而已,亦即 0-9

    [:graph:]

    除了空白字节 (空白键与 [Tab] 按键) 外的其他所有按键

    [:lower:]

    代表小写字母,亦即 a-z

    [:print:]

    代表任何可以被列印出来的字符

    [:punct:]

    代表标点符号 (punctuation symbol),亦即:" ' ? ! ; : # $...

    [:upper:]

    代表大写字母,亦即 A-Z

    [:space:]

    任何会产生空白的字符,包括空白键, [Tab], CR 等等

    [:xdigit:]

    代表 16 进位的数字类型,因此包括: 0-9, A-F, a-f 的数字与字节

    注意:之所以要使用特殊符号,是因为上面的[a-z]不是在所有情况下都管用,这还与主机当前的语系有关,即设置在LANG环境变量的值,zh_CN.UTF-8的话[a-z],即为所有小写字母,其它语系可能是大小写交替的如,"a A b B...z Z",[a-z]中就可能包含大写字母。所以在使用[a-z]时请确保当前语系的影响,使用[:lower:]则不会有这个问题。

    # 排除字符 $ $ echo 'geek\ngood' | grep '[^o]'

    注意:当^放到中括号内为排除字符,否则表示行首。

    使用扩展正则表达式,ERE

    要通过grep使用扩展正则表达式需要加上-E参数,或使用egrep。

    • 数量

    # 只匹配"zo" $ echo 'zero\nzo\nzoo' | grep -E 'zo{1}' # 匹配以"zo"开头的所有单词 $ echo 'zero\nzo\nzoo' | grep -E 'zo{1,}'

    注意:推荐掌握{n,m}即可,+,?,*,这几个不太直观,且容易弄混淆。

    • 选择

    # 匹配"www.shiyanlou.com"和"www.google.com" $ echo 'www.shiyanlou.com\nwww.baidu.com\nwww.google.com' | grep -E 'www\.(shiyanlou|google)\.com' # 或者匹配不包含"baidu"的内容 $ echo 'www.shiyanlou.com\nwww.baidu.com\nwww.google.com' | grep -Ev 'www\.baidu\.com'

    注意:因为.号有特殊含义,所以需要转义。

    关于正则表达式和grep命令的内容就介绍这么多,下面会介绍两个更强大的工具sed和awk,但同样也正是因为这两个工具的强大,我们的内容无法包含它们的全部,这里将只对基本内容作介绍。

     

    4.2 sed编辑器的执行命令(这里”执行“解释为名词)

    sed执行命令格式:

    [n1][,n2]command [n1][~step]command # 其中一些命令可以在后面加上作用范围,形如: $ sed -i 's/sad/happy/g' test # g表示全局范围 $ sed -i 's/sad/happy/4' test # 4表示指定行中的第四个匹配字符串

    其中n1,n2表示输入内容的行号,它们之间为,逗号则表示从n1到n2行,如果为~波浪号则表示从n1开始以step为步进的所有行;command为执行动作,下面为一些常用动作指令:

    命令

    说明

    s

    行内替换

    c

    整行替换

    a

    插入到指定行的后面

    i

    插入到指定行的前面

    p

    打印指定行,通常与-n参数配合使用

    d

    删除指定行

     

     

     

    4.3 sed操作举例

    我们先找一个用于练习的文本文件:

    $ cp /etc/passwd ~

    打印指定行

    # 打印2-5行 $ nl passwd | sed -n '2,5p' # 打印奇数行 $ nl passwd | sed -n '1~2p'

    行内替换

    # 将输入文本中"shiyanlou" 全局替换为"hehe",并只打印替换的那一行,注意这里不能省略最后的"p"命令 $ sed -n 's/shiyanlou/hehe/gp' passwd

    注意: 行内替换可以结合正则表达式使用。

    行间替换

    $ nl passwd | grep "shiyanlou" # 删除第21行 $ sed -n '21c\www.shiyanlou.com' passwd (这里我们只把要删的行打印出来了,并没有真正的删除,如果要删除的话,请使用-i参数)

    关于sed命令就介绍这么多,你如果希望了解更多sed的高级用法,你可以参看如下链接:

     

     

    五、awk文本处理语言

    看到上面的标题,你可能会感到惊异,难道我们这里要学习的是一门“语言”么,确切的说,我们是要在这里学习awk文本处理语言,只是我们并不会在这里学习到比较完整的关于awk的内容,还是因为前面的原因,它太强大了,它的应用无处不在,我们无法在这里以简短的文字描述面面俱到,如果你有目标成为一个 linux 系统管理员,确实想学好 awk,不用担心,实验楼会在之后陆续上线linux系统管理员的学习路径,里面会有单独的关于正则表达式,awk,sed等相关课程,敬请期待吧。下面的内容,我们就作为一个关于awk的入门体验章节吧,其中会介绍一些awk的常用操作。

     

    5.1 awk介绍

    AWK是一种优良的文本处理工具,Linux及Unix环境中现有的功能最强大的数据处理引擎之一.其名称得自于它的创始人Alfred Aho(阿尔佛雷德·艾侯)、Peter Jay Weinberger(彼得·温伯格)和Brian Wilson Kernighan(布莱恩·柯林汉)姓氏的首个字母.AWK程序设计语言,三位创建者已将它正式定义为“样式扫描和处理语言”。它允许您创建简短的程序,这些程序读取输入文件、为数据排序、处理数据、对输入执行计算以及生成报表,还有无数其他的功能。最简单地说,AWK是一种用于处理文本的编程语言工具。

    在大多数linux发行版上面,实际我们使用的是gawk(GNU awk,awk的GNU版本),在我们的环境中ubuntu上,默认提供的是mawk,不过我们通常可以直接使用awk命令(awk语言的解释器),因为系统已经为我们创建好了awk指向mawk的符号链接。

    $ ll /usr/bin/awk

    nawk: 在 20 世纪 80 年代中期,对 awk语言进行了更新,并不同程度地使用一种称为 nawk(new awk) 的增强版本对其进行了替换。许多系统中仍然存在着旧的awk 解释器,但通常将其安装为 oawk (old awk) 命令,而 nawk 解释器则安装为主要的 awk 命令,也可以使用 nawk 命令。Dr. Kernighan 仍然在对 nawk 进行维护,与 gawk 一样,它也是开放源代码的,并且可以免费获得; gawk: 是 GNU Project 的awk解释器的开放源代码实现。尽管早期的 GAWK 发行版是旧的 AWK 的替代程序,但不断地对其进行了更新,以包含 NAWK 的特性; mawk 也是awk编程语言的一种解释器,mawk遵循 POSIX 1003.2 (草案 11.3)定义的 AWK 语言,包含了一些没有在AWK 手册中提到的特色,同时 mawk 提供一小部分扩展,另外据说mawk是实现最快的awk

     

    5.2 awk的一些基础概念

    awk所有的操作都是基于pattern(模式)—action(动作)对来完成的,如下面的形式:

    $ pattern {action}

    你可以看到就如同很多编程语言一样,它将所有的动作操作用一对{}花括号包围起来。其中pattern通常是表示用于匹配输入的文本的“关系式”或“正则表达式”,action则是表示匹配后将执行的动作。在一个完整awk操作中,这两者可以只有其中一个,如果没有pattern则默认匹配输入的全部文本,如果没有action则默认为打印匹配内容到屏幕。

    awk处理文本的方式,是将文本分割成一些“字段”,然后再对这些字段进行处理,默认情况下,awk以空格作为一个字段的分割符,不过这不是固定的,你可以任意指定分隔符,下面将告诉你如何做到这一点。

    5.3 awk命令基本格式

    awk [-F fs] [-v var=value] [-f prog-file | 'program text'] [file...]

    其中-F参数用于预先指定前面提到的字段分隔符(还有其他指定字段的方式) ,-v用于预先为awk程序指定变量,-f参数用于指定awk命令要执行的程序文件,或者在不加-f参数的情况下直接将程序语句放在这里,最后为awk需要处理的文本输入,且可以同时输入多个文本文件。现在我们还是直接来具体体验一下吧。

     

    5.4 awk操作体验

    先用vim新建一个文本文档

    $ vim test

    包含如下内容:

    I like linux www.shiyanlou.com

    • 使用awk将文本内容打印到终端

    # "quote>" 不用输入 $ awk '{ > print > }' test # 或者写到一行 $ awk '{print}' test

    说明:在这个操作中我是省略了pattern,所以awk会默认匹配输入文本的全部内容,然后在"{}"花括号中执行动作,即print打印所有匹配项,这里是全部文本内容

    • 将test的第一行的每个字段单独显示为一行

    $ awk '{ > if(NR==1){ > print $1 "\n" $2 "\n" $3 > } else { > print} > }' test # 或者 $ awk '{ > if(NR==1){ > OFS="\n" > print $1, $2, $3 > } else { > print} > }' test

    说明:你首先应该注意的是,这里我使用了awk语言的分支选择语句if,它的使用和很多高级语言如C/C++语言基本一致,如果你有这些语言的基础,这里将很好理解。另一个你需要注意的是NR与OFS,这两个是awk内建的变量,NR表示当前读入的记录数,你可以简单的理解为当前处理的行数,OFS表示输出时的字段分隔符,默认为" "空格,如上图所见,我们将字段分隔符设置为\n换行符,所以第一行原本以空格为字段分隔的内容就分别输出到单独一行了。然后是$N其中N为相应的字段号,这也是awk的内建变量,它表示引用相应的字段,因为我们这里第一行只有三个字段,所以只引用到了$3。除此之外另一个这里没有出现的$0,它表示引用当前记录(当前行)的全部内容。

    • 将test的第二行的以点为分段的字段换成以空格为分隔

    $ awk -F'.' '{ > if(NR==2){ > print $1 "\t" $2 "\t" $3 > }}' test # 或者 $ awk ' > BEGIN{ > FS="." > OFS="\t" # 如果写为一行,两个动作语句之间应该以";"号分开 > }{ > if(NR==2){ > print $1, $2, $3 > }}' test

    说明:这里的-F参数,前面已经介绍过,它是用来预先指定待处理记录的字段分隔符。我们需要注意的是除了指定OFS我们还可以在print 语句中直接打印特殊符号如这里的\t,print打印的非变量内容都需要用""一对引号包围起来。上面另一个版本,展示了实现预先指定变量分隔符的另一种方式,即使用BEGIN,就这个表达式指示了,其后的动作将在所有动作之前执行,这里是FS赋值了新的"."点号代替默认的" "空格

    注意:首先说明一点,我们在学习和使用awk的时候应该尽可能将其作为一门程序语言来理解,这样将会使你学习起来更容易,所以初学阶段在练习awk时应该尽量按照我那样的方式分多行按照一般程序语言的换行和缩进来输入,而不是全部写到一行(当然这在你熟练了之后是没有任何问题的)。

     

    5.5 awk常用的内置变量

    变量名

    说明

    FILENAME

    当前输入文件名,若有多个文件,则只表示第一个。如果输入是来自标准输入,则为空字符串

    $0

    当前记录的内容

    $N

    N表示字段号,最大值为NF变量的值

    FS

    字段分隔符,由正则表达式表示,默认为" "空格

    RS

    输入记录分隔符,默认为"\n",即一行为一个记录

    NF

    当前记录字段数

    NR

    已经读入的记录数

    FNR

    当前输入文件的记录数,请注意它与NR的区别

    OFS

    输出字段分隔符,默认为" "空格

    ORS

    输出记录分隔符,默认为"\n"

    关于awk的内容本课程将只会包含这些内容,如果你想了解更多,请期待后续课程,或者参看一下链接内容:

     

     

    一、实验介绍

    1.1 实验内容

    介绍 Ubuntu 下软件安装的几种方式,及 apt,dpkg 工具的使用。

    1.2 实验知识点

    通常 Linux 上的软件安装主要有四种方式:

    • 在线安装
    • 从磁盘安装deb软件包
    • 从二进制软件包安装
    • 从源代码编译安装

    这几种安装方式各有优劣,而大多数软件包会采用多种方式发布软件,所以我们常常需要全部掌握这几种软件安装方式,以便适应各种环境。下面将介绍前三种安装方式,从源码编译安装你将在 Linux 程序设计中学习到。

     

     

     

    试想一下,平时我们在使用 Windows 的时候,想要安装一个软件,我们需要在网上去下载对应软件的安装包,接着安装的时候就是不断的去点击下一步,这些流程想必大家已经经历无数回了,但是在 Linux 下,一个命令加回车,等待一下,软件就安装好了,这就是方便的在线安装软件的方式。在学习这种安装方式之前有一点需要说明的是,在不同的linux发行版上面在线安装方式会有一些差异包括使用的命令及它们的包管理工具,因为我们的开发环境是基于ubuntu的,所以这里我们涉及的在线安装方式将只适用于ubuntu发行版,或其它基于ubuntu的发行版如国内的ubuntukylin(优麒麟),ubuntu又是基于debian的发行版,它使用的是debian的包管理工具dpkg,所以一些操作也适用与debian。而在一些采用其它包管理工具的发行版如redhat,centos,fedora等将不适用(redhat和centos使用rpm)。

     

     

    2.1 先体验一下

    比如我们想安装一个软件,名字叫做 w3m(w3m是一个命令行的简易网页浏览器),那么输入如下命令:

    $ sudo apt-get install w3m

    这样的操作你应该在前面的章节中看到过很多次了,它就表示将会安装一个软件包名为w3m的软件

    我们来看看命令执行后的效果:

    $ w3m www.shiyanlou.com/faq

    注意:如果你在安装一个软件之后,无法立即使用Tab键补全这个命令,你可以尝试先执行source ~/.zshrc,然后你就可以使用补全操作。

     

     

    2.2 apt 包管理工具介绍

    APT是Advance Packaging Tool(高级包装工具)的缩写,是Debian及其派生发行版的软件包管理器,APT可以自动下载,配置,安装二进制或者源代码格式的软件包,因此简化了Unix系统上管理软件的过程。APT最早被设计成dpkg的前端,用来处理deb格式的软件包。现在经过APT-RPM组织修改,APT已经可以安装在支持RPM的系统管理RPM包。这个包管理器包含以 apt- 开头的多个工具,如 apt-get apt-cacheapt-cdrom 等,在Debian系列的发行版中使用。

    当你在执行安装操作时,首先apt-get 工具会在本地的一个数据库中搜索关于 w3m 软件的相关信息,并根据这些信息在相关的服务器上下载软件安装,这里大家可能会一个疑问:既然是在线安装软件,为啥会在本地的数据库中搜索?要解释这个问题就得提到几个名词了:

    • 软件源镜像服务器
    • 软件源

    我们需要定期从服务器上下载一个软件包列表,使用 sudo apt-get update 命令来保持本地的软件包列表是最新的(有时你也需要手动执行这个操作,比如更换了软件源),而这个表里会有软件依赖信息的记录,对于软件依赖,我举个例子:我们安装 w3m 软件的时候,而这个软件需要 libgc1c2 这个软件包才能正常工作,这个时候 apt-get 在安装软件的时候会一并替我们安装了,以保证 w3m 能正常的工作。

     

     

    2.3 apt-get

    apt-get 是用于处理 apt包的公用程序集,我们可以用它来在线安装、卸载和升级软件包等,下面列出一些apt-get包含的常用的一些工具:

    工具

    说明

    install

    其后加上软件包名,用于安装一个软件包

    update

    从软件源镜像服务器上下载/更新用于更新本地软件源的软件包列表

    upgrade

    升级本地可更新的全部软件包,但存在依赖问题时将不会升级,通常会在更新之前执行一次update

    dist-upgrade

    解决依赖关系并升级(存在一定危险性)

    remove

    移除已安装的软件包,包括与被移除软件包有依赖关系的软件包,但不包含软件包的配置文件

    autoremove

    移除之前被其他软件包依赖,但现在不再被使用的软件包

    purge

    与remove相同,但会完全移除软件包,包含其配置文件

    clean

    移除下载到本地的已经安装的软件包,默认保存在/var/cache/apt/archives/

    autoclean

    移除已安装的软件的旧版本软件包

    下面是一些apt-get常用的参数:

    参数

    说明

    -y

    自动回应是否安装软件包的选项,在一些自动化安装脚本中使用这个参数将十分有用

    -s

    模拟安装

    -q

    静默安装方式,指定多个q或者-q=#,#表示数字,用于设定静默级别,这在你不想要在安装软件包时屏幕输出过多时很有用

    -f

    修复损坏的依赖关系

    -d

    只下载不安装

    --reinstall

    重新安装已经安装但可能存在问题的软件包

    --install-suggests

    同时安装APT给出的建议安装的软件包

     

     

     

    2.4 安装软件包

    关于安装,如前面演示的一样你只需要执行apt-get install <软件包名>即可,除了这一点,你还应该掌握的是如何重新安装软件包。 很多时候我们需要重新安装一个软件包,比如你的系统被破坏,或者一些错误的配置导致软件无法正常工作。

    你可以使用如下方式重新安装:

    $ sudo apt-get --reinstall install w3m

    另一个你需要掌握的是,如何在不知道软件包完整名的时候进行安装。通常我们是使用Tab键补全软件包名,后面会介绍更好的方法来搜索软件包。有时候你需要同时安装多个软件包,你还可以使用正则表达式匹配软件包名进行批量安装。

     

    2.5 软件升级

    # 更新软件源 $ sudo apt-get update # 升级没有依赖问题的软件包 $ sudo apt-get upgrade # 升级并解决依赖关系 $ sudo apt-get dist-upgrade

     

     

    2.6 卸载软件

    如果你现在觉得 w3m 这个软件不合自己的胃口,或者是找到了更好的,你需要卸载它,那么简单!同样是一个命令加回车 sudo apt-get remove w3m ,系统会有一个确认的操作,之后这个软件便“滚蛋了”。

    或者,你可以执行

    # 不保留配置文件的移除 $ sudo apt-get purge w3m # 或者 sudo apt-get --purge remove # 移除不再需要的被依赖的软件包 $ sudo apt-get autoremove

     

     

     

    当自己刚知道了一个软件,想下载使用,需要确认软件仓库里面有没有,就需要用到搜索功能了,命令如下:

    sudo apt-cache search softname1 softname2 softname3……

    apt-cache 命令则是针对本地数据进行相关操作的工具,search 顾名思义在本地的数据库中寻找有关 softname1 softname2 …… 相关软件的信息。现在我们试试搜索一下之前我们安装的软件 w3m ,如图:

    结果显示了4个 w3m 相关的软件,并且有相关软件的简介。

    关于在线安装的的内容我们就介绍这么多,想了解更多关于APT的内容,你可以参考:

     

     

    3.1 dpkg 介绍

    dpkg 是 Debian 软件包管理器的基础,它被伊恩·默多克创建于 1993 年。dpkg 与 RPM 十分相似,同样被用于安装、卸载和供给和 .deb 软件包相关的信息。

    dpkg 本身是一个底层的工具。上层的工具,像是 APT,被用于从远程获取软件包以及处理复杂的软件包关系。"dpkg"是"Debian Package"的简写。

    我们经常可以在网络上见到以deb形式打包的软件包,就需要使用dpkg命令来安装。

    dpkg常用参数介绍:

    参数

    说明

    -i

    安装指定deb包

    -R

    后面加上目录名,用于安装该目录下的所有deb安装包

    -r

    remove,移除某个已安装的软件包

    -I

    显示deb包文件的信息

    -s

    显示已安装软件的信息

    -S

    搜索已安装的软件包

    -L

    显示已安装软件包的目录信息

     

     

    3.2 使用dpkg安装deb软件包

    我们先使用apt-get加上-d参数只下载不安装,下载emacs编辑器的deb包,下载完成后,我们可以查看/var/cache/apt/archives/目录下的内容,如下图:

    然后我们将第一个deb拷贝到 /home/shiyanlou 目录下,并使用dpkg安装

    $ cp /var/cache/apt/archives/emacs24_24.5+1-6ubuntu1.1_amd64.deb ~ # 安装之前参看deb包的信息 $ sudo dpkg -I emacs24_24.5+1-6ubuntu1.1_amd64.deb

    如你所见,这个包还额外依赖了一些软件包,这意味着,如果主机目前没有这些被依赖的软件包,直接使用dpkg安装可能会存在一些问题,因为dpkg并不能为你解决依赖关系。

    # 使用dpkg安装 $ sudo dpkg -i emacs24_24.5+1-6ubuntu1.1_amd64.deb

    跟前面预料的一样,这里你可能出现了一些错误:

    我们将如何解决这个错误呢?这就要用到apt-get了,使用它的-f参数了,修复依赖关系的安装

    $ sudo apt-get update $ sudo apt-get -f install

    没有任何错误,这样我们就安装成功了,然后你可以运行emacs程序

     

     

    3.3 查看已安装软件包的安装目录

    如果你依然在纠结到底linux将软件安装到了什么地方,那么很幸运你将可以通过dpkg找到答案

    使用dpkg -L查看deb包目录信息

    $ sudo dpkg -L emacs24

    dpkg还有一些其他的参数,这里将作为练习题由你自己来学习

     

     

    四、从二进制包安装

    二进制包的安装比较简单,我们需要做的只是将从网络上下载的二进制包解压后放到合适的目录,然后将包含可执行的主程序文件的目录添加进PATH环境变量即可,如果你不知道该放到什么位置,请重新复习第四节关于 Linux 目录结构的内容。

     

     

    一、实验介绍

    1.1 实验内容

    Linux 中也难免遇到某个程序无响应的情况,可以通过一些命令来帮助我们让系统能够更流畅的运行。 而在此之前,我们需要对进程的基础知识有一定的了解,才能更好、更有效率的使用Linux 提供的工具。

    1.2实验知识点

    • 进程与程序
    • 进程的衍生
    • 工作管理

     

     

    二、概念的理解

    首先程序与进程是什么?程序与进程又有什么区别?

    程序(procedure):不太精确地说,程序就是执行一系列有逻辑、有顺序结构的指令,帮我们达成某个结果。就如我们去餐馆,给服务员说我要牛肉盖浇饭,她执行了做牛肉盖浇饭这么一个程序,最后我们得到了这么一盘牛肉盖浇饭。它需要去执行,不然它就像一本武功秘籍,放在那里等人翻看。

    进程(process):进程是程序在一个数据集合上的一次执行过程,在早期的UNIX、Linux 2.4及更早的版本中,它是系统进行资源分配和调度的独立基本单位。同上一个例子,就如我们去了餐馆,给服务员说我要牛肉盖浇饭,她执行了做牛肉盖浇饭这么一个程序,而里面做饭的是一个进程,做牛肉汤汁的是一个进程,把牛肉汤汁与饭混合在一起的是一个进程,把饭端上桌的是一个进程。它就像是我们在看武功秘籍这么一个过程,然后一个篇章一个篇章地去练。

    简单来说,程序是为了完成某种任务而设计的软件,比如 vim 是程序。什么是进程呢?进程就是运行中的程序。

    程序只是一些列指令的集合,是一个静止的实体,而进程不同,进程有以下的特性:

    • 动态性:进程的实质是一次程序执行的过程,有创建、撤销等状态的变化。而程序是一个静态的实体。
    • 并发性:进程可以做到在一个时间段内,有多个程序在运行中。程序只是静态的实体,所以不存在并发性。
    • 独立性:进程可以独立分配资源,独立接受调度,独立地运行。
    • 异步性:进程以不可预知的速度向前推进。
    • 结构性:进程拥有代码段、数据段、PCB(进程控制块,进程存在的唯一标志)。也正是因为有结构性,进程才可以做到独立地运行。

    并发:在一个时间段内,宏观来看有多个程序都在活动,有条不紊的执行(每一瞬间只有一个在执行,只是在一段时间有多个程序都执行过)

    并行:在每一个瞬间,都有多个程序都在同时执行,这个必须有多个 CPU 才行

    引入进程是因为传统意义上的程序已经不足以描述 OS 中各种活动之间的动态性、并发性、独立性还有相互制约性。程序就像一个公司,只是一些证书,文件的堆积(静态实体)。而当公司运作起来就有各个部门的区分,财务部,技术部,销售部等等,就像各个进程,各个部门之间可以独立运做,也可以有交互(独立性、并发性)。

    而随着程序的发展越做越大,又会继续细分,从而引入了线程的概念,当代多数操作系统、Linux 2.6及更新的版本中,进程本身不是基本运行单位,而是线程的容器。就像上述所说的,每个部门又会细分为各个工作小组(线程),而工作小组需要的资源需要向上级(进程)申请。

    线程(thread)是操作系统能够进行运算调度的最小单位。它被包含在进程之中,是进程中的实际运作单位。一条线程指的是进程中一个单一顺序的控制流,一个进程中可以并发多个线程,每条线程并行执行不同的任务。因为线程中几乎不包含系统资源,所以执行更快、更有效率。

    简而言之,一个程序至少有一个进程,一个进程至少有一个线程。线程的划分尺度小于进程,使得多线程程序的并发性高。另外,进程在执行过程中拥有独立的内存单元,而多个线程共享内存,从而极大地提高了程序的运行效率。就如下图所示:

     

     

     

    3.1 进程的分类

    大概明白进程是个什么样的存在后,我们需要进一步了解的就是进程分类。可以从两个角度来分:

    • 以进程的功能与服务的对象来分;
    • 以应用程序的服务类型来分;

    第一个角度来看,我们可以分为用户进程与系统进程:

    • 用户进程:通过执行用户程序、应用程序或称之为内核之外的系统程序而产生的进程,此类进程可以在用户的控制下运行或关闭。
    • 系统进程:通过执行系统内核程序而产生的进程,比如可以执行内存资源分配和进程切换等相对底层的工作;而且该进程的运行不受用户的干预,即使是 root 用户也不能干预系统进程的运行。

    第二角度来看,我们可以将进程分为交互进程、批处理进程、守护进程

    • 交互进程:由一个 shell 终端启动的进程,在执行过程中,需要与用户进行交互操作,可以运行于前台,也可以运行在后台。
    • 批处理进程:该进程是一个进程集合,负责按顺序启动其他的进程。
    • 守护进程:守护进程是一直运行的一种进程,在 Linux 系统启动时启动,在系统关闭时终止。它们独立于控制终端并且周期性的执行某种任务或等待处理某些发生的事件。例如 httpd 进程,一直处于运行状态,等待用户的访问。还有经常用的 cron(在 centOS 系列为 crond)进程,这个进程为 crontab 的守护进程,可以周期性的执行用户设定的某些任务。

     

     

    3.2 进程的衍生

    进程有这么多的种类,那么进程之间定是有相关性的,而这些有关联性的进程又是如何产生的,如何衍生的?

    就比如我们启动了终端,就是启动了一个 bash 进程,我们可以在 bash 中再输入 bash 则会再启动一个 bash 的进程,此时第二个 bash 进程就是由第一个 bash 进程创建出来的,他们之间又是个什么关系?

    我们一般称呼第一个 bash 进程是第二 bash 进程的父进程,第二 bash 进程是第一个 bash 进程的子进程,这层关系是如何得来的呢?

    关于父进程与子进程便会提及这两个系统调用 fork() 与 exec()

    fork-exec是由 Dennis M. Ritchie 创造的

    fork() 是一个系统调用(system call),它的主要作用就是为当前的进程创建一个新的进程,这个新的进程就是它的子进程,这个子进程除了父进程的返回值和 PID 以外其他的都一模一样,如进程的执行代码段,内存信息,文件描述,寄存器状态等等

    exec() 也是系统调用,作用是切换子进程中的执行程序也就是替换其从父进程复制过来的代码段与数据段

    子进程就是父进程通过系统调用 fork() 而产生的复制品,fork() 就是把父进程的 PCB 等进程的数据结构信息直接复制过来,只是修改了 PID,所以一模一样,只有在执行 exec() 之后才会不同,而早先的 fork() 比较消耗资源后来进化成 vfork(),效率高了不少,感兴趣的同学可以查查为什么。

    这就是子进程产生的由来。简单的实现逻辑就如下方所示【注释1】

    pid_t p; p = fork(); if (p == (pid_t) -1) /* ERROR */ else if (p == 0) /* CHILD */ else /* PARENT */

    既然子进程是通过父进程而衍生出来的,那么子进程的退出与资源的回收定然与父进程有很大的相关性。当一个子进程要正常的终止运行时,或者该进程结束时它的主函数 main() 会执行 exit(n); 或者 return n,这里的返回值 n 是一个信号,系统会把这个 SIGCHLD 信号传给其父进程,当然若是异常终止也往往是因为这个信号。

    在将要结束时的子进程代码执行部分已经结束执行了,系统的资源也基本归还给系统了,但若是其进程的进程控制块(PCB)仍驻留在内存中,而它的 PCB 还在,代表这个进程还存在(因为 PCB 就是进程存在的唯一标志,里面有 PID 等消息),并没有消亡,这样的进程称之为僵尸进程(Zombie)。

    如图中第四列标题是 S,S 表示的是进程的状态,而在下属的第三行的 Z 表示的是 Zombie 的意思。( ps 命令将在后续详解)

    正常情况下,父进程会收到两个返回值:exit code(SIGCHLD 信号)与 reason for termination 。之后,父进程会使用 wait(&status) 系统调用以获取子进程的退出状态,然后内核就可以从内存中释放已结束的子进程的 PCB;而如若父进程没有这么做的话,子进程的 PCB 就会一直驻留在内存中,一直留在系统中成为僵尸进程(Zombie)。

    虽然僵尸进程是已经放弃了几乎所有内存空间,没有任何可执行代码,也不能被调度,在进程列表中保留一个位置,记载该进程的退出状态等信息供其父进程收集,从而释放它。但是 Linux 系统中能使用的 PID 是有限的,如果系统中存在有大量的僵尸进程,系统将会因为没有可用的 PID 从而导致不能产生新的进程。

    另外如果父进程结束(非正常的结束),未能及时收回子进程,子进程仍在运行,这样的子进程称之为孤儿进程。在 Linux 系统中,孤儿进程一般会被 init 进程所“收养”,成为 init 的子进程。由 init 来做善后处理,所以它并不至于像僵尸进程那样无人问津,不管不顾,大量存在会有危害。

    进程 0 是系统引导时创建的一个特殊进程,也称之为内核初始化,其最后一个动作就是调用 fork() 创建出一个子进程运行 /sbin/init 可执行文件,而该进程就是 PID=1 的进程 1,而进程 0 就转为交换进程(也被称为空闲进程),进程 1 (init 进程)是第一个用户态的进程,再由它不断调用 fork() 来创建系统里其他的进程,所以它是所有进程的父进程或者祖先进程。同时它是一个守护程序,直到计算机关机才会停止。

    通过以下的命令我们可以很明显的看到这样的结构

    pstree

    或者从此图我们可以更加形象的看清子父进程的关系

    通过以上的显示结果我们可以看的很清楚,init 为所有进程的父进程或者说是祖先进程

    我们还可以使用这样一个命令来看,其中 pid 就是该进程的一个唯一编号,ppid 就是该进程的父进程的 pid,command 表示的是该进程通过执行什么样的命令或者脚本而产生的

    ps -fxo user,ppid,pid,pgid,command

    可以在图中看见我们执行的 ps 就是由 zsh 通过 fork-exec 创建的子进程而执行的

    使用这样的一个命令我们也能清楚的看见 init 如上文所说是由进程 0 这个初始化进程来创建出来的子进程,而其他的进程基本是由 init 创建的子进程,或者是由它的子进程创建出来的子进程。所以 init 是用户进程的第一个进程也是所有用户进程的父进程或者祖先进程。(ps 命令将在后续课程详解)

    就像一个树状图,而 init 进程就是这棵树的根,其他进程由根不断的发散,开枝散叶

     

     

    3.3 进程组与 Sessions

    每一个进程都会是一个进程组的成员,而且这个进程组是唯一存在的,他们是依靠 PGID(process group ID)来区别的,而每当一个进程被创建的时候,它便会成为其父进程所在组中的一员。

    一般情况,进程组的 PGID 等同于进程组的第一个成员的 PID,并且这样的进程称为该进程组的领导者,也就是领导进程,进程一般通过使用 getpgrp() 系统调用来寻找其所在组的 PGID,领导进程可以先终结,此时进程组依然存在,并持有相同的PGID,直到进程组中最后一个进程终结。

    与进程组类似,每当一个进程被创建的时候,它便会成为其父进程所在 Session 中的一员,每一个进程组都会在一个 Session 中,并且这个 Session 是唯一存在的,

    Session 主要是针对一个 tty 建立,Session 中的每个进程都称为一个工作(job)。每个会话可以连接一个终端(control terminal)。当控制终端有输入输出时,都传递给该会话的前台进程组。Session 意义在于将多个 jobs 囊括在一个终端,并取其中的一个 job 作为前台,来直接接收该终端的输入输出以及终端信号。 其他 jobs 在后台运行。

    前台(foreground)就是在终端中运行,能与你有交互的

    后台(background)就是在终端中运行,但是你并不能与其任何的交互,也不会显示其执行的过程

     

     

     

    3.4 工作管理

    bash(Bourne-Again shell)支持工作控制(job control),而 sh(Bourne shell)并不支持。

    并且每个终端或者说 bash 只能管理当前终端中的 job,不能管理其他终端中的 job。比如我当前存在两个 bash 分别为 bash1、bash2,bash1 只能管理其自己里面的 job 并不能管理 bash2 里面的 job

    我们都知道当一个进程在前台运作时我们可以用 ctrl + c 来终止它,但是若是在后台的话就不行了。

    我们可以通过 & 这个符号,让我们的命令在后台中运行

    ls &

    图中所显示的 [1] 236分别是该 job 的 job number 与该进程的 PID,而最后一行的 Done 表示该命令已经在后台执行完毕。

    我们还可以通过 ctrl + z 使我们的当前工作停止并丢到后台中去

    被停止并放置在后台的工作我们可以使用这个命令来查看

    jobs

    其中第一列显示的为被放置后台 job 的编号,而第二列的 + 表示最近(刚刚、最后)被放置后台的 job,同时也表示预设的工作,也就是若是有什么针对后台 job 的操作,首先对预设的 job,- 表示倒数第二(也就是在预设之前的一个)被放置后台的工作,倒数第三个(再之前的)以后都不会有这样的符号修饰,第三列表示它们的状态,而最后一列表示该进程执行的命令

    我们可以通过这样的一个命令将后台的工作拿到前台来

    #后面不加参数提取预设工作,加参数提取指定工作的编号 #ubuntu 在 zsh 中需要 %,在 bash 中不需要 % fg [%jobnumber]

    之前我们通过 ctrl + z 使得工作停止放置在后台,若是我们想让其在后台运作我们就使用这样一个命令

    #与fg类似,加参则指定,不加参则取预设 bg [%jobnumber]

    既然有方法将被放置在后台的工作提至前台或者让它从停止变成继续运行在后台,当然也有方法删除一个工作,或者重启等等

    #kill的使用格式如下 kill -signal %jobnumber #signal从1-64个信号值可以选择,可以这样查看 kill -l

    其中常用的有这些信号值

    信号值

    作用

    -1

    重新读取参数运行,类似与restart

    -2

    如同 ctrl+c 的操作退出

    -9

    强制终止该任务

    -15

    正常的方式终止该任务

    注意

    若是在使用kill+信号值然后直接加 pid,你将会对 pid 对应的进程进行操作

    若是在使用kill+信号值然后 %jobnumber,这时所操作的对象是 job,这个数字就是就当前 bash 中后台的运行的 job 的 ID

     

     

    一、实验介绍

    1.1 实验内容

    通过本实验我们将掌握一些 Linux 所提供的工具来进行进程的查看与控制,掌握这些工具让我们能在某些进程出现异常的时候及时查看相关的指标,从而解决问题。

    1.2 实验知识点

    • 查看进程的运行状态
    • 进程的结束控制
    • 进程的执行顺序

     

     

    不管在测试的时候、在实际的生产环境中,还是自己的使用过程中,难免会遇到一些进程异常的情况,所以 Linux 为我们提供了一些工具来查看进程的状态信息。我们可以通过 top 实时的查看进程的状态,以及系统的一些信息(如 CPU、内存信息等),我们还可以通过 ps 来静态查看当前的进程信息,同时我们还可以使用 pstree 来查看当前活跃进程的树形结构。

     

     

    2.1 top 工具的使用

    top 工具是我们常用的一个查看工具,能实时的查看我们系统的一些关键信息的变化:

    top

    top 是一个在前台执行的程序,所以执行后便进入到这样的一个交互界面,正是因为交互界面我们才可以实时的获取到系统与进程的信息。在交互界面中我们可以通过一些指令来操作和筛选。在此之前我们先来了解显示了哪些信息。

    我们看到 top 显示的第一排,

    内容

    解释

    top

    表示当前程序的名称

    11:05:18

    表示当前的系统的时间

    up 8 days,17:12

    表示该机器已经启动了多长时间

    1 user

    表示当前系统中只有一个用户

    load average: 0.29,0.20,0.25

    分别对应1、5、15分钟内cpu的平均负载

    load average 在 wikipedia 中的解释是 the system load is a measure of the amount of work that a computer system is doing 也就是对当前 CPU 工作量的度量,具体来说也就是指运行队列的平均长度,也就是等待 CPU 的平均进程数相关的一个计算值。

    我们该如何看待这个load average 数据呢?

    假设我们的系统是单 CPU、单内核的,把它比喻成是一条单向的桥,把CPU任务比作汽车。

    • load = 0 的时候意味着这个桥上并没有车,cpu 没有任何任务;
    • load < 1 的时候意味着桥上的车并不多,一切都还是很流畅的,cpu 的任务并不多,资源还很充足;
    • load = 1 的时候就意味着桥已经被车给占满了,没有一点空隙,cpu 的已经在全力工作了,所有的资源都被用完了,当然还好,这还在能力范围之内,只是有点慢而已;
    • load > 1 的时候就意味着不仅仅是桥上已经被车占满了,就连桥外都被占满了,cpu 已经在全力工作,系统资源的用完了,但是还是有大量的进程在请求,在等待。若是这个值大于2、大于3,表示进程请求超过 CPU 工作能力的 2 到 3 倍。而若是这个值 > 5 说明系统已经在超负荷运作了。

    这是单个 CPU 单核的情况,而实际生活中我们需要将得到的这个值除以我们的核数来看。我们可以通过以下的命令来查看 CPU 的个数与核心数

    #查看物理CPU的个数 #cat /proc/cpuinfo |grep "physical id"|sort |uniq|wc -l #每个cpu的核心数 cat /proc/cpuinfo |grep "physical id"|grep "0"|wc -l

    通过上面的指数我们可以得知 load 的临界值为 1 ,但是在实际生活中,比较有经验的运维或者系统管理员会将临界值定为0.7。这里的指数都是除以核心数以后的值,不要混淆了

    • 若是 load < 0.7 并不会去关注他;
    • 若是 0.7< load < 1 的时候我们就需要稍微关注一下了,虽然还可以应付但是这个值已经离临界不远了;
    • 若是 load = 1 的时候我们就需要警惕了,因为这个时候已经没有更多的资源的了,已经在全力以赴了;
    • 若是 load > 5 的时候系统已经快不行了,这个时候你需要加班解决问题了

    通常我们都会先看 15 分钟的值来看这个大体的趋势,然后再看 5 分钟的值对比来看是否有下降的趋势。

    查看 busybox 的代码可以知道,数据是每 5 秒钟就检查一次活跃的进程数,然后计算出该值,然后 load 从 /proc/loadavg 中读取的。而这个 load 的值是如何计算的呢,这是 load 的计算的源码

    #define FSHIFT 11 /* nr of bits of precision */ #define FIXED_1 (1<<FSHIFT) /* 1.0 as fixed-point(定点) */ #define LOAD_FREQ (5*HZ) /* 5 sec intervals,每隔5秒计算一次平均负载值 */ #define CALC_LOAD(load, exp, n) \ load *= exp; \ load += n*(FIXED_1 - exp); \ load >>= FSHIFT; unsigned long avenrun[3]; EXPORT_SYMBOL(avenrun); /* * calc_load - given tick count, update the avenrun load estimates. * This is called while holding a write_lock on xtime_lock. */ static inline void calc_load(unsigned long ticks) { unsigned long active_tasks; /* fixed-point */ static int count = LOAD_FREQ; count -= ticks; if (count < 0) { count += LOAD_FREQ; active_tasks = count_active_tasks(); CALC_LOAD(avenrun[0], EXP_1, active_tasks); CALC_LOAD(avenrun[1], EXP_5, active_tasks); CALC_LOAD(avenrun[2], EXP_15, active_tasks); } }

    有兴趣的朋友可以研究一下,是如何计算的。代码中的后面这部分相当于它的计算公式

    我们回归正题,来看 top 的第二行数据,基本上第二行是进程的一个情况统计

    内容

    解释

    Tasks: 26 total

    进程总数

    1 running

    1个正在运行的进程数

    25 sleeping

    25个睡眠的进程数

    0 stopped

    没有停止的进程数

    0 zombie

    没有僵尸进程数

    来看 top 的第三行数据,这一行基本上是 CPU 的一个使用情况的统计了

    内容

    解释

    Cpu(s): 1.0%us

    用户空间进程占用CPU百分比

    1.0% sy

    内核空间运行占用CPU百分比

    0.0%ni

    用户进程空间内改变过优先级的进程占用CPU百分比

    97.9%id

    空闲CPU百分比

    0.0%wa

    等待输入输出的CPU时间百分比

    0.1%hi

    硬中断(Hardware IRQ)占用CPU的百分比

    0.0%si

    软中断(Software IRQ)占用CPU的百分比

    0.0%st

    (Steal time) 是 hypervisor 等虚拟服务中,虚拟 CPU 等待实际 CPU 的时间的百分比

    CPU 利用率是对一个时间段内 CPU 使用状况的统计,通过这个指标可以看出在某一个时间段内 CPU 被占用的情况,而 Load Average 是 CPU 的 Load,它所包含的信息不是 CPU 的使用率状况,而是在一段时间内 CPU 正在处理以及等待 CPU 处理的进程数情况统计信息,这两个指标并不一样。

    来看 top 的第四行数据,这一行基本上是内存的一个使用情况的统计了:

    内容

    解释

    8176740 total

    物理内存总量

    8032104 used

    使用的物理内存总量

    144636 free

    空闲内存总量

    313088 buffers

    用作内核缓存的内存量

    注意

    系统中可用的物理内存最大值并不是 free 这个单一的值,而是 free + buffers + swap 中的 cached 的和

    来看 top 的第五行数据,这一行基本上是交换区的一个使用情况的统计了

    内容

    解释

    total

    交换区总量

    used

    使用的交换区总量

    free

    空闲交换区总量

    cached

    缓冲的交换区总量,内存中的内容被换出到交换区,而后又被换入到内存,但使用过的交换区尚未被覆盖

    再下面就是进程的一个情况了

    列名

    解释

    PID

    进程id

    USER

    该进程的所属用户

    PR

    该进程执行的优先级 priority 值

    NI

    该进程的 nice 值

    VIRT

    该进程任务所使用的虚拟内存的总数

    RES

    该进程所使用的物理内存数,也称之为驻留内存数

    SHR

    该进程共享内存的大小

    S

    该进程进程的状态: S=sleep R=running Z=zombie

    %CPU

    该进程CPU的利用率

    %MEM

    该进程内存的利用率

    TIME+

    该进程活跃的总时间

    COMMAND

    该进程运行的名字

    注意

    NICE 值叫做静态优先级,是用户空间的一个优先级值,其取值范围是-20至19。这个值越小,表示进程”优先级”越高,而值越大“优先级”越低。nice值中的 -20 到 19,中 -20 优先级最高, 0 是默认的值,而 19 优先级最低

    PR 值表示 Priority 值叫动态优先级,是进程在内核中实际的优先级值,进程优先级的取值范围是通过一个宏定义的,这个宏的名称是 MAX_PRIO,它的值为 140。Linux 实际上实现了 140 个优先级范围,取值范围是从 0-139,这个值越小,优先级越高。而这其中的 0 - 99 是实时进程的值,而 100 - 139 是给用户的。

    其中 PR 中的 100 to 139 值部分有这么一个对应 PR = 20 + (-20 to +19),这里的 -20 to +19 便是nice值,所以说两个虽然都是优先级,而且有千丝万缕的关系,但是他们的值,他们的作用范围并不相同

    ** VIRT **任务所使用的虚拟内存的总数,其中包含所有的代码,数据,共享库和被换出 swap空间的页面等所占据空间的总数

    在上文我们曾经说过 top 是一个前台程序,所以是一个可以交互的

    常用交互命令

    解释

    q

    退出程序

    I

    切换显示平均负载和启动时间的信息

    P

    根据CPU使用百分比大小进行排序

    M

    根据驻留内存大小进行排序

    i

    忽略闲置和僵死的进程,这是一个开关式命令

    k

    终止一个进程,系统提示输入 PID 及发送的信号值。一般终止进程用 15 信号,不能正常结束则使用 9 信号。安全模式下该命令被屏蔽。

    好好的利用 top 能够很有效的帮助我们观察到系统的瓶颈所在,或者是系统的问题所在。

     

     

     

     

    ps 也是我们最常用的查看进程的工具之一,我们通过这样的一个命令来了解一下,他能给我带来哪些信息

    ps aux

    ps axjf

    我们来总体了解下会出现哪些信息给我们,这些信息又代表着什么(更多的 keywords 大家可以通过 man ps 了解)

    内容

    解释

    F

    进程的标志(process flags),当 flags 值为 1 则表示此子程序只是 fork 但没有执行 exec,为 4 表示此程序使用超级管理员 root 权限

    USER

    进程的拥有用户

    PID

    进程的 ID

    PPID

    其父进程的 PID

    SID

    session 的 ID

    TPGID

    前台进程组的 ID

    %CPU

    进程占用的 CPU 百分比

    %MEM

    占用内存的百分比

    NI

    进程的 NICE 值

    VSZ

    进程使用虚拟内存大小

    RSS

    驻留内存中页的大小

    TTY

    终端 ID

    S or STAT

    进程状态

    WCHAN

    正在等待的进程资源

    START

    启动进程的时间

    TIME

    进程消耗CPU的时间

    COMMAND

    命令的名称和参数

    TPGID栏写着-1的都是没有控制终端的进程,也就是守护进程

    STAT表示进程的状态,而进程的状态有很多,如下表所示

    状态

    解释

    R

    Running.运行中

    S

    Interruptible Sleep.等待调用

    D

    Uninterruptible Sleep.不可中断睡眠

    T

    Stoped.暂停或者跟踪状态

    X

    Dead.即将被撤销

    Z

    Zombie.僵尸进程

    W

    Paging.内存交换

    N

    优先级低的进程

    <

    优先级高的进程

    s

    进程的领导者

    L

    锁定状态

    l

    多线程状态

    +

    前台进程

    其中的 D 是不能被中断睡眠的状态,处在这种状态的进程不接受外来的任何 signal,所以无法使用 kill 命令杀掉处于D状态的进程,无论是 kill,kill -9 还是 kill -15,一般处于这种状态可能是进程 I/O 的时候出问题了。

    ps 工具有许多的参数,下面给大家解释部分常用的参数

    使用 -l 参数可以显示自己这次登陆的 bash 相关的进程信息罗列出来

    ps -l

    相对来说我们更加常用下面这个命令,他将会罗列出所有的进程信息

    ps aux

    若是查找其中的某个进程的话,我们还可以配合着 grep 和正则表达式一起使用

    ps aux | grep zsh

    此外我们还可以查看时,将连同部分的进程呈树状显示出来

    ps axjf

    当然如果你觉得使用这样的此时没有把你想要的信息放在一起,我们也可以是用这样的命令,来自定义我们所需要的参数显示

    ps -afxo user,ppid,pid,pgid,command

    这是一个简单而又实用的工具,想要更灵活的使用,想要知道更多的参数我们可以使用 man 来获取更多相关的信息

     

     

    2.3 pstree 工具的使用

    通过 pstree 可以很直接的看到相同的进程数量,最主要的还是我们可以看到所有进程之间的相关性。

    pstree

    pstree -up #参数选择: #-A :各程序树之间以 ASCII 字元來連接; #-p :同时列出每个 process 的 PID; #-u :同时列出每个 process 的所屬账户名称。

     

     

     

    3.1 kill 命令的掌握

    上个实验中我们讲诉了进程之间是如何衍生,之间又有什么相关性,我们来回顾一下,当一个进程结束的时候或者要异常结束的时候,会向其父进程返回一个或者接收一个 SIGHUP 信号而做出的结束进程或者其他的操作,这个 SIGHUP 信号不仅可以由系统发送,我们可以使用 kill 来发送这个信号来操作进程的结束或者重启等等。

    上节课程我们使用 kill 命令来管理我们的一些 job,这节课我们将尝试用 kill 来操作下一些不属于 job 范畴的进程,直接对 pid 下手

    #首先我们使用图形界面打开了 gedit、gvim,用 ps 可以查看到 ps aux #使用9这个信号强制结束 gedit 进程 kill -9 1608 #我们再查找这个进程的时候就找不到了 ps aux | grep gedit

     

     

     

    3.2 进程的执行顺序

    我们在使用 ps 命令的时候可以看到大部分的进程都是处于休眠的状态,如果这些进程都被唤醒,那么该谁最先享受 CPU 的服务,后面的进程又该是一个什么样的顺序呢?进程调度的队列又该如何去排列呢?

    当然就是靠该进程的优先级值来判定进程调度的优先级,而优先级的值就是上文所提到的 PR 与 nice 来控制与体现了

    而 nice 的值我们是可以通过 nice 命令来修改的,而需要注意的是 nice 值可以调整的范围是 -20 ~ 19,其中 root 有着至高无上的权力,既可以调整自己的进程也可以调整其他用户的程序,并且是所有的值都可以用,而普通用户只可以调制属于自己的进程,并且其使用的范围只能是 0 ~ 19,因为系统为了避免一般用户抢占系统资源而设置的一个限制

    #这个实验在环境中无法做,因为权限不够,可以自己在本地尝试 #打开一个程序放在后台,或者用图形界面打开 nice -n -5 vim & #用 ps 查看其优先级 ps -afxo user,ppid,pid,stat,pri,ni,time,command | grep vim

    我们还可以用 renice 来修改已经存在的进程的优先级,同样因为权限的原因在实验环境中无法尝试

    renice -5 pid

     

     

    一、实验介绍

    1.1 实验内容

    日志数据可以是有价值的信息宝库,也可以是毫无价值的数据泥潭。它可以记录下系统产生的所有行为,并按照某种规范表达出来。我们可以使用日志系统所记录的信息为系统进行排错,优化系统的性能,或者根据这些信息调整系统的行为。收集你想要的数据,分析出有价值的信息,可以提高系统、产品的安全性,还可以帮助开发完善代码,优化产品。日志会成为在事故发生后查明“发生了什么”的一个很好的“取证”信息来源。日志可以为审计进行审计跟踪。

    1.2 实验知识点

    • 常见的日志
    • 配置的日志
    • 轮替的日志

    二、常见的日志

    日志是一个系统管理员,一个运维人员,甚至是开发人员不可或缺的东西,系统用久了偶尔也会出现一些错误,我们需要日志来给系统排错,在一些网络应用服务不能正常工作的时候,我们需要用日志来做问题定位,日志还是过往时间的记录本,我们可以通过它知道我们是否被不明用户登录过等等。

    在 Linux 中大部分的发行版都内置使用 syslog 系统日志,那么通过前期的课程我们了解到常见的日志一般存放在 /var/log 中,我们来看看其中有哪些日志

    根据图中所显示的日志,我们可以根据服务对象粗略的将日志分为两类

    • 系统日志
    • 应用日志

    系统日志主要是存放系统内置程序或系统内核之类的日志信息如 alternatives.log 、btmp 等等,应用日志主要是我们装的第三方应用所产生的日志如 tomcat7 、apache2 等等。

    接下来我们来看看常见的系统日志有哪些,他们都记录了怎样的信息

    日志名称

    记录信息

    alternatives.log

    系统的一些更新替代信息记录

    apport.log

    应用程序崩溃信息记录

    apt/history.log

    使用 apt-get 安装卸载软件的信息记录

    apt/term.log

    使用 apt-get 时的具体操作,如 package 的下载、打开等

    auth.log

    登录认证的信息记录

    boot.log

    系统启动时的程序服务的日志信息

    btmp

    错误的信息记录

    Consolekit/history

    控制台的信息记录

    dist-upgrade

    dist-upgrade 这种更新方式的信息记录

    dmesg

    启动时,显示屏幕上内核缓冲信息,与硬件有关的信息

    dpkg.log

    dpkg 命令管理包的日志。

    faillog

    用户登录失败详细信息记录

    fontconfig.log

    与字体配置有关的信息记录

    kern.log

    内核产生的信息记录,在自己修改内核时有很大帮助

    lastlog

    用户的最近信息记录

    wtmp

    登录信息的记录。wtmp可以找出谁正在进入系统,谁使用命令显示这个文件或信息等

    syslog

    系统信息记录

    而在本实验环境中没有 apport.log 是因为 apport 这个应用程序需要读取一些内核的信息来收集判断其他应用程序的信息,从而记录应用程序的崩溃信息。而在本实验环境中我们没有这个权限,所以将 apport 从内置应用值剔除,自然而然就没有它的日志信息了。

    只闻其名,不见其人,我们并不能明白这些日志记录的内容。首先我们来看 alternatives.log 中的信息,在本实验环境中没有任何日志输出是因为刚刚启动的系统中并没有任何的更新迭代。我可以看看从其他地方截取过来的内容

    update-alternatives 2016-07-02 13:36:16: run with --install /usr/bin/x-www-browser x-www-browser /usr/bin/google-chrome-stable 200 update-alternatives 2016-07-02 13:36:16: run with --install /usr/bin/gnome-www-browser gnome-www-browser /usr/bin/google-chrome-stable 200 update-alternatives 2016-07-02 13:36:16: run with --install /usr/bin/google-chrome google-chrome /usr/bin/google-chrome-stable 200

    我们可以从中得到的信息有程序作用,日期,命令,成功与否的返回码

    我们用这样的命令来看看 auth.log 中的信息

    less auth.log

    我们可以从中得到的信息有日期与 ip 地址的来源以及的用户与工具

    在 apt 文件夹中的日志信息,其中有两个日志文件 history.log 与 term.log,两个日志文件的区别在于 history.log 主要记录了进行了哪个操作,相关的依赖有哪些,而 term.log 则是较为具体的一些操作,主要就是下载包,打开包,安装包等等的细节操作。

    我们通过这样的例子就可以很明显的看出区别,在本实验环境中因为是刚启动的环境,所以两个日志中的信息都是空的

    less /var/log/apt/history.log less /var/log/apt/term.log

    然后我们来安装 git 这个程序,因为本实验环境中本有预装 git 所以这里真正执行的操作是一个更新的操作,但这并不影响

    sudo apt-get install git

    成功的执行之后我们再来查看两个日志的内容变化

    其他的日志格式也都类似于之前我们所查看的日志,主要便是时间,操作。而这其中有两个比较特殊的日志,其查看的方式比较与众不同,因为这两个日志并不是 ASCII 文件而是被编码成了二进制文件,所以我们并不能直接使用 less、cat、more 这样的工具来查看,这两个日志文件是 wtmp,lastlog

    我们查看的方法是使用 last 与 lastlog 工具来提取其中的信息

    关于这两个工具的更深入使用我们可以使用前面的学习过的 man 来查看

     

    三、配置的日志

    这些日志是如何产生的?通过上面的例子我们可以看出大部分的日志信息似乎格式都很类似,并且都出现在这个文件夹中。

    这样的实现可以通过两种方式:

    • 一种是由软件开发商自己来自定义日志格式然后指定输出日志位置;
    • 一种方式就是 Linux 提供的日志服务程序,而我们这里系统日志是通过 syslog 来实现,提供日志管理服务。

    syslog 是一个系统日志记录程序,在早期的大部分 Linux 发行版都是内置 syslog,让其作为系统的默认日志收集工具,虽然随着时代的进步与发展,syslog 已经年老体衰跟不上时代的需求,所以他被 rsyslog 所代替了,较新的 Ubuntu、Fedora 等等都是默认使用 rsyslog 作为系统的日志收集工具

    rsyslog的全称是 rocket-fast system for log,它提供了高性能,高安全功能和模块化设计。rsyslog 能够接受各种各样的来源,将其输入,输出的结果到不同的目的地。rsyslog 可以提供超过每秒一百万条消息给目标文件。

    这样能实时收集日志信息的程序是有其守护进程的,如 rsyslog 的守护进程便是 rsyslogd

    因为一些原因本实验环境中默认并没有打开这个服务,我们可以手动开启这项服务,然后来查看

    sudo apt-get update sudo apt-get install -y rsyslog sudo service rsyslog start ps aux | grep syslog

    既然它是一个服务,那么它便是可以配置,为我们提供一些我们自定义的服务

    首先我们来看 rsyslog 的配置文件是什么样子的,而 rsyslog 的配置文件有两个,

    • 一个是 /etc/rsyslog.conf
    • 一个是 /etc/rsyslog.d/50-default.conf。

    第一个主要是配置的环境,也就是 rsyslog 加载什么模块,文件的所属者等;而第二个主要是配置的 Filter Conditions

    vim /etc/rsyslog.conf vim /etc/rsyslog.d/50-default.conf

    也不知道他在写什么,我们还是来看看 rsyslog 的结构框架,数据流的走向吧。

    通过这个简单的流程图我们可以知道 rsyslog 主要是由 Input、Output、Parser 这样三个模块构成的,并且了解到数据的简单走向,首先通过 Input module 来收集消息,然后将得到的消息传给 Parser module,通过分析模块的层层处理,将真正需要的消息传给 Output module,然后便输出至日志文件中。

    上文提到过 rsyslog 号称可以提供超过每秒一百万条消息给目标文件,怎么只是这样简单的结构。我们可以通过下图来做更深入的了解

    (图片来源于http://www.rsyslog.com/doc/queues_analogy.html

    Rsyslog 架构如图中所示,从图中我们可以很清楚的看见,rsyslog 还有一个核心的功能模块便是 Queue,也正是因为它才能做到如此高的并发。

    第一个模块便是 Input,该模块的主要功能就是从各种各样的来源收集 messages,通过这些接口实现:

    接口名

    作用

    im3195

    RFC3195 Input Module

    imfile

    Text File Input Module

    imgssapi

    GSSAPI Syslog Input Module

    imjournal

    Systemd Journal Input Module

    imklog

    Kernel Log Input Module

    imkmsg

    /dev/kmsg Log Input Module

    impstats

    Generate Periodic Statistics of Internal Counters

    imptcp

    Plain TCP Syslog

    imrelp

    RELP Input Module

    imsolaris

    Solaris Input Module

    imtcp

    TCP Syslog Input Module

    imudp

    UDP Syslog Input Module

    imuxsock

    Unix Socket Input

    而 Output 中也有许多可用的接口,可以通过 man 或者官方的文档查看

    而这些模块接口的使用需要通过 $ModLoad 指令来加载,那么返回上文的图中,配置生效的头两行可以看懂了,默认加载了 imklog、imuxsock 这两个模块

    在配置中 rsyslog 支持三种配置语法格式:

    • sysklogd
    • legacy rsyslog
    • RainerScript

    sysklogd 是老的简单格式,一些新的语法特性不支持。而 legacy rsyslog 是以 dollar 符($)开头的语法,在 v6 及以上的版本还在支持,就如上文所说的 $ModLoad 还有一些插件和特性只在此语法下支持。而以 $ 开头的指令是全局指令,全局指令是 rsyslogd 守护进程的配置指令,每行只能有一个指令。 RainnerScript 是最新的语法。在官网上 rsyslog 大多推荐这个语法格式来配置

    老的语法格式(sysklogd & legacy rsyslog)是以行为单位。新的语法格式(RainnerScript)可以分割多行。

    注释有两种语法:

    • 井号 #
    • C-style /* .. */

    执行顺序: 指令在 rsyslog.conf 文件中是从上到下的顺序执行的。

    模板是 rsyslog 一个重要的属性,它可以控制日志的格式,支持类似 template() 语句的基于 string 或 plugin 的模板,通过它我们可以自定义日志格式。

    legacy 格式使用 $template 的语法,不过这个在以后要移除,所以最好使用新格式 template():,以免未来突然不工作了也不知道为什么

    模板定义的形式有四种,适用于不同的输出模块,一般简单的格式,可以使用 string 的形式,复杂的格式,建议使用 list 的形式,使用 list 的形式,可以使用一些额外的属性字段(property statement)

    如果不指定输出模板,rsyslog 会默认使用 RSYSLOG_DEFAULT。若想更深入的学习可以查看官方文档

    了解了 rsyslog 环境的配置文件之后,我们看向 /etc/rsyslog.d/50-default.conf 这个配置文件,这个文件中主要是配置的 Filter Conditions,也就是我们在流程图中所看见的 Parser & Filter Engine,它的名字叫 Selectors 是过滤 syslog 的传统方法,他主要由两部分组成,facility 与 priority,其配置格式如下

    facility.priority     log_location

    其中一个 priority 可以指定多个 facility,多个 facility 之间使用逗号 , 分割开

    rsyslog 通过 Facility 的概念来定义日志消息的来源,以便对日志进行分类,Facility 的种类有:

    类别

    解释

    kern

    内核消息

    user

    用户信息

    mail

    邮件系统消息

    daemon

    系统服务消息

    auth

    认证系统

    authpriv

    权限系统

    syslog

    日志系统自身消息

    cron

    计划安排

    news

    新闻信息

    local0~7

    由自定义程序使用

    而另外一部分 priority 也称之为 serverity level,除了日志的来源以外,对统一源产生日志消息还需要进行优先级的划分,而优先级的类别有以下几种:

    类别

    解释

    emergency

    系统已经无法使用了

    alert

    必须立即处理的问题

    critical

    很严重了

    error

    错误

    warning

    警告信息

    notice

    系统正常,但是比较重要

    informational

    正常

    debug

    debug的调试信息

    panic

    很严重但是已淘汰不常用

    none

    没有优先级,不记录任何日志消息

    我们来看看系统中的配置

    auth,authpriv.* /var/log/auth.log

    这里的意思是 auth 与 authpriv 的所有优先级的信息全都输出于 /var/log/auth.log 日志中

    而其中有类似于这样的配置信息意思有细微的差别

    kern.* -/var/log/kern.log

    - 代表异步写入,也就是日志写入时不需要等待系统缓存的同步,也就是日志还在内存中缓存也可以继续写入无需等待完全写入硬盘后再写入。通常用于写入数据比较大时使用。

    到此我们对 rsyslog 的配置就有了一定的了解,若想更深入学习模板,队列的高级应用,大家可去查看官网的文档,需要注意的是 rsyslog 每个版本之间差异化比较大,学习之前先查看自己所使用的版本,再去查看相关的文档

    与日志相关的还有一个还有常用的命令 logger,logger 是一个 shell 命令接口,可以通过该接口使用 Syslog 的系统日志模块,还可以从命令行直接向系统日志文件写入信息。

    #首先将syslog启动起来 sudo service rsyslog start #向 syslog 写入数据 ping 127.0.0.1 | logger -it logger_test -p local3.notice & #查看是否有数据写入 sudo tail -f /var/log/syslog

    从图中我们可以看到我们成功的将 ping 的信息写入了 syslog 中,格式也就是使用的 rsyslog 的默认模板

    我们可以通过 man 来查看 logger 的其他用法,

    参数

    内容

    -i

    在每行都记录进程 ID

    -t

    添加 tag 标签

    -p

    设置日志的 facility 与 priority

     

     

    四、转储的日志

    在本地的机器中每天都有成百上千条日志被写入文件中,更别说是我们的服务器,每天都会有数十兆甚至更多的日志信息被写入文件中,如果是这样的话,每天看着我们的日志文件不断的膨胀,那岂不是要占用许多的空间,所以有个叫 logrotate 的东西诞生了。

    logrotate 程序是一个日志文件管理工具。用来把旧的日志文件删除,并创建新的日志文件。我们可以根据日志文件的大小,也可以根据其天数来切割日志、管理日志,这个过程又叫做“转储”。

    大多数 Linux 发行版使用 logrotate 或 newsyslog 对日志进行管理。logrotate 程序不但可以压缩日志文件,减少存储空间,还可以将日志发送到指定 E-mail,方便管理员及时查看日志。

    显而易见,logrotate 是基于 CRON 来运行的,其脚本是 /etc/cron.daily/logrotate;同时我们可以在 /etc/logrotate 中找到其配置文件

    cat /etc/logrotate.conf

    这其中的具体意思是什么呢?

    # see "man logrotate" for details //可以查看帮助文档 # rotate log files weekly weekly //设置每周转储一次(daily、weekly、monthly当然可以使用这些参数每天、星期,月 ) # keep 4 weeks worth of backlogs rotate 4 //最多转储4次 # create new (empty) log files after rotating old ones create //当转储后文件不存在时创建它 # uncomment this if you want your log files compressed compress //通过gzip压缩方式转储(nocompress可以不压缩) # RPM packages drop log rotation information into this directory include /etc/logrotate.d //其他日志文件的转储方式配置文件,包含在该目录下 # no packages own wtmp -- we'll rotate them here /var/log/wtmp { //设置/var/log/wtmp日志文件的转储参数 monthly //每月转储 create 0664 root utmp //转储后文件不存在时创建它,文件所有者为root,所属组为utmp,对应的权限为0664 rotate 1 //最多转储一次 }

    当然在 /etc/logrotate.d/ 中有各项应用的 logrotate 配置,还有更多的配置参数,大家可以使用 man 查看,如按文件大小转储,按当前时间格式命名等等参数配置。

    展开全文
  • charles使用教程

    万次阅读 多人点赞 2015-12-10 00:32:04
    Charles 的简介 如何安装 Charles 将 Charles 设置成系统代理 Charles 主界面介绍 过滤网络请求 截取 iPhone 上的网络封包 截取 Https 通讯信息 ... Mac 下常用的网络封包截取工具,在做 移动开发时,我们为
  • OpenCV3入门教程(一)基础知识

    万次阅读 多人点赞 2018-10-12 15:25:56
    ------韦访 20181011 1、概述 想学习图像处理,不管是机器学习也好,深度学习也好,不会点OpenCV好像有点说不过去吧?所以,现在开始OpenCV的学习。 2、读写图片 先从图片的读写开始,opencv读取图片的函数是...
  • 黑客入门视频教程(共57个)全实战过程

    万次阅读 多人点赞 2017-06-09 15:56:43
    01 ping命令的使用http://images.enet.com.cn/eschool/wmv/ping.wmv 02 netstat命令的使用 http://images.enet.com.cn/eschool/wmv/netstat.wmv 03 tasklist和taskkill的使用 ...0
  • 51单片机入门教程(2)——实现流水灯

    万次阅读 多人点赞 2018-11-03 13:06:52
    51单片机入门教程(2)——实现流水灯一、搭建流水灯电路二、流水灯程序2.1 延时程序2.2 延时函数2.3 按字节寻址2.4 逻辑移位2.5 条件判断 一、搭建流水灯电路 在Proteus中搭建流水灯电路如图 二、流水灯程序 我们...
  • 郭天祥十天学会C51单片机视频教程 如果觉得好,请回复支持一下,让更多人看到,谢谢! 目前国内公认的最好的视频教程,通俗易懂,容易上手,非常适合初学者,被大量的培训机构采用。 只要你认真看,认真听,保证十天...
  • 《新概念51单片机C语言教程:入门、提高、开发、拓展全攻略》从实际应用入手,以实验过程和实验现象为主导,循序渐进地讲述51单片机C语言编程方法以及51单片机的硬件结构和功能应用。全书共分5篇,分别为入门篇、内...
  • 云龙51单片机视频教程,目前国内公认的最好的入门视频教程 云龙51单片机视频教程如果觉得好,请回复支持一下,让更多人看到,谢谢! 目前国内公认的最好的视频教程,通俗易懂,容易上手,非常适合初学者,被大量的...
  • 51单片机通过WIFI模块ESP8266控制LED灯

    万次阅读 多人点赞 2018-06-16 18:47:40
    手机APP通过ESP8266 WIFI模块与51单片机通信控制LED灯的开关。下位机由单片机、ESP8266模块和LED灯组成,上位机由Android手机APP承担。我们在APP上发送LED灯的开关控制指令,ESP8266将收到的数据发送给单片机,从而...
  • 资源名称:51单片机入门系列视频教程资源目录:【】第1讲功能模块简介【】第2讲安装USB驱动【】第3讲安装烧写软件【】第4讲程序烧写方法【】第5讲安装开发软件[51zsk.com]【】第6讲开发软件的使用方法资源截图: ...
  • 义隆单片机全套教程,最好的单片机教程,你值得拥有!!!
  • ESP8266wifi模块与51单片机通信教程

    千次阅读 2019-11-10 17:45:59
    ESP8266wifi模块与51单片机通信教程 准备两个200欧左右的电阻 准备6根杜邦线 然后将ES8266通过如图这种方式连接起来 注意:在连接单片机的RX和TX引脚时必须和ESP8266模块的RX和TX反接才能保证正常通信 将程序下载...
  • 本套51单片机视频教程主要是为没有学过单片机的新手讲解,只要你看完,100%保证你能操作51单片机。 慧净电子51单片机52课视频教程包含以下四个系列视频教程。 1、新手入门操作教程6课--只要你看完就能操作单片机。 2...
  • 单片机视频教程

    2018-05-29 18:41:38
    学看电路图 51/AVR/PIC/MSP430单片机 Protel99等电路仿真
  • 51单片机经典入门教程pdf,单片机,专业名称—Micro Controller Unit(微控制器件) 它是由大名鼎鼎的 tel/' target='_blank'>INTEL 公司发明的,其最早的系列是 MCS-48。后来有了 MCS-51,我们经常说的 51 系列...
  • 合泰的大部分资料在里面,看完了,合泰单片机就轻松搞定了。
  • 王云51单片机C语言程序设计教程,挺好的。可以到网上先看看它配套的视频(云龙51单片机视频)。
  • 教程可用于飞思卡尔单片机初学者用来学习入门,本教程上所讲的知识都是一些基础的应用知识,简单易懂,很适合初学者,如果有51单片机的经验,学习起来会容易很多……………………
  • 合泰单片机教程

    2014-02-21 00:09:32
    主要介绍合泰单片机HT46系列的使用方法,应用环境和注意事项。
  • 51单片机经典入门教程(非常棒的教程).适合初学者详细的学习单片机
  • HOLTEK单片机C语言实例教程的源代码,对初学者应该挺有帮助
  • 51单片机C语言教程.pdf

    2017-10-27 15:07:40
    什么是单片机,目前还没有一个确切的定义。普通认为单片机是将CPU、RAM、ROM、定 时器/计数器以及输入输出(I/O)... 单片机的应用十分广泛,本教程以 Easy 51 Kit Pro 单片机学习板为基础,学习 51 单 片机的入门知识
  • <单片机初级教程第三版> 张迎新 2015年印刷,最新版 清晰度很好,北京航空航天大学出版~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
  • 51单片机入门详细教程 郭天祥完整单片机入门教程 使使用者一周能 入门

空空如也

1 2 3 4 5 ... 20
收藏数 1,936,119
精华内容 774,447
关键字:

教程