精华内容
下载资源
问答
  • 最近因项目需要,安装了早期版本的redis,在拉取镜像并启动后发现容器中没有redis.conf文件,网上查找了一番,发现是需要在初次运行容器时进行映射。 实际使用的docker命令 # 获取redis镜像 docker pull redis:3.2 ...

    问题

    最近因项目需要,安装了早期版本的redis,在拉取镜像并启动后发现容器中没有redis.conf文件,网上查找了一番,发现是需要在初次运行容器时进行映射。
    实际使用的docker命令
    # 获取redis镜像
    docker pull redis:3.2
    # 查看docker镜像
    docker images
    # 创建redis中的conf和data文件夹
    mkdir /usr/local/redis/conf
    mkdir /usr/local/redis/data
    # 查看已创建的docker容器
    docker ps -a
    # 移除已创建的容器
    docker rm 容器id
    

    将redis.conf文件拷贝到conf文件夹中,在创建docker容器时进行映射:

    docker run -d -p 主机端口:容器端口 -v /usr/local/redis/conf/redis.conf:/etc/redis/redis.conf -v /usr/local/redis/data:/etc/redis/data --name redis redis:3.2 redis-server /etc/redis/redis.conf --appendonly yes
    

    -d 可以替换成 -itd
    此处参考:【Docker】解决创建Redis容器没有conf配置文件
    解读参数:
    -d: 后台运行容器,并返回容器ID;
    -i: 以交互模式运行容器,通常与 -t 同时使用;
    -p: 端口映射,格式为:主机(宿主)端口:容器端口;
    -t: 为容器重新分配一个伪输入终端,通常与 -i 同时使用;
    -v: 挂载目录,规则与端口映射相同;
    –name redis: 指定容器名称;
    redis-server /etc/redis/redis.conf: 指定配置文件启动redis-server进程;
    –appendonly yes: 开启数据持久化。


    以下redis.conf配置文件的说明摘自:
    https://www.cnblogs.com/sandea/p/5782220.html
    # 默认redis不是以后台进程的方式启动,如果需要在后台运行,需要将这个值设置成yes
    # 默认no,改为yes意为以守护进程方式启动,可后台运行,除非kill进程,改为yes会使配置文件方式启动redis失败
    # 以后台方式启动的时候,redis会写入默认的进程文件/var/run/redis.pid
    daemonize no
    
    # 默认yes,开启保护模式,限制为本地访问
    protected-mode no
    
    # redis启动的进程路径
    pidfile/var/run/redis.pid
    
    # 启动进程端口号,默认6379,可以改
    port 6379
    
    tcp-backlog 511
    
    # 配置redis监听到的ip地址,可以是一个也可以多个,这里我注释掉了
    #bind 127.0.0.110.254.3.42
    
    # redis的sock路径
    unixsocket/tmp/redis.sock
    unixsocketperm 755
    
    # 超时时间
    timeout 0
    
    #指定TCP连接是否为长连接,"侦探"信号有server端维护。默认为0.表示禁用
    tcp-keepalive 0
    
    # 日志级别,log 等级分为4 级,debug,verbose,notice, 和warning。生产环境下一般开启notice
    loglevel notice
    
    # 日志文件地址
    logfile"/usr/local/redis/logs/redis.log"
    
    # 设置数据库的个数,可以使用SELECT 命令来切换数据库。默认使用的数据库是0号库。默认16个库
    databases 16
    
    # RDB方式的持久化是通过快照(snapshotting)完成的,当符合一定条件时Redis会自动将内存中的所有数据进行快照并存储在硬盘上。进行快照的条件可以由用户在配置文件中自定义,由两个参数构成:时间和改动的键的个数。当在指定的时间内被更改的键的个数大于指定的数值时就会进行快照。RDB是Redis默认采用的持久化方式,在配置文件中已经预置了3个条件:
    save 900 1    # 900秒内有至少1个键被更改则进行快照
    save 300 10   # 300秒内有至少10个键被更改则进行快照
    save 60 10000  # 60秒内有至少10000个键被更改则进行快照
    
    # 持久化数据存储目录
    dir /usr/local/redis/data
    
    # 当持久化出现错误时,是否依然继续进行工作,是否终止所有的客户端write请求。默认设置"yes"表示终止,一旦snapshot数据保存故障,那么此server为只读服务。如果为"no",那么此次snapshot将失败,但下一次snapshot不会受到影响,不过如果出现故障,数据只能恢复到"最近一个成功点"
    stop-writes-on-bgsave-error no
    
    # 在进行数据镜像备份时,是否启用rdb文件压缩手段,默认为yes。压缩可能需要额外的cpu开支,不过这能够有效的减小rdb文件的大,有利于存储/备份/传输/数据恢复
    rdbcompression yes
    
    # checksum文件检测,读取写入的时候rdb文件checksum,会损失一些性能
    rdbchecksum yes
    
    #镜像备份文件的文件名,默认为dump.rdb
    dbfilename dump.rdb
    
    #当主master服务器挂机或主从复制在进行时,是否依然可以允许客户访问可能过期的数据。在"yes"情况下,slave继续向客户端提供只读服务,有可能此时的数据已经过期;在"no"情况下,任何向此server发送的数据请求服务(包括客户端和此server的slave)都将被告知"error"
    slave-serve-stale-data yes
    
    # 如果是slave库,只允许只读,不允许修改
    slave-read-only yes
    
    # slave与master的连接,是否禁用TCPnodelay选项。"yes"表示禁用,那么socket通讯中数据将会以packet方式发送(packet大小受到socket buffer限制)。可以提高socket通讯的效率(tcp交互次数),但是小数据将会被buffer,不会被立即发送,对于接受者可能存在延迟。"no"表示开启tcp nodelay选项,任何数据都会被立即发送,及时性较好,但是效率较低,建议设为no,在高并发或者主从有大量操作的情况下,设置为yes
    repl-disable-tcp-nodelay no
    
    # 适用Sentinel模块(unstable,M-S集群管理和监控),需要额外的配置文件支持。slave的权重值,默认100.当master失效后,Sentinel将会从slave列表中找到权重值最低(>0)的slave,并提升为master。如果权重值为0,表示此slave为"观察者",不参与master选举
    slave-priority 100
    
    # 限制同时连接的客户数量。当连接数超过这个值时,redis 将不再接收其他连接请求,客户端尝试连接时将收到error 信息。默认为10000,要考虑系统文件描述符限制,不宜过大,浪费文件描述符,具体多少根据具体情况而定
    maxclients 10000
    
    # redis-cache所能使用的最大内存(bytes),默认为0,表示"无限制",最终由OS物理内存大小决定(如果物理内存不足,有可能会使用swap)。此值尽量不要超过机器的物理内存尺寸,从性能和实施的角度考虑,可以为物理内存3/4。此配置需要和"maxmemory-policy"配合使用,当redis中内存数据达到maxmemory时,触发"清除策略"。在"内存不足"时,任何write操作(比如set,lpush等)都会触发"清除策略"的执行。在实际环境中,建议redis的所有物理机器的硬件配置保持一致(内存一致),同时确保master/slave中"maxmemory""policy"配置一致。
    maxmemory 0
    
    # 内存过期策略,内存不足"时,数据清除策略,默认为"volatile-lru"。
    # volatile-lru  ->对"过期集合"中的数据采取LRU(近期最少使用)算法.如果对key使用"expire"指令指定了过期时间,那么此key将会被添加到"过期集合"中。将已经过期/LRU的数据优先移除.如果"过期集合"中全部移除仍不能满足内存需求,将OOM.
    # allkeys-lru ->对所有的数据,采用LRU算法
    # volatile-random ->对"过期集合"中的数据采取"随即选取"算法,并移除选中的K-V,直到"内存足够"为止. 如果如果"过期集合"中全部移除全部移除仍不能满足,将OOM
    # allkeys-random ->对所有的数据,采取"随机选取"算法,并移除选中的K-V,直到"内存足够"为止
    # volatile-ttl ->对"过期集合"中的数据采取TTL算法(最小存活时间),移除即将过期的数据.
    # noeviction ->不做任何干扰操作,直接返回OOM异常
    # 另外,如果数据的过期不会对"应用系统"带来异常,且系统中write操作比较密集,建议采取"allkeys-lru"
    maxmemory-policy volatile-lru
    
    # 默认值5,上面LRU和最小TTL策略并非严谨的策略,而是大约估算的方式,因此可以选择取样值以便检查
    maxmemory-samples 5
    
    # 默认情况下,redis 会在后台异步的把数据库镜像备份到磁盘,但是该备份是非常耗时的,而且备份也不能很频繁。所以redis 提供了另外一种更加高效的数据库备份及灾难恢复方式。开启append only 模式之后,redis 会把所接收到的每一次写操作请求都追加到appendonly.aof 文件中,当redis 重新启动时,会从该文件恢复出之前的状态。但是这样会造成appendonly.aof 文件过大,所以redis 还支持了BGREWRITEAOF 指令,对appendonly.aof 进行重新整理。如果不经常进行数据迁移操作,推荐生产环境下的做法为关闭镜像,开启appendonly.aof,同时可以选择在访问较少的时间每天对appendonly.aof 进行重写一次。
    # 另外,对master机器,主要负责写,建议使用AOF,对于slave,主要负责读,挑选出1-2台开启AOF,其余的建议关闭
    appendonly yes
    
    # aof文件名字,默认为appendonly.aof
    appendfilename "appendonly.aof"
    
    # 设置对appendonly.aof 文件进行同步的频率。always表示每次有写操作都进行同步,everysec 表示对写操作进行累积,每秒同步一次。no不主动fsync,由OS自己来完成。这个需要根据实际业务场景进行配置
    appendfsync everysec
    
    # 在aof rewrite期间,是否对aof新记录的append暂缓使用文件同步策略,主要考虑磁盘IO开支和请求阻塞时间。默认为no,表示"不暂缓",新的aof记录仍然会被立即同步
    no-appendfsync-on-rewrite no
    
    # 当Aof log增长超过指定比例时,重写logfile,设置为0表示不自动重写Aof 日志,重写是为了使aof体积保持最小,而确保保存最完整的数据。
    auto-aof-rewrite-percentage 100
    # 触发aof rewrite的最小文件尺寸
    auto-aof-rewrite-min-size 64mb
    
    # lua脚本执行的最大时间,单位毫秒
    lua-time-limit 5000
    
    # 慢日志记录,单位微妙,10000就是10毫秒值,如果操作时间超过此值,将会把command信息"记录"起来.(内存,非文件)。其中"操作时间"不包括网络IO开支,只包括请求达到server后进行"内存实施"的时间."0"表示记录全部操作
    slowlog-log-slower-than 10000
    
    # "慢操作日志"保留的最大条数,"记录"将会被队列化,如果超过了此长度,旧记录将会被移除。可以通过"SLOWLOG<subcommand> args"查看慢记录的信息(SLOWLOG get 10,SLOWLOG reset)
    slowlog-max-len 128
    notify-keyspace-events ""
    
    # hash类型的数据结构在编码上可以使用ziplist和hashtable。ziplist的特点就是文件存储(以及内存存储)所需的空间较小,在内容较小时,性能和hashtable几乎一样.因此redis对hash类型默认采取ziplist。如果hash中条目的条目个数或者value长度达到阀值,将会被重构为hashtable。
    # 这个参数指的是ziplist中允许存储的最大条目个数,,默认为512,建议为128
    hash-max-ziplist-entries 512
    # ziplist中允许条目value值最大字节数,默认为64,建议为1024
    hash-max-ziplist-value 64
    
    # 同上
    list-max-ziplist-entries 512
    list-max-ziplist-value 64
    
    # intset中允许保存的最大条目个数,如果达到阀值,intset将会被重构为hashtable
    set-max-intset-entries 512
     
    # zset为有序集合,有2中编码类型:ziplist,skiplist。因为"排序"将会消耗额外的性能,当zset中数据较多时,将会被重构为skiplist。
    zset-max-ziplist-entries 128
    # zset中允许条目value值最大字节数,默认为64,建议为1024
    zset-max-ziplist-value 64
    
    # 是否开启顶层数据结构的rehash功能,如果内存允许,请开启。rehash能够很大程度上提高K-V存取的效率
    activerehashing yes
    
    # 客户端buffer控制。在客户端与server进行的交互中,每个连接都会与一个buffer关联,此buffer用来队列化等待被client接受的响应信息。如果client不能及时的消费响应信息,那么buffer将会被不断积压而给server带来内存压力.如果buffer中积压的数据达到阀值,将会导致连接被关闭,buffer被移除。
     
    # buffer控制类型包括:normal -> 普通连接;slave->与slave之间的连接;pubsub ->pub/sub类型连接,此类型的连接,往往会产生此种问题;因为pub端会密集的发布消息,但是sub端可能消费不足.指令格式:client-output-buffer-limit <class> <hard><soft><seconds>",其中hard表示buffer最大值,一旦达到阀值将立即关闭连接;soft表示"容忍值",它和seconds配合,如果buffer值超过soft且持续时间达到了seconds,也将立即关闭连接,如果超过了soft但是在seconds之后,buffer数据小于了soft,连接将会被保留.其中hard和soft都设置为0,则表示禁用buffer控制.通常hard值大于soft.
    client-output-buffer-limitnormal 0 0 0
    client-output-buffer-limitslave 256mb 64mb 60
    client-output-buffer-limitpubsub 32mb 8mb 60
    
    # Redis server执行后台任务的频率,默认为10,此值越大表示redis对"间歇性task"的执行次数越频繁(次数/秒)。"间歇性task"包括"过期集合"检测、关闭"空闲超时"的连接等,此值必须大于0且小于500。此值过小就意味着更多的cpu周期消耗,后台task被轮询的次数更频繁。此值过大意味着"内存敏感"性较差。建议采用默认值。
    hz 10
    
    # 当一个child在重写AOF文件的时候,如果aof-rewrite-incremental-fsync值为yes生效,那么这个文件会以每次32M数据的来被同步,这大量新增提交到磁盘是有用的,并且能避免高峰延迟。
    aof-rewrite-incremental-fsync yes
    

    附上我使用的redis.conf的内容,版本较老,有些参数无法识别已注释。
    redis.conf

    展开全文
  • 创建容器 2. 解读参数 -d:后台运行容器,并返回容器ID; -i:以交互模式运行容器,通常与 -t 同时使用; -p:端口映射,格式为:主机(宿主)端口:容器端口 -t:为容器重新分配一个伪输入终端,通常与 -i 同时...

    序言

    这篇文章没有什么知识点,只是为了新伙伴少踩点坑

    1. 问题重现

    1. 创建容器

    2. 解读参数

    -d: 后台运行容器,并返回容器ID;

    -i: 以交互模式运行容器,通常与 -t 同时使用;

    -p: 端口映射,格式为:主机(宿主)端口:容器端口

    -t: 为容器重新分配一个伪输入终端,通常与 -i 同时使用;

    --ip: 为容器制定一个固定的ip

    --net: 指定网络模式

    3. 进入容器查看redis.conf文件

    发现是并没有redis.conf文件的,那么这个时候就是新手踩坑阶段了,因为没有系统的学习docker所以会花费很多时间

     

    2. 解决问题

    没有配置文件这件事呢!那是因为redis容器里边的配置文件是需要在创建容器时映射进来的

    那么就需要删除我们之前创建好的容器,在删除前需要先停止容器后才可以删除

    停止容器:docker container stop redis-test

    删除容器:docker container rm redis-test

    1. 开始重新创建redis容器

    docker run -itd  --name  redis-slave  -v /usr/local/redis/redis.conf:/etc/redis.conf -v /root/usr/local/redis/data:/data  --net mynetwork  -p 6381:6379  --ip 172.10.0.3  redis

    参数解释:

    -v /usr/local/redis/redis.conf:/etc/redis.conf:映射配置文件

    -v /root/usr/local/redis/data:/data:映射数据目录

    那么这个时候就有redis配置文件了

     

    搭建同意的挂载外部配置

    上边是在我宿主机有redis的情况下的,那么下来说宿主机没有redis的情况

    这里说的映射其实就是挂载外部配置和数据安装

    1. 创建docker统一的外部配置文件

    mkdir -p docker/redis/{conf,data}

    2. 在conf目录创建redis.conf的配置文件

    touch /docker/redis/conf/redis.conf

    3. redis.conf文件的内容需要自行去下载,网上很多

    4. 创建启动容器,加载配置文件并持久化数据

    docker run -d --privileged=true -p 6379:6379 -v /docker/redis/conf/redis.conf:/etc/redis/redis.conf -v /docker/redis/data:/data --name redis-test redis redis-server /etc/redis/redis.conf --appendonly yes

    参数说明:

    --privileged=true:容器内的root拥有真正root权限,否则容器内root只是外部普通用户权限

    -v /docker/redis/conf/redis.conf:/etc/redis/redis.conf:映射配置文件

    -v /docker/redis/data:/data:映射数据目录

    redis-server /etc/redis/redis.conf:指定配置文件启动redis-server进程

    --appendonly yes:开启数据持久化

    这里边还有一些概念新手可能会很模糊,后边会进行详解,先知道这么用就好了,深夜了,大家晚安!

    展开全文
  • python conf配置文件

    2018-03-25 16:16:00
    #将所有的代码和配置都变成模块化可配置化,这样就提高了代码的重用性,不用都去修改代码内部,这个就是我们逐步#要做的事情,可配置化#configparser用法#1)创建configparser对象,并调用read()函数打开配置文件,...

    #为什么要做配置文件:
    #将所有的代码和配置都变成模块化可配置化,这样就提高了代码的重用性,不用都去修改代码内部,这个就是我们逐步
    #要做的事情,可配置化
    #configparser用法
    #1)创建configparser对象,并调用read()函数打开配置文件,里面填的参数是地址
    #2)配置文件的格式是[]包含的是section,section下有option=value这样的键值对
    '''


    3.依据section来读取相应的配置数据 读 写
    '''


    #1.创建configparser对象
    import configparser
    cf=configparser.ConfigParser()
    #2.从配置文件中读取数据
    import os
    cf.read(os.getcwd()+"/config.conf")
    #读取所有section
    print(cf.sections())       #返回列表形式    ['mysql_info', 'test_addSection']
    #读取section下的option
    print(cf.options(section="mysql_info"))  #只有key值 ['mysql_host', 'mysql_port', 'mysql_db', 'mysql_user', 'mysql_passwd']
    #读取键值对
    print(cf.items(section="mysql_info"))   #键值对 [('mysql_host', '120.76.42.189'), ('mysql_port', '3306'), ('mysql_db', 'future'), ('mysql_user', 'futurevistor'), ('mysql_passwd', '123456')]
    #读section里option
    print(cf.get("mysql_info","mysql_db"))     #future
    print(cf.getint("mysql_info","mysql_port")) #3306

    #写
    #添加option,修改也用set
    cf.set("mysql_info","type","mysql5.7")
    #添加section
    cf.add_section("test")
    cf.set("test","sex","female")
    #添加完option section后都要打开文件写入
    with open(os.getcwd()+"/config.conf","w") as cfile:
        cf.write(cfile)  #文件流写到文件中去

     

    转载于:https://www.cnblogs.com/nuonuozhou/p/8645210.html

    展开全文
  • zapata.conf配置文件参数配置

    千次阅读 2009-01-13 16:04:00
    zapata.conf配置文件说明 1.文件说明Zap channel模块允许Asterisk与zaptel驱动程序之间通讯。通过配置zapata.conf文件实现。zapata.conf文件,没有看上去那么复杂,仅仅是定义通道参数,channel关键词才是真正的...

    zapata.conf配置文件说明<?xml:namespace prefix = o ns = "urn:schemas-microsoft-com:office:office" />

     

    1.文件说明

    Zap channel模块允许Asteriskzaptel驱动程序之间通讯。通过配置zapata.conf文件实现。zapata.conf文件,没有看上去那么复杂,仅仅是定义通道参数,channel关键词才是真正的创建通道。非常重要的是,如果例如在通道前定义echocancel=no,会使影响所有通道,直到定义echocancel=yes,他会往下执行,因此,定义必须在channel=>前面进行定义。信令类型是唯一强制设置,在分配一个通道之前,必须定义信令类型。如果连接的模拟电话设备,注意模拟信令是导致混乱的来源。FXS通道采用FXO信令,反之,Asterisk通知内部设备采用相反方式。FXO接口卡采用FXS信令,同样须定义。设置通道信令类型,这些参数须与zaptel驱动配置匹配。设置基于采用什么样的板卡,如果通道信令设置错误,如果配置描述与zaptel驱动配置不匹配,或者如果卡不存在而配置正确,Asterisk不会工作。正确的设置通常包含下面4中信令中一种,fxs_ks, fxo_ks, pri_cpe or pri_net。该设置没有缺省值,必须在分配通道前设置信令值,下面是Asterisk支持的信令类型。

     

    2.信令类型

    em: E & M Immediate Start

    em_w: E & M Wink Start

    em_e1: E & M CAS signalling for E1 lines

    featd: Feature Group D (The fake, Adtran style, DTMF)

    featdmf_ta: Feature Group D (The real thing, MF (domestic, US)) through a Tandem Access point

    fgccama Feature Group C-CAMA (DP DNIS, MF ANI)

    fgccamamf Feature Group C-CAMA MF (MF DNIS, MF ANI)

    featdmf: Feature Group D (The real thing, MF (domestic, US))

    featb:

    Feature Group B (MF (domestic, US))

    fxs_ls: FXS (Loop Start)

    fxs_gs: FXS (Ground Start)

    fxs_ks: FXS (Kewl Start)

    fxo_ls: FXO (Loop Start)

    fxo_gs: FXO (Ground Start)

    fxo_ks: FXO (Kewl Start)

    pri_cpe: PRI signalling, CPE side

    pri_net: PRI signalling, Network side (for instance, side that provides the dialtone)

    sf: SF (Inband Tone) Signalling

    sf_w: SF Wink

    sf_featd: SF Feature Group D (The fake, Adtran style, DTMF)

    sf_featdmf: SF Feature Group D (The real thing, MF (domestic, US))

    sf_featb: SF Feature Group B (MF (domestic, US))

    e911: E911 (MF) style signalling. Originating switch goes off-hook, far-end winks, originating sends KP-911-ST, far-end gives answer supervision, Originating-end sends KP-0-ANI-ST

    The following are used for Radio interfaces:

    fxs_rx: Receive audio/COR on an FXS kewlstart interface (FXO at the channel bank)

    fxs_tx: Transmit audio/PTT on an FXS loopstart interface (FXO at the channel bank)

    fxo_rx: Receive audio/COR on an FXO loopstart interface (FXS at the channel bank)

    fxo_tx: Transmit audio/PTT on an FXO groundstart interface (FXS at the channel bank)

    em_rx: Receive audio/COR on an E&M interface (1-way)

    em_tx: Transmit audio/PTT on an E&M interface (1-way)

    em_txrx: Receive audio/COR AND Transmit audio/PTT on an E&M interface (2-way)

    em_rxtx: same as em_txrx (for our dyslexic friends)

    sf_rx: Receive audio/COR on an SF interface (1-way)

    sf_tx: Transmit audio/PTT on an SF interface (1-way)

    sf_txrx: Receive audio/COR AND Transmit audio/PTT on an SF interface (2-way)

    sf_rxtx: same as sf_txrx (for our dyslexic friends)

     

    3.配置通道

    .
    .
    .

    上面为省略部分。
    context=testflow----------------------------------------首先进入的拨号方案

    group=1

    channel => 1-15,17-31

    channel => 32-46,48-62

    channel => 63-77,79-93

    channel => 94-108,110-124

     

    展开全文
  • php-fpm启动后会先读php.ini,然后再读相应的conf配置文件,conf配置可以覆盖php.ini的配置。 启动php-fpm之后,会创建一个master进程,监听9000端口(可配置),master进程又会根据fpm.conf/www.conf去创建若干子...
  • odoo.conf配置文件详解

    千次阅读 2018-07-28 11:00:19
    odoo配置文件之odoo.conf参数含义、功能详解 [options] addons_path = E:\GreenOdoo8.0\source\openerp\addons ;addons模块的查找路径 admin_passwd = admin ;管理员主控密码(用于创建、还原和备份数据库等...
  • 1、首先为了方便管理,将Redis文件中的conf配置文件和常用命令移动到统一文件中 a)创建bin和etc文件夹 1、vir@vir-VirtualBox:~$ sudo mkdir -p /usr/local/redis/bin [sudo] password for vir: 2、vi...
  • 更改默认 nginx.conf 配置文件位置

    万次阅读 2019-02-25 11:49:20
    nginx默认配置 安装时 nginx.conf所在位置为:/usr/local/nginx/conf/nginx.conf 本人需要将其移动到 /xxx/nginx 下   1、将原文件移动到自己需要更改的目录 mv /usr/local/nginx/conf/nginx.conf /xxx/nginx/...
  • vim /etc/httpd/conf.d/subversion.conf <Location /svn> DAV svn SVNParentPath /home/svn AuthType Basic AuthName "Authorization svn" AuthzSVNAccessFile /home/svn/conf/aut...
  • ; [options] ; addons模块的查找路径(可以配多个,多个之间以逗号分隔) addons_path = /home/odoo/odoo-12/odoo/addons,/home/... 数据库管理密码(用于创建、还原和备份数据库等操作) admin_passwd = admin ; data...
  • Centos7 Devstack [Rocky] local.conf配置文件

    千次阅读 2018-07-26 19:08:49
    在devstack目录下创建local.conf并赋权 #touch /home/devstack/local.conf &amp;&amp; chown stack:stack /home/devstack/local.conf [root@node01 ~]# cat /home/devstack/local.conf  [[local|localrc]...
  • redis启动文件.conf配置

    2020-05-31 21:58:00
    创建文件:[root@bogon redis-4.0.0]# mkdir data 当前文件路径:[root@bogon data]# pwd 编辑redis-6379.conf文件 [root@bogon redis-4.0.0]# vim redis-6379.conf 内容只留如下: 其中,logfile是日志...
  • 脚本1: 计算/etc/目录中所有*.conf配置文件所占用的总空间大小 1.用vi创建一个名为confsize.sh脚本,截图如下:内容如下:#!/bin/bashsizenums=$(ls -l $(find /etc/ -type f -a -name *.conf) | awk ...
  • 计算/etc/目录中所有*.conf配置文件所占用的总空间大小1.用vi创建一个名为confsize.sh脚本,截图如下:内容如下:#!/bin/bashsizenums=$(ls-l$(find/etc/-typef-a-name*.conf)|awk'{print$5}')total=0foriin$...
  • 配置mongo.conf文件

    2019-07-15 19:25:00
    配置mongo.conf文件,优化mongod.exe的启动 在d:/Develop/MongoDB目录下创建mongo.conf文件并写入: dbpath=d:\Develop\MongoDB\data\db #数据库路径 logpath=d:\Develop\MongoDB\log\mongo....
  • nginx的nginx.conf配置文件修改

    千次阅读 2017-03-30 13:23:55
    nginx的nginx.conf配置文件修改提示: 1. user www; //需要在当前服务器下创建www的一个用户。 2. 需要在 /usr/local/nginx/logs下面同时存在,以下文件 access.log error.log nginx.pid www.log //===========...
  • FastDFS 版本5.05配置文件分为三部分 控制器:tracker.conf存储器:storage.conf客户端:client.conf文件位置:/etc/fdfs基本配置(基础配置,不考虑性能调优情况下): port=22122base_path=/data/fastdfs #设置 ...
  • nginx 配置多域名,配置多个conf 文件

    万次阅读 2018-01-16 17:20:36
    nginx 下配置多域名,目前的配置方式方法采用多个配置文件的方法比较多 在nginx安装目录...../conf下,新建 vhost 文件夹。与nginx.conf同路径了。 在vhost创建你需要的多个 *.conf 的文件 ,如 video.haile....
  • Odoo的配置文件odoo.conf文件里的参数介绍 Odoo配置文件信息 [options] ; addons模块的查找路径 addons_path = E:\GreenOdoo8.0\source\openerp\addons ; 管理员主控密码(用于创建、还原和备份数据库等操作) admin_...
  • 在apache的主配置文件/conf/http.conf 最下面添加 Include "D:\workspace_php\apache-php.conf" #文件路径可以任意 在D:\workspace_php文件下创建 apache-php.conf文件 它的具体内容为 # # PHP-Module setup ...
  • 在我们的项目中,无论是桌面软件还是web项目,经常会使用到ini文件,保存一些键值对的配置  创建类 Settings public class Settings  {  public readonly static Settings Instance = new Settings();  ...
  • python conf 配置

    2019-03-22 15:43:43
    #为什么要做配置文件: ...#1)创建configparser对象,并调用read()函数打开配置文件,里面填的参数是地址 #2)配置文件的格式是[]包含的是section,section下有option=value这样的键值对 ‘’’ 3...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 8,549
精华内容 3,419
关键字:

创建conf配置文件