精华内容
下载资源
问答
  • 回答:在3dmax如果电脑配置不够,而且模型比较复杂的话,渲染的时间是很长的,如果一张一张去渲染也会花费很多的时间。在3dmax有一个批量渲染的功能,非常实用,现在来看看具体的操作方法把1.打开我们已经做好的...

    回答:

    在3dmax中如果电脑配置不够,而且模型比较复杂的话,渲染的时间是很长的,如果一张一张去渲染也会花费很多的时间。在3dmax中有一个批量渲染的功能,非常实用,现在来看看具体的操作方法把

    1.打开我们已经做好的3D文件,这里需要将摄像机提前设置好

    ac40833ec203337ea59648501a19fedd.png

    2.在菜单栏点击渲染--批处理渲染

    6b364329733b125053134a90638f0cb4.png

    3.在出现的窗口中点击“添加”,这里要注意,添加的数量要和你的摄像机的个数是一样的,不能添加多了或者少了,不然也会影响渲染效果

    7b5e828cc906dd9bb1e18fb3fc9e2912.png

    4.添加好了之后,选择第一个,点击“输出路径”后面的按钮框

    65661bd3d21944af7ff020efa2908c31.png

    5.在弹出的窗口中选择图片的保存路径,在下面输入文件名,点击“保存类型”选择要保存的文件格式,最后保存就可以了

    eade9093ce88ed3d40397e3f1d2f038a.png

    6.点击“保存”之后,软件会回到之前的窗口,我们找到窗口下面的“摄像机”选项,点击并选择对应的摄像机,这样我们的第一个摄像机就设置好了,后面的摄像机按同样的方法设置就可以了

    ac258dbf63f6ecd5748f1b1835f67ced.png

    7.所有摄像机都设置好了之后,点击渲染,电脑就会自动开始渲染了

    4d6ef42aa847171cad7e6f372023a052.png

    展开全文
  • 你好,怎么用Python对一个文件夹里包含多个Excel子文件进行批量修改某一单元格(是合并的)?工作经常用到Excel多事情都重复处理,比如每日报,每周的周报,各种数据表,这种固定的表其实都是636f7079e799bee5baa6e...

    你好,怎么用Python对一个文件夹里包含多个Excel子文件进行批量修改某一单元格(是合并的)?

    工作中经常用到Excel多事情都重复处理,比如每日报,每周的周报,各种数据表,这种固定的表其实都是636f7079e799bee5baa6e997aee7ad9431333363393666重复性的劳动。最近这段时间一直在学python,但是断断续续的,眼高手低,看别人的代码看的很懂,但是自己就是写不出来,决定自己写个小程序练练手,解决下身边的实际问题,提高工作效率。

    这个小脚本主要是把多个excel文件合并到一个文件中。网上搜索了下文章,有不少excel的python库,最后选择了适合python3的openpyxl库,这个库安装很简单,

    pip install openpyxl

    开发的环境是:mac/win python3.5 pycharm

    废话不多说,把代码贴出来,请大家多指点下,我觉着代码还可以更简洁下,如果大家有好的优化方案麻烦留言指导下:

    #coding=gbkimport openpyxlexcel_data=['qihu.xlsx','baidu.xlsx']# new=openpyxl.load_workbook('all.xlsx')for excel_name in excel_data:

    wb= openpyxl.load_workbook(excel_name,data_only=True)

    sheet_name=wb.get_sheet_names()

    # print(sheet_name)

    for work in sheet_name:

    nb = openpyxl.load_workbook('all.xlsx',data_only=True)

    newsheet_name = nb.get_sheet_names()

    if work in newsheet_name :

    name = nb.get_sheet_by_name(work)

    sheet = wb.get_sheet_by_name(work)

    for i in range(1,sheet.max_row 1):

    for j in range(1,sheet.max_column 1):

    # 获取整个sheet数据

    data=sheet.cell(row=i,column=j).value

    name.cell(column=j,row=i).value=data

    else:

    newsheet = nb.create_sheet(title=work)

    name = nb.get_sheet_by_name(work)

    sheet = wb.get_sheet_by_name(work)

    for i in range(1,sheet.max_row 1):

    for j in range(1,sheet.max_column 1):

    # 获取整个sheet数据

    data=sheet.cell(row=i,column=j).value

    name.cell(column=j,row=i).value=data

    print(name)

    nb.save('all.xlsx')

    # print(newsheet_name)

    如何用python3处理好多个excel数据

    读取mysql,填写数据到excel

    from

    pyexcel_xls

    import

    save_datafrom

    pyexcel_xls

    import

    get_datafrom

    collections

    import

    ordereddictimport

    mysql.connector

    #和数据库建立连接cnx

    =mysql.connector.connect(user='root',

    password='',

    host='127.0.0.1',

    database='test')#查询sql

    =

    "select

    my_name,my_value

    from

    tbl_members

    "#执行查询cursor.execute(sql)#获得查询结果result

    =

    cursor.fetchall()

    cursor.close()cnx.close()

    #打开预定义表头文件xls_header=

    get_data("d:/xh.xls")

    #获得表据xh

    =

    xls_header.pop("sheet1")

    #拼接整表数据xd

    =

    ordereddict()xd.update({"sheet

    1":xh result})

    #保存到另一个文件中save_data("d:/xd.xls",xd

    用Python导出工程文件两个子页里的数据成为两个excel表格,但我想把它合并成个一个excel表格的两个sheet

    可以采用一些Excel的模块去实现如xlrd、xlwt、openpyxl、xlsxwriter等模块。xlrd模块主要用取Excel表,xlwt与xlsxwriter模块主要用于据写入表中,两个模块任选其一即可,但是xlwt与xlsxwriter模块不支持修改表,所以在信息追加的时候会较麻烦,有些朋友可能这个地方遇到了很大的问题,其实这个问题至少有两种思路解决:

    A、换成其他模块,比如openpyxl等,这个模块实现起来会相对简单一些,比如目前已经收到的苏wisdom同学采用的就是这种方法,值得表扬,所以以下方法1会参照苏wisdom同学的答案。此外,截止至目前为止『歹ピ№ㄕ』同学、微雨同学、黄梦颖同学已经提交第二次作业,一并表扬。

    B、仍然使用xlwt与xlsxwriter等模块,但是先将每次读取的信息存储到list(列表)中,然后,最后一次写入。这一种方式稍微复杂一些,所以老师在方法2中采用这种方式去写,目的是给大家一个解决方案的参考,有更优的方案可以随时邮箱反馈。

    此外,还有一个难点,即一个表格中有多个sheet,我们希望能够用程序自动获取这多个sheet,然后将各sheet中的内容一并写入到最终表格中,目前答案中暂时没有看到解决这个问题,如果大家能解决这个问题,是极好的。各位同学可以参考老师的第二种方法,第二种方式中,考虑了多个sheet的问题,各位也可以对程序进行优化。

    python 将txt每个指定分隔范围的数据 写入excel 一个单元格

    所有的分隔行都一样么(即字符个数)。

    这个完全可以。

    python处理txt没问题。

    安装xlwt写excel也没问题。

    问题只在数据的细节(怎么拆分数据)

    如何使用python编辑一个表格,写入粘贴板,粘贴出来的数据可以匹配到excel里?

    #替换为空格码如下:

    from ctypes import *

    user32 = windll.user32

    kernel32 = windll.kernel32

    def set_clipboard(data):

    ####user32.OpenClipboard(c_int(0))

    ####user32.EmptyClipboard()

    ####alloc = kernel32.GlobalAlloc(0x2000, len(bytes(data, encoding='utf_8')) 1)

    ####lock = kernel32.GlobalLock(alloc)

    ####cdll.msvcrt.strcpy(c_char_p(lock),bytes(data, encoding='utf_8'))

    ####kernel32.GlobalUnlock(alloc)

    ####user32.SetClipboardData(c_int(1),alloc)

    ####user32.CloseClipboard()

    set_clipboard("A\t1\t2\t3\nB\t1\t2\t4")

    VB或者python如何批处理1000个excel表格文件,我需要在每一个文件的第28(AB)列数据乘以2?

    提供个截图看看数据

    python批量修改excel工作薄

    直接导入,然后你录个宏,然后根据你的宏就可以照你的做了!

    Python如何将一个列表写入到一个excel表中的一列,求Python代码,谢啦!

    import xlwt

    f = xlwt.Workbook() #工作簿

    sheet1 = f.add_sheet(u'sheet1',cell_overwrite_ok=True) #创建sheet

    l_=[1,2,3,4,5]

    for i in range(len(l_)):

    sheet1.write(0,i,i)#表格的第一行开始写。第一列二列。。。。

    #sheet1.write(0,0,start_date,set_style('Times New Roman',220,True))

    f.save('text.xls')#保存文

    展开全文
  • 了解才知道是为了将heic格式的图片转为jpg格式,一个一个的修改后缀,这样太浪费时间了,其实是可以批量转换的,并且转换的方法也是很简单的,这样就解决了在安卓打不开的问题了,那安卓中怎么查看he...

    最近知道同事加班到很晚,了解才知道是为了将heic格式的图片转为jpg格式,一个一个的修改后缀,这样太浪费时间了,其实是可以批量转换的,并且转换的方法也是很简单的,这样就解决了在安卓中打不开的问题了,那安卓中怎么查看heic格式的文件呢?

    1. 想在电脑上打开苹果heic格式,只需要把heic图片转换为jpg就可以在安卓或者电脑上查看了;

    2. 在电脑上运行苹果heic图片转换器,然后直接点击“添加图片”即可;

    3. 可以批量添加,添加过后,在预览页可以看到上传的图片,在此页面继续添加文件以及更改图片的储存位置;

    4. 图片都添加完,需要对要转换的图片的格式,质量以及大小参数进行修改,格式改为jpg ,也可以改为其他的,都是看自己需求;

    5. 最后就是点击右下角“开始转换”,网络正常的情况下,转换速度惊人哦!如果是批量转换的话稍等一会。

    苹果heic图片转换器https://www.xunjieshipin.com/download-heic2jpg

    以上是安卓中怎么查看heic格式的文件的相关内容,希望可以帮助到你!


    来自 “ ITPUB博客 ” ,链接:http://blog.itpub.net/31557905/viewspace-2653398/,如需转载,请注明出处,否则将追究法律责任。

    转载于:http://blog.itpub.net/31557905/viewspace-2653398/

    展开全文
  • 这批数据有对局战场id字段,再根据这些id转化为文件名,连接远程FTP搜索该文件并下载到本地,然后打开文件删除前5行并在第6行行首添加一个字母,最后将改文件后缀名修改。 一天处理50+个这样的文件转化需求,简单...

    前言

    有个小姐姐要从历史数据日志里根据一定的规则筛选一批数据,这批数据中有对局战场id字段,再根据这些id转化为文件名,连接远程FTP搜索该文件并下载到本地,然后打开文件删除前5行并在第6行行首添加一个字母,最后将改文件后缀名修改。 一天处理50+个这样的文件转化需求,简单算了下,差不多刚好要一天时间吧!!
    但是,这怎么可以!!!!!!
    于是,我主动提出了救援支持,结果就是现在基本上10分钟以内可以搞定以上操作!!

    需求梳理

    ①数据处理:按照一定规则从历史数据日志筛选一批数据
    ②确定文件及目录:根据一定规则确定文件名及所在FTP子目录(远程FTP按照日期建子目录存储的文件)
    ③连接FTP:连接远程FTP
    ④批量下载文件:依据②中文件名及目录循环切换FTP远程目录并下载文件
    ⑤处理文件:打开文件并删除前5行 在文件第6行行首添加字母,保存时修改文件后缀(格式)

    1、数据处理

    历史数据日志有多份,存放在同一个文件夹,文件格式是csv
    使用pandas进行数据处理操作
    处理步骤:

    • 读取数据合并的时候同步按照既定条件进行数据筛选
    • 选择需要用到的字段

    原始数据长啥样?

    pandas.csv()读取数据后,我们使用info可以发现原始日志包含了71个字段,同时单个文件200MB+38万条数据。。

    >>>df.info()
    <class 'pandas.core.frame.DataFrame'>
    RangeIndex: 386418 entries, 0 to 386417
    Data columns (total 71 columns):
     #   Column                   Non-Null Count   Dtype  
    ---  ------                   --------------   -----  
     0   @timestamp               386418 non-null  object 
     1   appid                    386418 non-null  int64  
     2   assist                   386418 non-null  int64  
     3   battle_sum               386418 non-null  int64  
     4   battleid                 386418 non-null  int64  
    ...
     69  usernum                  386418 non-null  int64  
     70  victory                  386418 non-null  int64  
    dtypes: float64(7), int64(54), object(10)
    memory usage: 209.3+ MB
    

    筛选既定条件数据

    考虑到我们一次性处理的文件数不止一个,所以在读取原始日志后可以先把条件筛选工作做了再合并。
    处理完之后,我们发现文件大小降低为7.9KB,很轻松的感觉有木有~

    >>>df = df[df['modetid']>=117 ]
    >>>df = df[df['usernum']>=10 ]
    >>>df = df[df['pentakill']>=1 ]
    >>>df.info()
    <class 'pandas.core.frame.DataFrame'>
    Int64Index: 14 entries, 117184 to 384421
    Data columns (total 71 columns):
     #   Column                   Non-Null Count  Dtype  
    ---  ------                   --------------  -----  
     0   @timestamp               14 non-null     object 
     1   appid                    14 non-null     int64  
     2   assist                   14 non-null     int64  
     3   battle_sum               14 non-null     int64  
     4   battleid                 14 non-null     int64  
     ...
     69  usernum                  14 non-null     int64  
     70  victory                  14 non-null     int64  
    dtypes: float64(7), int64(54), object(10)
    memory usage: 7.9+ KB
    

    选择需要用到的列

    实际上我们在后续处理中需要用到的列比较少,咱们一并处理了吧

    >>>df = df[['@timestamp','battleid','herotid','quadrakill','pentakill']]
    >>>df.info()
    <class 'pandas.core.frame.DataFrame'>
    Int64Index: 14 entries, 117184 to 384421
    Data columns (total 5 columns):
     #   Column      Non-Null Count  Dtype 
    ---  ------      --------------  ----- 
     0   @timestamp  14 non-null     object
     1   battleid    14 non-null     int64 
     2   herotid     14 non-null     int64 
     3   quadrakill  14 non-null     int64 
     4   pentakill   14 non-null     int64 
    dtypes: int64(4), object(1)
    memory usage: 672.0+ bytes
    

    处理过程封装待用

    由于合并多文件的操作在此前介绍过,这里不做更多科普,有兴趣同学可以前往查阅
    以下是全部代码:

    import os
    import pandas as pd
    import time
    
    def concatData():
        start_time = time.perf_counter()
        print('正在读取原始对局日志......')
        location = './对局日志'
        fileList = []
        n = 0
        #合并数据
        for fileName in os.walk(location):
            for table in fileName[2]:
                path = fileName[0] + '/' +table
                Li = pd.read_csv(path,header=0)
                #通过指定规则筛选数据
                Li = Li[Li['modetid']>=117 ]
                Li = Li[Li['usernum']>=10 ]
                Li = Li[Li['pentakill']>=1 ]
                n = n+1
                fileList.append(Li)
                print('第'+str(n)+'个表格已经合并')
        print('在该目录下有%d个文件'%len(fileList))
        print('正在合并,请稍等......')
        res = pd.concat(fileList,ignore_index = True)
        print('合并完成......')
        #选择需要用到的字段
        res = res[['@timestamp','battleid','herotid','quadrakill','pentakill']]
        use_time = time.perf_counter() - start_time
        print('合并数据消耗时长:{0:.2f} 秒\n'.format(use_time))
        return res
    

    2、确定文件及目录

    在上一步数据处理后,我们得到的数据长下面这样:

    >>>df.head() 
                     @timestamp      battleid  herotid  quadrakill  pentakill
    117184  2020-05-27 13:05:11  110853427027       14           0          1
    130197  2020-05-27 13:49:10  110853428327       27           0          1
    151473  2020-05-27 15:18:37  110853430538       17           0          1
    185862  2020-05-27 17:39:53  110853434015       14           0          1
    194350  2020-05-27 18:01:38  110853434646       22           0          1
    

    在远程FTP里文件存储在二级目录里,二级目录是以日期命令,在历史数据日志里有每个对局发生的时间,因此可以通过这些字段行程 改文件及所在目录关系。
    远程ftp目录结构
    由于时间字段@timestamp是object格式,且形如“2020-05-27 13:05:11”,我们直接采用字符串的**split()**方法即可获得日期目录。

    df['@timestamp'] = df['@timestamp'].str.split(' ').str[0]
    

    文件格式为str(df.iloc[i][1])+’.bd’

    3、连接FTP

    Python中默认安装的ftplib模块,常见的函数列举如下:
    参考文档:https://docs.python.org/3/library/ftplib.html

     **ftp登录连接**
    from ftplib import FTP            #加载ftp模块
    ftp=FTP()                         #设置变量
    ftp.set_debuglevel(2)             #打开调试级别2,显示详细信息
    ftp.connect("IP","port")          #连接的ftp sever和端口
    ftp.login("user","password")      #连接的用户名,密码
    print ftp.getwelcome()            #打印出欢迎信息
    ftp.cmd("xxx/xxx")                #进入远程目录
    bufsize=1024                      #设置的缓冲区大小
    filename="filename.txt"           #需要下载的文件
    file_handle=open(filename,"wb").write #以写模式在本地打开文件
    ftp.retrbinaly("RETR filename.txt",file_handle,bufsize) #接收服务器上文件并写入本地文件
    ftp.set_debuglevel(0)             #关闭调试模式
    ftp.quit()                        #退出ftp
    **ftp相关命令操作**
    ftp.cwd(pathname)                 #设置FTP当前操作的路径
    ftp.dir()                         #显示目录下所有目录信息
    ftp.nlst()                        #获取目录下的文件
    ftp.mkd(pathname)                 #新建远程目录
    ftp.pwd()                         #返回当前所在位置
    ftp.rmd(dirname)                  #删除远程目录
    ftp.delete(filename)              #删除远程文件
    ftp.rename(fromname, toname)#将fromname修改名称为toname。
    ftp.storbinaly("STOR filename.txt",file_handel,bufsize)  #上传目标文件
    ftp.retrbinary("RETR filename.txt",file_handel,bufsize)  #下载FTP文件
    

    获取远程FTP地址端口及账号密码后,即可进行连接

    from ftplib import FTP
    
    def ftpConnect():
        #实例化一个fto对象
        ftp =FTP()
        #ftp地址及账号密码
        host = 'xxx'
        port = xxx
        user_name = 'xxx'
        password = 'xxx'
        #连接ftp
        ftp.connect(host ,port)
        ftp.login(user_name,password)
        #打印欢迎消息
        print (ftp.getwelcome())
        #设置被动模式(0是主动,1是被动)
        ftp.set_pasv(1)
        print('ftp连接成功\n')
        return ftp
    

    4、批量下载文件

    下载文件前需要先切换到该文件所在的文件目录,然后再进行文件下载
    切换文件目录:ftp.cwd(pathname) #设置FTP当前操作的路径
    下载文件:ftp.retrbinary(“RETR filename.txt”,file_handel,bufsize) ,filename.txt是我们需要下载的文件
    下载文件前先以写模式在本地打开文件file_handle=open(filename,“wb”).write

    def ftpDownload(ftp,df):#df存放需要下载的文件及其所在目录
        start_time = time.perf_counter()
        n = 0
        m = 0
        print('正在下载文件')
        for i in range(len(df.index)):
    
            #获取文件所在目录
            pathname = df.iloc[i][0]
            #切换到文件所在目录
            ftp.cwd(pathname)
            #打印一级文件目录
            #files = ftp.dir()
            #获取目录下的所有文件
            #file_list = ftp.nlst()
            #设置本文件下载存储所在路径(./是当前文件所在路径)
            local_path="./录像源文件/"
            #为准备下载到本地的文件,创建文件对象
            remote_file_name = str(df.iloc[i][1]) +'.bd'
            try:
                local_file_name=local_path + os.path.basename(remote_file_name)
                file = open(local_file_name, 'wb')
                #从FTP服务器下载文件到前一步创建的文件对象,其中写对象为file.write,1024是缓冲区大小  
                ftp.retrbinary('RETR '+remote_file_name,file.write,1024)  
                #关闭下载到本地的文件  
                file.close()
            except :
                m = m+1
                print(f'\r共{m}个文件下载失败,共{n}个文件下载完成',end = ' ')
            else:
                n = n+1
                print(f"\r共{m}个文件下载失败,共{n}个文件下载完成",end = ' ')
            ftp.cwd('/')    
        #关闭FTP客户端连接
        ftp.close()
        print(f'\n共{n}个有效对局文件~')
        print('\nftp连接已关闭')
        use_time = time.perf_counter() - start_time
        print('FTP数据下载消耗时长:{0:.2f} 秒\n'.format(use_time))
    

    5、处理文件

    由于需要处理的文件是字符串类型是bytes,在打开的时候需要用“rb”,删除前5行简单用del即可
    在第六行行首写入字符时,需要注意以b作为前缀

    def fileHandle(df):
        print('正在进行数据转化')
        m= 0
        n= 0
        for i in range(len(df.index)):
            try:
                refile = './录像源文件/' + str(df.iloc[i][1]) + '.bd'
                fre = open(refile,'rb')
                a = fre.readlines()
                fre.close()
                del a[0:5]
                
                wrfile = './录像可执行文件/' + f'{str(i)}-' + df.iloc[i][5]+'五杀'+'.rep'           
                fwr = open(wrfile, 'wb')
                a[0]=  b'$'+a[0] 
                fwr.writelines(a)
                fwr.close()
            except :
                m = m+1
                print(f'\r共{m}个文件转化失败,共{n}个文件转化完成',end = ' ')
            else:
                n = n+1
                print(f"\r共{m}个文件转化失败,共{n}个文件转化完成",end = ' ')
    

    6、最后,让脚本运行起来

    没啥别的,一步一步走,我们发现执行效率还蛮高的
    中间遇到过 "error_perm:550 Failed to open file. "的问题,后来发现是远程文件目录不对或者本地文件没有读写权限导致的。

    if __name__ == '__main__':
        starttime = time.perf_counter()
        #合并数据并过滤
        res = concatData()
        #关联英雄名称并处理日期与ftp目录一致
        #df = mergeData(res)
        #登录ftp
        ftp = ftpConnect()
        #下载指定文件
        ftpDownload(ftp,df)
        #转化数据为可播放文件
        fileHandle(df)
        usetime = time.perf_counter() - starttime
        print('\n本次累积消耗时长:{0:.2f} 秒\n'.format(usetime))
    

    人工处理可能需要一天时间,脚本执行只用了不到7分钟!!

    >>>runfile('D:/ftp资源下载/ftp批量下载文件.py', wdir='D:/ftp资源下载')
    正在读取原始对局日志......1个表格已经合并
    第2个表格已经合并
    第3个表格已经合并
    在该目录下有3个文件
    正在合并,请稍等......
    合并完成......
    合并数据消耗时长:10.29 秒
    
    一共81个可用对局文件
    220 (vsFTPd 3.0.2)
    ftp连接成功
    
    正在下载文件
    共18个文件下载失败,共63个文件下载完成   
    共63个有效对局文件~
    
    ftp连接已关闭
    FTP数据下载消耗时长:395.89 秒
    
    正在进行数据转化
    共18个文件转化失败,共63个文件转化完成  
    本次累积消耗时长:407.21
    展开全文
  • 这批数据有对局战场id字段,再根据这些id转化为文件名,连接远程FTP搜索该文件并下载到本地,然后打开文件删除前5行并在第6行行首添加一个字母,最后将该文件后缀名修改。 一天处理50+个这样的文件转化需求,简单...
  • 这批数据有对局战场id字段,再根据这些id转化为文件名,连接远程FTP搜索该文件并下载到本地,然后打开文件删除前5行并在第6行行首添加一个字母,最后将该文件后缀名修改。 一天处理50+个这样的文件转化需求,简单...
  • 每个栏目包括的信息有:日期发文单位文号标题签收栏需要提取其中加粗的这三项内容到Excel表格存储,表格样式如下:也就是需要将收文时间文件标题、文号填到指定位置,同时需要将时间修改为标准格...
  • 在命令提示下键入批处理文件的名称,或者双击该批处理文件,系统就会调用Cmd.exe按照该文件中各个命令出现的顺序来逐个运行它们。使用批处理文件(也被称为批处理程序或脚本),可以简化日常或重复性任务。当然我们...
  • 读取txt文件出现出现多余空行问题

    千次阅读 2018-07-24 14:07:26
    批量读取txt文本的每行url,然后传到requests.get去解析,可是一个神奇的bug出现了,不管我怎么修改总是出现bug,原理上,应该没什么问题,所以一步步的查错,最终终于发现读取txt时出现错误,哎,学艺不精,花了...
  • 有不少文件打开会提示丢失贴图,保存和打开的时候会浪费不少时间,要怎么清除丢失贴图呢?遗憾的是这个方法无法批量。23dmax如何去掉贴图3dsMax要删除没用的贴图可以用以下三个方法:1、在贴图通道,对贴图通道按钮...
  • -- 批量删除 --> delete from <include refid="tableName"></include> where category_id in (" separator="," close=")"> #{item} ``` mybatis-config.xml ``` <!...
  • 答:我们做了一些论坛风格和用户界面,大家可以打开AsaiBBSUser文件夹下的Default.asp中修改论坛会员界面,打开AsaiBBSInc文件夹的AsaiBBSFun.asp修改首页风格,所有程序部分内容均封装在**Fun.asp中,全开源大家...
  • 答:我们做了一些论坛风格和用户界面,大家可以打开AsaiBBSUser文件夹下的Default.asp中修改论坛会员界面,打开AsaiBBSInc文件夹的AsaiBBSFun.asp修改首页风格,所有程序部分内容均封装在**Fun.asp中,全开源大家...
  • 更新说明:修复了在服务器上无法上传文件,因为没有给权限,修改了在添加完假条后点击打印,显示的是空白页面的问题,因为在添加完以后,data数组并无id字段,所以没有查找到这个假条 更新说明:完善了长期假条和...
  • 脉动论坛Ⅲ.rar

    2019-08-30 05:54:48
    51.修改动网帖子列表排序没按照后台指定的BUG、修改动网帖子列表时间范围没按照后台指定的BUG 52.版面图片增加淡入淡出效果 53.带后台管理的上传文件收费,上传头像收费,更改性别收费,更改签名收费,更改基本头像...
  • 5、推荐位在模板文件中的调用 在模板中使用推荐位,可以用KT标签来实现,KT的语法是: 推荐位名称" city_id=$request.city_id limit="推荐数量"}> $item.title}><$item.logo>等变量调用 1)使用“city_id=$...
  • 我自己也常用这种方式批量创建文档以及批量修改文档的标题 文档间的跳转 你在一个书籍会有很多文档,其中一个文档的文档标识叫readme.md,另外一个文档的文档标识叫quickstart.md,两个文档间如何跳转呢? 如果...
  • MAPGIS地质制图工具

    2013-05-06 16:15:30
    1、本功能可以在不同工程之间、不同文件中,不同时间,不同位置自由复制粘贴(section打开就可以)。即便是复制后,再打开其他文件,也可以粘贴。 2、完美支持超级复制粘贴,即使是区有问题,也能完美复制。 操作...
  • 36、jdbc中怎么批量处理的? 80 37、什么是json 83 38、json与xml的区别 83 39、XML和HTML的区别? 84 40、XML文档定义有几种形式?它们之间有何本质区别? 84 41、什么是java反射机制? 84 42、hashmap的底层实现...
  • 可以对URL进行改名,URL地址想怎么变就怎么变。 3.完美的 帐务管理 当时用户交易情况如 交易金额;交易对象;资金流向等详细记录,并与订单关联,可以追踪到某个任务上。 交易金额的来龙去脉一目了然。 4.完美的 ...
  • 3.9 修改跟踪文件 103 3.10 闪回日志文件 104 3.10.1 闪回数据库 104 3.10.2 闪回恢复区 105 3.11 DMP文件(EXP/IMP文件) 106 3.12 数据泵文件 107 3.13 平面文件 110 3.14 小结 111 第4章 内存结构 113 ...
  • 3.9 修改跟踪文件 102 3.10 闪回日志 103 3.10.1 闪回数据库 103 3.10.2 闪回恢复区 104 3.11 DMP文件(EXP/IMP文件) 104 3.12 数据泵文件 105 3.13 平面文件 108 3.14 小结 109 第4章 内存结构 110 4.1 ...
  • 精通Oracle PL/SQL--详细书签版

    热门讨论 2012-08-21 13:06:28
    这一章展示了如何把数据库的数据结构和PL/SQL程序的数据结构最大限度地整合在一起,使代码健壮且易于修改。同时还讨论了如何更好地利用集合把数据从程序批量复制给数据库,抑或反之。  第5章:PL/SQL优化技巧。...
  •  按“lock”左侧的黑三角,在列表选择你刚才保存的配置文件,“开始”。  量产开始。下方左侧第一个方框变成黄色。请耐心等待,时间长短取决于你所选的光盘文件大小和U盘速度。  如果你刚才勾选了...
  • 需要承认一点,现在包括之前的版本都没有做到组件开发和维护的灵活性,所以最近有时间会继续改进一版,做到一个工程只包含两部分:app壳工程+自己负责的组件; 使用了现在或以前版本的小伙伴也不要伤心,组件改进不...
  • 通过csv文件批量导入图数据 Task02:基于医疗知识图谱的问答系统操作介绍(1天) 引言 运行环境 搭建知识图谱 启动问答测试 代码目录介绍 Task03:Neo4j图数据库导入数据(1天) 引言 Neo4j简介 Neo4j 数据...
  • 在Git上有人给我提Issue,说怎么上传文件,其实我一开始就想上这个功能,不过这半年比较忙,所以一直耽搁了。 这次正好没什么任务了,赶紧完成这个功能。毕竟作为一款工具类,有基本的请求和下载功能,就差上... ...
  • 图床教程

    2020-12-08 23:55:00
    本地图片的修改、删除、重命名甚至路径改变都会让图片失效。 图片永不失效的方法是上传图片至图床</strong>,图片的储存位置在互联网上,那么,无论在什么情况下,你的 MarkDown 文件࿰...
  • 请在修改MD文件的同时(或直接留言)备注自己的姓名-单位(大佬-斯坦福大学),一经采纳,会在原文中显示贡献者的信息,谢谢! 4、推荐使用typora-Markdown阅读器:https://typora.io/ 设置: 文件->偏好设置 ...
  • 另:执行批量服务耗时较久,请耐心等待,init与build成功会在控制台提示,serve稍加等待或刷新浏览器即可。 实战详解todo 主应用基座构建 子应用构建 微应用间通信 跨应用通信与vuex结合 发布上线 主...

空空如也

空空如也

1 2
收藏数 30
精华内容 12
关键字:

怎么批量修改文件中修改时间