-
2021-06-25 10:55:48
大量的数据,少的可怜的人力,这可怎么办?怎么才能在短时间内把这些数据录入电脑呢?头疼了吧!这就来教你录入数据的技巧,你准备好了吗?
1. 查找替换(如里面有一个词组和名字出现的频率极高,我们可以选用别的字符代替,前提条件这个字符不会这我们的表格里出现)
2. 不用输入小数点 方法:工具菜单;选项;编辑选项卡;自动设置小数点位数,输完后记得改回来,
3. 快捷键输入 方法: A.复制粘贴上一个单元格的内容;用快捷菜Ctrl+D; B..Alt+(小数字键盘上的数字); C.输入当前系统的时间和日期,用快捷键Ctrl+ 分号;输入当前系统的时间Ctrl+Shift+分号备注:怎样知道这这些符号的数字是多少呢?我有们用CODE函数来行出
4. 通过设置列表输自动输入 方法:选中你设置的列表区域,单击右键,创建列表备注:金额是的第一个单元格一定输入公式,其它的就不用了,会自动填充
5. 自定义序列填充 方法:工具菜单,选项,自定义序列选项卡,输入你要填充的特殊序列,.你部门有8个人,你定义好一下这样的序列,以后你就不用输入了,输入一个人的名称就可以填充了
6. 自动切换输入法 方法: 如选中“姓名”下面的单元格,“数据菜单→有效性→输入法模式”选项卡,在“模式”下拉列表框中选择“打开”,单击确定按钮,如何在短时间内快速录入大量数据》(https://www.unjs.com)。再选择英文编辑列,同上操作步骤,调出“输入法模式”选项卡,在“模式”下拉列表框中选择“关闭(英文模式)”,单击确定按钮OK
7. 自动改正 方法:工具菜单,自动更正选项,替换输入你要更正的内容,,在替换为里输入你要更正后的内容
8. 用Alt加向下的方向键 方法:如D20单元格没有数据,其上面有数据,选中D20单元格,Alt加向下的方向键,选中上面的已输过的一种
9. 数据有效性输入 方法:选中你要设置的有效性的单元格区域,数据菜单,有效性,设置选项卡,设置选择序列,来源输入男,女 备注:男女之间那个逗号一定要要数字和标点符号的半角状态下输入的
10. F5定位空值再用Ctrl+回车批量填充 如方法:选中区域G12:G24,F5定位,条件定位,空值,在G12单元格输入=G11单元格,记得光标一定要在编辑栏里,Ctrl回车
11 设置单元格格式输入 方法:方法:选中你设置的单元格区域,单击右键,设置单元格格式,数字选项卡,分类,自定义,类型输 。题目: A .选中常规,然后自定义:G/通用格式"片" B.自定义单元格格为 0;"不格合";0;@
更多相关内容 -
Excel大量数据(百万级别)的复制,黏贴,以及带函数公式性能的复制
2021-05-15 09:38:50在实际数据处理应用中,经常使用Excel的数据复制,黏贴,常用的方法就是通过在Excel里通过直接拖拉鼠标来进行复制,黏贴,该文针对于百万级别数据的选中,复制,以及函数功能的复制,要远远方便于鼠标的无线长时间的...在实际数据处理应用中,经常使用Excel的数据复制,黏贴,常用的方法就是通过在Excel里通过直接拖拉鼠标来进行复制,黏贴,该文针对于百万级别数据的选中,复制,以及函数功能的复制,要远远方便于鼠标的无线长时间的拖拉,选中。
1.实验数据
有一组51万行的数据,希望从中按顺序,截取到从0 到10万4千行的时间以及数据值,如下图所示:
首先在命令输入行里;输入F1:G104000,Enter,即可选中10万4千行的指定数据
2.希望对数据的时间乘以相应的速度,得到位移数据
首先在B2 表格里输入:A2*1.5,1.5为相应的速度参数,然后Enter,复制相应B2的函数及内容,在剪贴板输入B2:B104000,然后选择公式黏贴,即可实现对10万4千行数据的处理
注意事项:
该数据处理格式运用,依赖于数据遵从相同的函数形式,更复杂的分段形式的函数形式,可以尝试使用VBA数据的函数处理功能
该方法主要针对于数据量比较大的,小级别的还是鼠标拖拉比较方便
欢迎有其他的方法补充!共同进步!
-
Linux快速复制或删除大量小文件
2022-03-17 10:38:47一、快速复制 1、不同磁盘下复制 # tar cvf - /src | tar xvf - -C /dest 2、跨网络主机复制 在网络环境中传输时,打包再结合nc命令,通过管道和tcp端口进行传输。比如我当前要把A机器的目录拷贝到B机器中。 B ...在Linux下需要对大量小文件进行移动或复制时,用cp、mv都会显得很没有效率,可以用tar先压缩再解压缩再结合nc使用网络传输的方式。
一、快速复制
1、不同磁盘下复制
# tar cvf - /src | tar xvf - -C /dest
2、跨网络主机复制
在网络环境中传输时,打包再结合nc命令,通过管道和tcp端口进行传输。比如我当前要把A机器的目录拷贝到B机器中。
- B 机器监听端口并将收到的数据用tar展开
# B 机器 用nc来监听一个端口,并且将收到的数据用tar展开。-l代表监听模式。 # nc -l 1234 |tar -C /target_dir -zxf -
- A 机器上通过nc 和 tar发送 /src 目录
# tar -zcf - /src/ |nc 10.0.0.1 1234
二、快速删除
1、用法示例
# 先创建一个空目录 # mkdir /tmp/empty/ # rsync --delete-before -av /tmp/empty/ /mnt/
2、参数说明
-a 归档模式,表示以递归方式传输文件,并保持所有文件属性 -v 详细输出模式,去掉的话可以减少控制台出 rsync提供了一些跟删除相关的参数 # rsync --help | grep delete --del an alias for --delete-during --delete delete extraneous files from destination dirs --delete-before receiver deletes before transfer, not during --delete-during receiver deletes during the transfer --delete-delay find deletions during, delete after --delete-after receiver deletes after transfer, not during --delete-excluded also delete excluded files from destination dirs --delete-missing-args delete missing source args from destination --ignore-errors delete even if there are I/O errors --max-delete=NUM don't delete more than NUM files 其中--delete-before 接收者在传输之前进行删除操作
-
linux快速复制大量小文件方法 nc+tar
2018-12-05 22:07:111,在需要对大量小文件进行移动或复制时,用cp、mv都会显得很没有效率,可以用tar先压缩再解压缩的方式。 2,在网络环境中传输时,可以再结合nc命令,通过管道和tcp端口进行传输。 nc和tar可以用来快速的在两...1,在需要对大量小文件进行移动或复制时,用cp、mv都会显得很没有效率,可以用tar先压缩再解压缩的方式。
2,在网络环境中传输时,可以再结合nc命令,通过管道和tcp端口进行传输。
nc和tar可以用来快速的在两台机器之间传输文件和目录,比ftp和scp要来得简单的多。
由于nc是一个超轻量的命令,所以一般busybox都会集成它。当一个linux终端,比如linux pda,
通过usblan的方式连接到另一台linux主机的时候,这样的嵌入式终端上一般不会集成ftp server, ssh server
这样比较笨重的服务,这个时候, nc可能成为唯一的上传手段。
比如将机器A上的mytest目录上传到到机器 B(192.168.0.11)上,只需要:
在机器B上,用nc来监听一个端口,随便就好,只要不被占用;并且将收到的数据用tar展开。-l代表监听模式。[root@server-B ~]#nc -l 4444 |tar -C /tmp/dir -zxf - 然后,在A上通过nc和 tar发送test目录。使用一致的4444的端口。 [root@server-A ~]#tar -zcvf - mytest|nc 192.168.0.11 4444
例子:
-
navicat如何导入大量数据?navicat要怎么才能导入大量数据啊
2020-12-18 23:11:47首先你需要先创建好一张表,双击打开例如下图然后你需要右击刚才新建的表名,选择设计表,然后将id的类型改为int,并选中左下角的自动增加然后你需要将你要导入的大量数据放入到一个Excel表中,但需要注意的是表头... -
mysql 快速复制数据量较大的一张表
2019-04-24 16:15:35(1)删除表的索引 (2)把数据表的引擎InnoDB改为MyISAM ...(3)把MyISAM产生的3个文件全部拷贝到要复制的数据库表下(数据库表已经可以看到数据了) (4)生成的数据库表重新建立索引就ok了 ... -
运行dev c++的时候需要输入大量数据,如何将大量数据复制粘贴进去?
2018-08-21 09:09:05是CMD的DOS界面的话 1. 右键单击标题---属性--选项:快速编辑 和 插入模式 都勾上,确定。 2. 鼠标右键表示粘贴。 -
mysql 跨服务器快速复制包含大量数据的表
2014-07-19 11:41:33//生成数据文件 , 经过测试 这里使用的编码必须跟目标数据库的默认编码相同 如果目标数据库创建的时候默认字符集是utf8这里就写utf8,如果目标数据库创建的时候默认字符集是gbk就写gbk 查询数据库默认编码的... -
MySQL批量插入大量数据方法
2018-05-31 16:47:06在MySQL数据库中,如果要插入上百万级的记录,用普通的insert into来操作非常不现实,速度慢人力成本高,推荐使用Load Data或存储过程来导入数据,我总结了一些方法分享如下,主要基于MyISAM和InnoDB引擎。... -
linux下面快速删除大量文件及快速复制大量小文件
2016-07-27 11:48:25(1)快速删除大量小文件 今天遇见一个百万级的cache目录,删了20+分钟只删掉一个目录。。。。 在网上找到了一种巧妙的快速删除方法,原理很简单,使用rsync同步一个空目录即可。对于万级文件的目录基本是秒删,... -
如何快速往Android手机中复制大量文件(免MTP)
2018-06-06 17:50:35默认的也是最简单的办法:用数据线将手机连接到PC上,然后像windows复制文件一样的方式复制粘贴。然后你就发现,文件复制越来越慢,并且万一中断了,粘贴替换是不存在的。粘贴替换不存在也没关系,大不了我分批复制... -
oarcle数据库怎么将大量数据导成excel文件
2018-05-22 17:19:32今天提了清单有近200万条数据,接着将数据导为xlsx格式的excel文件时报错,百度了下,是因为xlsx格式的excel最多存1048576条数据。研究了许久,终于找到答案:就是先将查询文件导为csv文件,再通过access工具转为... -
大量数据情况下前端分页处理
2020-07-30 16:51:44前段时间有朋友问我一个他们公司遇到的问题, 说是后端由于某种原因没有实现分页功能, 所以一次性返回了2万条数据,让前端用select组件展示到用户界面里. 我听完之后立马明白了他的困惑, 如果通过硬编码的方式去直接... -
如何设计大量数据的查重和去重
2018-08-13 19:45:56就像外部排序算法和内部排序算法差别很大,遇到此类大量数据查重问题对算法进行设计是有必要的。 ConcurrentHashMap 数据量不大的时候可以采用concurrentHashMap来操作,在内存中对数据进行同步的CRUD操作。 这种... -
如何使用 SQL 快速删除数百万行数据
2022-01-11 23:06:02但是这里存在一个问题, 删除大量行可能会很慢。 并且有可能需要更长的时间,因为另一个会话已锁定您要删除的数据。 根据我们所熟知的使用SQL删除数据有三个方式: 1:DELETE,可以添加where条件,速度较慢,锁表 2... -
使用命令行将MYSQL表数据快速导出,速度远快于navicat工具导出
2019-05-24 16:16:15navicat导出两百多万条的数据: 通过命令行导出相同的数据: 字段较多的两百多万条数据仅需15.06秒,甚至八百多万条的字段较少的数据也只需要17.55秒,相比navicat的导出工具,快了非常非常非常·····的多!!... -
两台windows内网之间快速复制大量(上百万个)小文件(可用于两台服务器之间)...
2017-11-20 20:57:00经测试,用以下的(协议、工具等),在双千兆网卡下,传输大量1M的文件可以达到每秒60多M: windows文件共享(SMB协议)(若是08 r2 数据中心版,则需要配置“功能”中的“文件服务”);若无法成功启用网络发现... -
如何用navicat快速导入数据
2018-12-26 10:09:25如何用navicat快速导入数据 前提条件:数据都用excel表存储好了 选择复制好数据 鼠标移到黑色箭头图标,点击粘贴,即可 效果图: ... -
EXCEL——处理大批量数据
2021-05-07 09:53:23EXCEL中的元素是按照顺序表存贮的,不适合删减元素,所以我们在删除数据的时候可以转化为选中需要的数据,直接复制粘贴速度非常快。 比如 删除一个元素,后面的元素都需要移动一下。即对于一个60w的数据量,如果你... -
MySQL快速生成100W条测试数据
2018-08-20 14:23:11利用mysql内存表插入速度快的特点,先利用函数和存储过程在内存表中生成数据,然后再从内存表插入普通表中 2、创建普通表及内存表 普通表 CREATE TABLE `vote_record` ( `id` INT (11) NOT NULL AUTO_... -
oracle如何快速创建千万数量级数据
2017-10-23 10:01:46最近项目需要对hadoop-cdh进行性能测试,由于是大数据处理方面,造数据就显得很重要了。造数据前,想到了两种造数据方法。一种是用之前测试时写的造数据脚本造数据。另一种是在数据库现有的基础上造数据。前一种方法... -
如何使用SQLyog将大量数据导入mysql数据库
2017-11-17 10:18:17不过由于数据量大,建表语句写的很麻烦(先copy Excel横表的第一行(属性那一行),然后转置,到txt文件,写建表语句,加逗号),昨天用一天的时间琢磨这个问题,在前辈的指点下,发现这个能导入大量数据比较快捷的... -
Excel 快速输入各类数据的方法技巧示例总结
2017-08-29 09:56:02将数据输入到工作表中是用Excel完成工作最基础的步骤。有些朋友可能会想,只要往单元格敲字不就行了吗?实际情况可能不是那么简单。 Excel工作表中有各种数据类型,我们必须理解工作表中不同数据类型的含义,分清... -
快速批量复制文件名(任何格式均有效)
2017-12-25 15:16:15快速批量复制文件名(任何格式均有效) 第一种 使用WinRAR批量复制文件名 1.1 打开WinRAR。随便打开一个压缩文件,然后向上返回即可;或双击打开WinRAR.exe。 2. 2 在WinRAR的资源... -
oracle大量数据更新优化(merge)
2017-02-28 11:45:33有两张1.5亿数据量的表,一张表中有字段name,大概有5000万左右为null,另一张表name字段不为null,两张表可通过主键id关联。现在省略去不必要的字段,以及分区等构造两张实验表: SQL> CREATE TABLE p... -
架构系列---饿了么MySQL异地多活的数据双向复制
2019-04-09 00:45:12陈永庭,饿了么框架工具部高级架构师,主要负责MySQL异地双向数据复制,支撑饿了么异地多活项目。曾就职于WebEx、Cisco、腾讯等公司。 今天我主要分享饿了么多活的底层数据实施,会和大家介绍在整个多活的设计和... -
❤️ 爆肝三万字《数据仓库体系》轻松拿下字节offer ❤️【建议收藏】
2021-09-11 16:18:20重点关注用户如何快速的完成数据分析,可以直观的反应业务模型中的业务问题,需要大量的数据预处理、数据冗余,有较好的大规模复杂查询的响应性能。 1、为什么要进行数据仓库建模 性能:良好的模型能帮我们快速查询... -
Android利用FileChannel高效写float数组(大量数据)到文件,读文件到float数组
2018-02-24 15:02:36在项目中遇到解析模型数据出现一大堆float数据,处理float数组数据非常耗时间,为了更快显示模型,方案是快速读取已经解析好的数据文件,并转为float数组使用。难点即是:如何快速高效写float数组到文件,并且能够...