精华内容
下载资源
问答
  • 2012年版二级建造师市政公用重点知识点复习1 盾构进出洞控制 盾构进出洞是盾构法施工的重要环节之一在始发井内盾构按设计高程及坡度从预留洞口推出进入正常土层的过程定义为盾构出洞反之盾构从正常土层中进入接收井...
  • yjbys小编下面整理一些计算机二级word知识点,希望大家认真阅读!Word软件考核的重点内容为:正文排版(样式设置、项目符号与编号、文档注释),分隔设置,生成目录(分节、交叉引用、索引和目录),分节处理,添加页眉/...

    计算机网络的分类与的一般的事物分类方法一样,可以按事物的所具有的不同性质特点即事物的属性分类。yjbys小编下面整理一些计算机二级word知识点,希望大家认真阅读!

    Word软件考核的重点内容为:正文排版(样式设置、项目符号与编号、文档注释),分隔设置,生成目录(分节、交叉引用、索引和目录),分节处理,添加页眉/页脚(使用域、奇偶页处理)。

    本章围绕实例展开讲解,借助实例操作,掌握Word高级应用的技巧。实例由三个文件组成:Dword.doc(排版文档)、题目要求.doc(排版要求)、DWord-Ans.pdf(排版后参考样本)。为便于分解成三部分讲解。

    正文排版

    样式设置

    高级Word排版提倡的是用样式对全文中的格式进行规范管理。应用样式可以快速完成对文字、图、表、脚注、题注、尾注、目录、书签、页眉、页脚等多种页面元素统一设置和调整。

    样式是已命名的应用于文档中的一组格式组合,每种样式都有惟一确定的名称。

    样式设置示例:

    1.题目要求:

    (1)新建样式,样式名为:“样式”+准考证号后四位;其中:

    a.字体:中文字体为“楷体-GB2312”,西文字体为“Times New Roman”,字号为“小四”;

    b.段落:首行缩进2字符,-段前0.5行,段后0.5行,行距1.5倍;

    c.其余格式,默认设置。

    注意:题中准考证号设为:091761126100123

    (2)将(1)中样式应用到正文中无编号的文字。

    注意:不包括章名、小节名、表文字、表和图的题注。

    界面介绍

    边用边学word 2003的工作界面主要由标题栏、菜单栏、工具栏、标尺、文档编辑区、滚动条、任务窗格以及状态栏八个部分。

    标题栏

    位于界面最上方的蓝色长条区域,分为两个部分。左边用来显示文件的名称和软件名称,右边是最小化/向下还原/退出三个按钮。

    菜单栏

    是命令菜单的集合,用于显示和调用程序命令的。包含【文件】、【编辑】、【视图】、【插入】、【格式】、【工具】、【表格】、【窗口】和【帮助】9项。

    工具栏

    当启动边用边学word 2003的工作界面时,会自动显示【常用】和【格式】两个工具栏。用户可以根据需要显示或隐藏某个工具栏。

    边用边学word 2003提供了多个工具栏,通常在窗口中显示的只是常用的部分。执行菜单栏中的【视图】/【工具栏】命令,会弹出工具栏菜单。在该命令菜单中,可以看到一些命令前面都有“√”标记,则表明该命令按钮已在工具栏中显示。

    (1)在工具栏中,执行【绘图】命令,【绘图】窗口被打开。

    (2)执行菜单栏中的【工具】/【自定义】命令,将弹出【自定义】对话框。

    (3)在【自定义】对话框中的【工具栏】选项中,勾选所要显示的工具栏。

    设置完选项后,关闭对话框,便恢复了工具栏的显示。

    标尺

    位于文本编辑区的上边和左边,分水平标尺和垂直标尺两种。

    (1)执行菜单栏中的【视图】命令,弹出下拉菜单。在【标尺】命令的左侧如有“√”符号,说明标尺已显示,如没有“√”符号,说明正处在隐藏状态。

    (2)执行【标尺】命令,标尺被显示或隐藏。

    文档编辑区

    位于窗口中央,用来输入、编辑文本和绘制图形的地方。

    滚动条

    位于文档编辑区的`右端和下端,调整滚动条可以上下左右的查看文档内容。

    任务窗格

    集中了边用边学word 2003应用程序的常用命令。由于它的尺寸小,所以用户可以在使用这些命令的同时继续处理文件。

    状态栏

    主要用来显示已打开的Word文档当前的状态,如当前文档页码、文档共有多少节、文档的总页码、当前光标的位置等信息。用户通过状态栏可以非常方便地了解当前文档的相关信息任务。

    【计算机二级word知识点「干货」】相关文章:

    展开全文
  • Word 知识点汇总 一各试题具体考点汇总 字体设置 段落设置 图片 页面设置 表格 字体 颜色 加粗 下划线 居中 阴影 段 前 段 后 间 首行缩进 距 分散 / 两端 对齐 行距 插入 环绕方式 大小尺寸 上 下 左 右 边 距 纸张...
  • 第二语言习得研究 第一章 第二语言习得研究概述 第一节 第二语言习得研究的基本概念 1. 母语通常是指学习者所属种族社团使用的语言因而也称作本族语一般情况下母语通常是儿童出生以后最先接触习得的语言因此母语通常...
  • 大学计算机 重点 知识 浙江大学 考前必看2. 考试题型(卷面成绩100分):增加了什么?(增加了填空题,进制/编码为主,一般只需填写数字)复习资料第1、2章一. 计算机硬件发展的四个阶段:P.8:第一代计算机(称为电子管...

    大学计算机 重点 知识 浙江大学 考前必看

    2. 考试题型(卷面成绩100分):

    增加了什么?(增加了填空题,进制/编码为主,一般只需填写数字)

    复习资料

    第1、2章

    一. 计算机硬件发展的四个阶段:

    P.8:第一代计算机(称为电子管时代)、第二代、第三代、第四代。

    这个划分是以组成计算机的“物理器件”(又称“电子元件”)为依据的。第一代主要电子元件是什么呢?电子管,第二代呢?….

    问题:

    二. 计算机的特点和用途:

    特点:本书归纳为5点(p.12--13),要求知道。计算机用途也要求能说出(p.13--14) 问题:计算机最早的应用领域是(?)

    A.科学计算 B.数据处理 C.过程控制 D.CAD/CAM/CAI等

    又问:目前使用最广泛的领域呢?(大约有80%应用于数据处理,数据处理又称为信息处理。)

    顺便提一下计算机的分类:巨型机(超级计算机)、大型机、小型机、图形工作站、微型计算机(又称PC机,包括了台式机和笔记本电脑)和嵌入式计算机。

    问题:研究人工智能的主要物质手段以及实现人工智能技术的机器是(?)A.机器人

    B.计算机C.传感器D.专家系统

    (什么是专家系统?设想一下,一个医学专家系统就像真的专家一样,能诊断疾病)

    看如下两个问题:

    布达佩斯在哪个国家?

    单击….Here(看几个问题,我只在这里给大家看…有人做了我不让他做的事,我表示遗憾!)

    三. 数制:

    1. p25:任何一个数可以用∑形式展开,这里涉及到基数和位权(或权重)这两个概念。问题:将二进制数10101101转换成十进制数是 (?),将八进制235数转换成十进制数是 (?),将十六进制数5BD转换成十进制数是(?)。

    A.174 B.176

    A.157 B.175 C.175 D.173 C. 178 D.185

    A.1560 B.1469 C.1649 D.

    1-35-png_6_0_0_189_154_486_40_893.25_1263.375-432-0-7-432.jpg

    1-36-png_6_0_0_0_0_0_0_893.25_1263.375-83-0-47-83.jpg

    1-119-png_6_0_0_161_773_526_133_893.25_1263.375-467-0-88-467.jpg

    1650

    展开全文
  • word2vec知识点原理详细讲解 模型的数据的形式和shape word2vec的模型分类(skip-gram和CBOW) skip-gram模型重要知识点理解 cbow模型知识点理解 tensorflow实现(skip-gram)模型的数据的形式和shape

    word2vec知识点原理详细讲解

    1. 模型的数据的形式和shape
    2. word2vec的模型分类(skip-gram和CBOW)
    3. skip-gram模型重要知识点理解
    4. cbow模型知识点理解
    5. tensorflow实现(skip-gram)

    • 模型的数据的形式和shape
      读了很多相关内容,终于搞明白了word2vec的相关原理,下面开始详细介绍主要知识点。
      word2vec的数据输入形式主要是one-hot vector,比如我现在有一大段训练文本,我们先对训练文本分词,统计各个词汇的词频,按照词频大小将词语顺序排列,比如总共有10000个词,one-hot vector的长度就为10000。举个简单的例子,比如现在有个句子:我是一个勤奋的孩子。对他分词为:我,是,一个,勤奋,孩子。总共5个词。那么孩子这个词就可以表示为(0,0,0,0,1).知道了这个概念以后,我们在讲一下嵌入向量embedding vector的概念。其实在word2vec中每个词汇的表示向量就是对应的embedding vector。还是用上面那个例子,5个词的embedding 的shape为[5,embedding_size],其中embedding_size自己指定,为了方便说明,我设为4,就是[5,4],一开始先随机初始化这个矩阵,假如是
      [[0.12,0.14,0.15,-0.2],[0.33,0.01,0.08,-0.07],[0.34,0.01,0.08,-0.07],[0.39,0.31,0.08,-0.07],[0.33,0.01,0.08,-0.001]],那么’孩子’这个词的表示向量就是[0.39,0.31,0.08,-0.07]。也即embedding层既是输入层和隐藏层之间的权重,也是隐藏层的实际输出,也是词汇的向量表示。

    剩下的接着更新。。。

    展开全文
  • 防火重点知识归纳,不错,word o(∩_∩)o...还要这么多字
  • 各章节重点难点一教育研究概述4个要点 1教育研究的类型 定量研究与定性研究依据研究方法的不同来划分的6个要点 定性研究 定量研究 研究对象 不同事物现象的意义及特征性质 有关因素在数量上的变化以及对研究对象的...
  • Word Embedding 知识总结

    万次阅读 多人点赞 2019-04-15 12:44:26
    一. Word Embedding的基本概念 1.1 什么是Word Embedding?...如果将word看作文本的最小单元,可以将Word Embedding理解为一种映射,其过程是:将文本空间中的某个word,通过一定的方法,映射或者说嵌入(embe...

    一 Word Embedding的基本概念

    • 1.1 什么是Word Embedding?
      现有的机器学习方法往往无法直接处理文本数据,因此需要找到合适的方法,将文本数据转换为数值型数据,由此引出了Word Embedding的概念。如果将word看作文本的最小单元,可以将Word Embedding理解为一种映射,其过程是:将文本空间中的某个word,通过一定的方法,映射或者说嵌入(embedding)到另一个数值向量空间(之所以称之为embedding,是因为这种表示方法往往伴随着一种降维的意思,详见下文的讨论)。

    • 1.2 Word Embedding的输入
      Word Embedding的输入是原始文本中的一组不重叠的词汇,假设有句子:apple on a apple tree。那么为了便于处理,我们可以将这些词汇放置到一个dictionary里,例如:[“apple”, “on”, “a”, “tree”],这个dictionary就可以看作是Word Embedding的一个输入。

    • 1.3 Word Embedding的输出
      Word Embedding的输出就是每个word的向量表示。对于上文中的原始输入,假设使用最简单的one hot编码方式,那么每个word都对应了一种数值表示。例如,apple对应的vector就是[1, 0, 0, 0],a对应的vector就是[0, 0, 1, 0],各种机器学习应用可以基于这种word的数值表示来构建各自的模型。当然,这是一种最简单的映射方法,但却足以阐述Word Embedding的意义。下文将介绍常见的Word Embedding的方法和优缺点。

    二 Word Embedding的类型

    Word Embedding也是有流派的,主流有以下两种:
    (1)基于频率的Word Embedding(Frequency based embedding)
    (2)基于预测的Word Embedding(Prediction based embedding)

    • 2.1 基于频率的Word Embedding

      基于频率的Word Embedding又可细分为如下几种:

      Count Vector
      TF-IDF Vector
      Co-Occurence Vector

      其本质都是基于one-hot表示法的,以频率为主旨的加权方法改进,下面逐一介绍。

    • 2.1.1 Count Vector
      假设有一个语料库C,其中有D个文档:{d1, d2, …, dD},C中一共有N个word。这N个word构成了原始输入的dictionary,我们据此可以生成一个矩阵M,其规模是D X N。

      假设语料库内容如下:
      D1: He is a boy.
      D2: She is a girl, good girl.
      那么可以构建如下2 × 7维的矩阵:
      在这里插入图片描述
      该矩阵便是一个counter vector matrix。每个文档用词向量的组合来表示,每个词的权重用其出现的次数来表示。
      当然,如果语料库十分庞大,那么dictionary的规模亦会十分庞大,因此上述矩阵必然是稀疏的,会给后续运算带来很大的麻烦。通常的做法是选取出现次数最频繁的那些词来构建dictionary(例如,取top 1000个词),这样会有效缩减上述矩阵的规模。

    • 2.1.2 TF-IDF
      上一小节中,在构建词的权重时,只考虑了词频TF(Term Frequncy),也就是词在单个文档中出现的频率。直觉上来看,TF越大,说明词在本文档中的重要性越高,对应的权重也就越高。这个思路大体上来说是对的,例如,对于一个主题是Cat的文档,显然Cat这个词汇在本文档中的出现频率会相对高。

      但如果我们把视野扩展到整个语料库,会发现,像is,a等通用词汇,几乎在每个文档里出现的频率都很高。由此,我们可以得到这样的结论:对于一个word,如果在特定文档里出现的频率高,而在整个语料库里出现的频率低,那么这个word对于该文档的重要性就比较高。因此我们可以引入逆文档频率IDF(Inverse Document Frequency)的概念:IDF=log(N/n)。其中,N代表语料库中文档的总数,n代表某个word在几个文档中出现过;当一个word出现地越频繁,那么IDF就越小。显然,IDF用于惩罚那些常用词汇,而TF用于奖励那些在特定文档中出现频繁的词汇。二者的乘积TF X IDF用来表示词汇的权重,显然合理性大大增强。

      举例:
      语料库中共有2个文档,其中有一个文档名为d。
      共有1个文档出现了cat这个词汇;且在特定文档d中,共有8个词汇,cat出现了4次。
      共有2个文档出现了is这个词汇;且在特定文档d中,共有8个词汇,is出现了4次。
      那么根据定义,可以得到:
      在这里插入图片描述
      可见,TFIDF算法极大地惩罚了is这个词汇,从而增加了权重设置的合理性。

    • 2.1.3 Co-Occurence Vector
      本文最开头有所提及,自然语言一大特色是语义和上下文。有如下著名的研究结果:相似的单词趋向于有相似的上下(context)。

      举例:
      那个人是个男孩。
      那个人是个女孩。
      男孩和女孩从概念上来说相似,他们也具有相似的上下文。
      根据如上思想,我们可以构建一套算法,来实现基于上下文的特征构建。

      这里需要引入两个概念:
      Context Window:
      上面我们提到了context,但context的长度需要有一个界定,也就是说,对于一个给定的word,需要有一个Context Window大小的概念。
      在这里插入图片描述
      如上图所示,如果指定Context Window大小为2,范围为前后两个word,那么对于such这个词,它的Context Window如上图所示。

      Co-Occurence(共现):
      有了Context Window的概念,Co-Occurence就好理解了。对于such这个单词来说,在其上下文窗口内,它分别与[she, is, a, beautiful]这四个单词各出现了一次共现。如果我们在语料库中所有such出现的地方,计算其共现的单词,并按次数累加,那么我们就可以利用其上下文范围内的单词来表示such这个词,这就是Co-Occurence Vector的计算方法。.
      假设有如下语料库:
      He is not lazy. He is intelligent. He is smart.
      如果Context Window大小为2,那么可以得到如下的共现矩阵:
      在这里插入图片描述
      我们可以看看He和is的共现次数4是如何计算出来的:
      在这里插入图片描述
      显然地,直接使用共现矩阵,也会存在维数过大的问题,通常可以采取矩阵分解等手段来进行降维优化,在此不做深入讨论。
      共现矩阵最大的优势是这种表示方法保留了语义信息,例如,通过这种表示,就可以知道,man和woman是更加接近的,而man和apple是相对远的。相比前述的两种方法,更具有智能的味道。

    • 2.2 基于预测的Word Embedding
      从上文2.1.3节中已经得知,词的表示中如果蕴含了上下文信息,那么将会更加接近自然语言的本质;并且,由于相似的词有相似的表示方法,甚至可以进行一些运算,例如:人类-男人=女人。但是,上述讨论中,有一个很大的缺陷,那就是词的向量表示维度过大,一个词要用大量其余的词来表示,为后续运算带来了很大的麻烦。因此,我们需要找到一种更好的表示方法,这种方法需要满足如下两点要求:
      (1)携带上下文信息
      (2)词的表示是稠密的
      事实证明,通过神经网络来进行建模,可以满足这两点要求。主流的建模方法又有两种:CBOW和Skip – Gram,下面分别介绍其思想。

    • 2.2.1 CBOW(continues bag of words)
      CBOW的全称是continuous bag of words。其本质是通过context来预测word。
      在这里插入图片描述
      如上图所示,首先语料库内的每个word都可以用one-hot的方式编码。假设选取Context Window为2,那么模型中的一对input和target就是:
      (1)input:He和is的one-hot编码
      (2)target:a的one-hot编码
      接着通过一个浅层神经网络来拟合该结果,如下图所示:
      在这里插入图片描述
      过程简单介绍如下(实际算法会用到哈夫曼编码等降维技巧,这里仅以理解为目的简介基本原理):
      (1)输入为C个V维的vector。其中C为上下文窗口的大小,V为原始编码空间的规模。例如,示例中的C=2,V=4.两个vector分别为4维的He和is的one-hot编码形式;
      (2)激活函数相当简单,在输入层和隐藏层之间,每个input vector分别乘以一个VxN维度的矩阵,得到后的向量各个维度做平均,得到隐藏层的权重。隐藏层乘以一个NxV维度的矩阵,得到output layer的权重;
      (3)隐藏层的维度设置为理想中压缩后的词向量维度。示例中假设我们想把原始的4维的原始one-hot编码维度压缩到2维,那么N=2;
      (4)输出层是一个softmax层,用于组合输出概率。所谓的损失函数,就是这个output和target之间的的差(output的V维向量和input vector的one-hot编码向量的差),该神经网络的目的就是最小化这个loss;
      (5)优化结束后,隐藏层的N维向量就可以作为Word-Embedding的结果。
      如此一来,便得到了既携带上下文信息,又经过压缩的稠密词向量。

    • 2.2.2 Skip – Gram
      Skip-Gram模型可以认为是CBOW的一个网络翻转。CBOW建模的出发点是利用context预测word。Skip-Gram模型的目的则是通过word来预测context。其目的都是为了通过构建一个神经网络模型来获取压缩后的词向量。这里不再详述。

    三 Word Embedding的应用

    现今流行的Word Embedding算法携带了语义信息且维度经过压缩便于运算,因此有了很多用武之地,例如:

    • 计算相似度,比如man和woman的相似度比man和apple的相似度高;
    • 在一组单词中找出与众不同的一个,例如在如下词汇列表中:[dog, cat, chicken, boy],利用词向量可以识别出boy和其他三个词不是一类;
    • 直接进行词的运算,例如经典的:woman+king-man =queen;
    • 由于携带了语义信息,还可以计算一段文字出现的可能性,也就是说,这段文字是否通顺。

    本质上来说,经过Word Embedding之后,各个word就组合成了一个相对低维空间上的一组向量,这些向量之间的远近关系则由他们之间的语义关系决定。

    链接:[https://www.jianshu.com/p/2a76b7d3126b]

    展开全文
  • PAGE PAGE # 第一单元 走进化学世界 一 重要的人名 门捷列夫-元素周期律元素周期表 拉瓦锡最先测得空气中氧 气占1/5 张青莲-测量相对原子质量 侯德榜制碱工业纯碱生 产 二 物质的变化 物理变化没有其它物质生成的...
  • 【导语】在事业单位考试中,计算机专业知识的复习向来是考生复习备考阶段的一大重点,中公教育河南人事考试网为计算机基础知识的复习为考生提供知识点梳理,帮助考生备考!一、Word中的“自动求和”(一)在“工具”...
  • 计算机基础知识:Word常用操作(一)【导语】在事业单位考试中,计算机专业知识的复习向来是考生复习备考阶段的一大重点,河南人事考试网为计算机基础知识的复习为考生提供知识点梳理,帮助考生备考!一、去除页眉的...
  • word文档的版式设计和排版必备知识点总结要点,平常在工作中用到
  • 最新计算机Word、Excel及部分基础知识.doc计算机知识考题Word、Excel及部分基础知识 1.在Word中,单击下面四个常用工具栏中的按钮,可以打开一个下拉列表,该按钮是 A显示比例 B拼写检查 C帮助 D新建2.在Word窗口的...
  • 社团过完五一之后要进行干事办公技能培训,几位领导把知识点总结的重大任务交给了xiaobenny,xiaobenny欣然接受,因为xiaobenny记住了“秋记”姐姐的一句话:当你把你所学的东西梳理一遍给大家共享的时候对自己也是...
  • PAGE PAGE 8 浙江省 信息技术学考知识点编汇 必修一信息技术基础 1) 第一单元信息及信息的获取 重要知识点 ? 信息数据信号消息所包含的意义是事物具体内涵的准确描述 ? 信息的特征:载体依附性可加工和处理性储存性...
  • 2018年计算机二级考试MSOffice重要考点:Word中的虚拟文本当你用Word来设计版面、编排报纸时,如果想看看当整个版面填满文字时的版面效果,该怎么办呢?其实在Word中创建一个虚拟文本即可快速实现。打开Word XP...
  • 幼儿园教师计算机培训计划作者:admin时间:2017-08-17根据我园本学期的工作计划,为了更好地利用计算机进行办公与教学,为将来计算机入教室打好基础...考核内容:包括在日常工作中最常用的各种计算机使用知识。具体...
  • 人教版七年级英语下册重点知识归纳 Unit 9 What does he look like? 短 1. short hair 短 2. long hair 3. curly hair 卷 4. straight hair 直 5. (be) of medium height 中等个子 6. (be) of medium build 中等身材...
  • Word表格之VBA知识

    千次阅读 多人点赞 2019-01-28 13:56:10
    Table对象(因为是对象,...下面是Table的常用方法(注意是部分,不是全部,只例出重要的方法,下面的属性皆如此,如果详细面全部的了解,请看Word VBA自带的帮助。VBAWD10.chm) 使用Table对象 可使用 Tables(...
  • 计算机二级MS Office(Microsoft Office)高级应用考试内容包括计算机的基础知识Word、Excel、PPT办公软件的功能和使用。要求参试者具有计算机应用知识及MS Office办公软件的高级应用能力,能够在实际办公环境中开展...
  • C. “格式”菜单中的“制表位”命令D. “格式”菜单中的“字体”命令 )...字号是4、在 Word 中进行“页面设定”,主要是修改页面的( 时间:120 分钟 总分:100 分 A. 字符数/行数、页边距、分栏数、版面 C. 页边距...
  • 江苏省计算机一级考试知识点整理第一章信息技术概述考点1:什么是信息?既不是物质也不是能量。客观上:信息是指事物运动状态及状态变化的方式;主观上:信息是认识主体所感知或所表述的事物运动及其变化方式的形式...
  • 三角形的初步认识 知识重点透视一 在三角形中任意两边之和大于第三边 任意两边之差小于第三边 1.在三角形 ABC 中 AB=8 AC=7则 BC边长的取值范围为 . 2.在一个三角形中在边长分别为 5 2m-1, 7 则 m 的取值范围为 3.在...
  • Word2Vec知识总结

    2018-12-28 20:28:33
    word2vec是一个产生词向量的模型,是一个双层的神经网络 。非常善于找出词汇的相似度,同时可用于处理之前的技术(像one-hot编码和WordNet)处理不了的语义关系。它可以利用神经网络从大量的无标注的文本中提取有用...
  • C++重点知识点总结及习题,
  • 个性化教育专家对1中小学1 授 课 教 案 学员姓名 授课教师 所授科目 学员年级 上课时间 年 月 日 时 分至 时 分共 小时 教学标题 小数除法 教学目标 了解小数除法的意义掌握小数除法的规则 教学重点 掌握小数除法的...
  • 计算机基础知识:Word常用操作(七)【导语】在事业单位考试中,计算机专业知识的复习向来是考生复习备考阶段的一大重点,河南人事考试网为计算机基础知识的复习为考生提供知识点梳理,帮助考生备考!一、打印指定页...
  • 文章目录1.1 文本删除1.2 剪切与复制1.3 查找与替换1.4 页眉和页脚2.1 新建和保存2.2 文档保护2.3 视图设置2.4 标尺与网格线3.1 字体格式3.2 格式刷3.3 新建样式4.1 项目符号4.2 分栏与方向4.3 背景与边框4.4 插入...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 73,806
精华内容 29,522
关键字:

word的重点知识