精华内容
下载资源
问答
  • 翻译)视觉理论-Gestalt 理论

    千次阅读 2014-01-14 15:32:45
    我們可以容易地從圓組中找出小圓,但如果從小圓組中選出圓會更加容易,因圓是從該圖中心出發. 圓組的圖像似乎沒有強烈的中心擴散. 於上一個例子中,人們用直覺來區別顏色(黑/白). 於圖及圖六中,從色彩...
         
    

    转载时请以超链接形式标明文章原始出处和作者信息及本声明
    http://www.blogbus.com/horus-logs/1118442.html

     由来

    格式塔是德文Gestalt的音译,意指有机而连贯的整体。英文常以Contiguration 或Whole等来表示。此词最早由奥地利哲学家埃伦费尔(Christian Von Ehrenfels,1859-1932)于1890年提出,后来这一概念被用来命名由韦特海墨(Max Wertheimer,1880-1943)、考夫卡(Hurt Koffka,1886-1941)和苛勒(Wolfgang Kohler, 1887-1967)于1912年创立于德国的一种心理学,即格式塔心理学。格式塔理论最初建立在某些与流行的经验主义传统的心理学原子论相对立的一般原则上,而其主要贡献则表现在知觉心理学领域,即用大量经典的实验来揭示眼睛如何自然地把一系列经验感觉组织成前后连贯的模型。在格式塔理论看来,就“所见”之物是向观察者显现之物而不是实际存在之物而言,看这种行为本质上是一种现象学过程。格式塔理论的基本出发点是,整体不能用部分之和去理解;整体的特性是基本的,而部分的特性则依赖于它们在整体中的地位。它主张以意识经验中显现的结构性或整体性为心理现象最基本的特征;知觉不是感觉相加的总和,思维也不是观念的简单联结;理解是已知事件旧结构(格式塔)的豁然改组或新结构的豁然形成;学习不是通过许多分散的观念联想而成,而是对整体的组织结构的豁然领悟。结构对学习有重要意义。

    要点及在设计领域的应用

    在某些领域内,心理学和视觉传达设计学具有共同的研究兴趣,视觉知觉便是其中之一。许多年以来,心理学家们一直想确定,在知觉过程中人的眼和脑是如何共同起作用的。作为设计师,对此也同样感兴趣,因为视觉表现,比如平面广告的设计,归根结底是给别人看的。

    对知觉所进行的一整套心理学研究,以及由此而产生的理论,被称为格式塔心理学(完形心理学)。格式塔心理学的部分原理对设计是没有直接影响的。然而在视觉传达设计中,不论在理论还是在实践方面,许多格式塔理论及其研究成果都得到了应用。这些理论和研究述及了这样一个观念,即人们的审美观对整体与和谐具有一种基本的要求。简单地说,视觉形象首先是作为统一的整体被认知的,而后才以部分的形式被认知,也就是说,我们先“看见”一个构图的整体,然后才“看见”组成这一构图整体的各个部分。

    格式塔心理学派断言:人们在观看时眼脑共同作用,并不是在一开始就区分一个形象的各个单一的组成部分,而是将各个部分组合起来,使之成为一个更易于理解的统一体。此外,他们坚持认为,在一个格式塔(即一个单一视场,或单一的参照系)内,眼睛的能力只能接受少数几个不相关联的整体单位。这种能力的强弱取决于这些整体单位的不同与相似,以及它们之间的相关位置。如果一个格式塔中包含了太多的互不相关的单位,眼脑就会试图将其简化,把各个单位加以组合,使之成为一个知觉上易于处理的整体。如果办不到这一点,整体形象将继续呈现为无序状态或混乱,从而无法被正确认知,简单地说,就是看不懂或无法接受。格式塔理论明确地提出:眼脑作用是一个不断组织、简化、统一的过程,正是通过这一过程,才产生出易于理解、协调的整体。

    长期以来,设计师们认识到:表现作品的整体感与和谐感是十分重要的。他们根据直觉的观察和对自己的视觉表现的自觉评价,以及受众的反应得出结论:无论是设计师本人或是观者,都不欣赏那种混乱无序的形象。一个格式塔很差的形象即缺乏视觉整体感、和谐感的形象,产生的视觉效果是缺乏联系、细节零散而无整体性,破坏了人们的视觉安定感,给人的总的印象是“有毛病”。这样的视觉形象势必为人们所忽视,乃至于拒绝接受。

    格式塔原理及应用-格式塔原理在构图中的应用形式:
    1:删除
    删除就是从构图形象中排除不重要的部分,只保留那些绝对必要的组成部分,从而达到视觉的简化。
    在实际的设计创作过程中,必须留意在设计中是否添加了任何与你预期的表达相抵触的多余的东西。如果有,则应排除,以改进你设计上的视觉表达的格式塔。通过研究一些设计大师的作品,我们注意到,任何有效的,吸引人的视觉表达,并不需要太多复杂的形象。许多经典的设计作品在视觉表现上都是很简洁的。
    2:贴近
    当各个视觉单元一个挨着一个,彼此靠得很近的时候,可以用“贴近”这个术语来描绘这种状态,通常也把这种状态看作归类。以贴近而进行视觉归类的各种方法都是直截了当的,并且易于施行。设计师可以根据需要使用贴近手法创造出完美的格式塔。这是因为由贴近而产生近缘关系,运用近缘关系无论对少量的相同视觉单元还是大量不同的视觉单元进行归类都同样容易。
    比如在印刷版面设计中,为了区分不同的内容,也经常采用近缘关系的方法来进行视觉归类。最简单的例子:在处理不同内容的图片和与之相关的说明文字时,只要将每一幅图片相应的文字段落与之贴近,在此不同的图文组合之间保持一定间距,无须指引符号,读者也不会搞错各个图片和文字段落之间的关系。报刊杂志的版面编排,字母与字母、词与词、行与行之间,也都运用了近缘关系,使版面整体分为若干贴近的栏块,成为若干个相关的视觉组合。
    3:结合
    在构图中,结合就是指单独的视觉单元完全联合在一起,无法分开。这可以使原来并不相干的视觉形象自然而然地关联起来,比如常用的一种设计手法--异形同构:把两种或几种不同的视觉形象结合在一起,在视觉表达上自然而然地从一个视觉语义延伸到另一个视觉语义
    4:接触
    接触是指单独的视觉单元无限贴近,以至于它们彼此粘连。这样在视觉上就形成了一个较大的、统一的整体。接触的形体有可能丧失原先单独的个性,变得性格模糊。就如在图案设计中相互接触的不同形状的单元形在视觉感受上是如此相近,完全溶为一体。
    5:重合
    重合是结合的一种特殊形式。如果所有的视觉单元在色调或纹理等方面都是不同的,那么,区分已被联结的原来各个视觉单元就越容易;相反,如果所有的视觉单元在色调或纹理等方面都是一样的,那么,原来各个视觉单元的轮廓线就会消失,从而形成一个单一的重合的形状。重合,能创造出一种不容置疑的统一感和秩序性。重合各个不同视觉形象的时候,如果我们看到这些视觉形象的总体外形具有一个共同的、统一的轮廓,那么这样的重合成功了。
    6:格调与纹理
    格调与纹理是由大量重复的单元构成的。两者的主要区别在于视觉单元的大小或规模,除此之外,它们基本上是一样的。格调是视觉上扩大了的纹理,而纹理则是在视觉上缩减了的格调。因此,在不需要明确区别的情况下,我们可以同时解释格调和纹理,
    感知格调或纹理的视觉格式塔,总是基于视觉单元的大小和数量的多少。但在一定的场合,别的因素也可能起作用。例如,一个格式塔中视觉单元的总量就可以影响它的外观。当数量很大,以至不能明显地看出单独视觉单元时,这种现象就可能发生。比如透过窗户看到的不远处的树林是足够大的,可以构成一种格调;但是,如果在飞机上俯瞰一整片树林,恐怕就只能将其作为一种纹理来看了。
    格调和纹理实际上没有严格的区分界限,当视觉单元大小及数量变到一定的量值范围,这种特性可以使格调显得像是一种纹理,也可以使纹理呈现为一种格调。或者,创造出一种格调之内的纹理,以至格调和纹理同时并存
    7:闭合
    有一种常见的视觉归类方法基于人类的一种完型心理:把局部形象当作一个整体的形象来感知。这种知觉上的特殊现象,称之为闭合。
    当然,我们由一个形象的局部而辨认其整体的能力,是建立在我们头脑中留有对这一形象的整体与部分之间关系的认识的印象这一基础之上的。也就是说,如果某种形象即使在完整情况下我们都不认识,则可以肯定,在其缺乏许多部分时,我们依然不会认识。如果一个形象缺的部分太多,那么可识别的细节就不足以汇聚成为一个易于认知的整体形象。而假如一个形象的各局部离得太远,则知觉上需要补充的部分可能就太多了。在上述这些情况下,人的习惯知觉就会把各局部完全按其本来面目当作单独的单元来看待。

    实例:

    颜色

    顏色是物件的重要特質,當你看見一件物件時,你首先會注意到的,便是它的顏色。有效地運用色彩,可引起人們注意. 例如,在一組形狀相若的物件中,你可改變其中一件物件的顏色,使它突圍而出。

    有效地運用格式塔的色彩原則,可引起人們注意這可利用人對”不同”和”接近”的偏見。字不但可用作強調你的選擇. 更可顯示應注意的地方. 在菜單的選擇中, 要表明不能採用, 就會用上”灰色”去減低對比—去顯示不能被採用亦即是減低對它們的注意, 因為看菜單時他們不會被看成一組。

    在圖中, 一系列指令在台上操作是灰了就是使用者已選擇文字的平通分段—令一組段落格式指令則繼續是黑色, 因此變成能即時吸引讀者的活躍的主體. 強調的選擇為顯著的組群.  

    形体关系

    當一件物件在空間上接近一組物件,但它本身不屬於這組物件的一部份,它便會被突顯出來. 視覺資料顯示一個地方有著不同的顏色,然而,你所看到的是一團黑圓形的中間有一個白色的圓形。在圖 2b中,我們的感覺告訴我們黑圓形在中間是連成一組的,而白色的圓形並不是同一組。這個物件的結構是我們把感知的能力放進我們的視覺表達上,從而得到此物件的形象。

    如果四個黑色的圓形和白色的圓形放在一組,那麼,便沒有突出的效果。如果有有一組是有五個和三個黑白的圓形成為分支,效果也不會很突出。然而,通常小數顏色圖形的組別會產生心理的現象。在圖三,我們在每組畫上不同的圖形圖案,那個字在黑色底色中較突出。在以上每個層次,我們都能夠用同樣的方法去顯示「黑色」的組別,因為顏色是不同於其他兩組。當你秈整幅圖畫時,黑色的組別會較突出,當然不單只是顏色會影響我們的感覺,還有其他因素。

    形状

    不同形狀會令到物件突出,不過,不單形狀會影響到突出的位置,方向也會影響,例如,所有物件是同一形狀,而當中只有一件物件的方向是不同的,從心理和其他方面都容易判斷。而判斷的時候,很多時,都因為物件形狀和其他的不同,好像在電腦畫面找一個圖標。這個是一個有效的心理過程去挑選資訊,有時候一些 「與眾不同」的物件會較吸引我們。

    大小和远近

    我們可以容易地從大圓組中找出小圓,但如果從小圓組中選出大圓會更加容易,因大圓是從該圖中心出發. 大圓組的圖像似乎沒有強烈的中心擴散.

    於上一個例子中,人們用直覺來區別顏色(黑/白). 於圖五及圖六中,從色彩上上觀察,起初是對稱的. 但直覺會產生不對稱效果. 其原因是視覺喜歡視線上較大的東西. 物件大小與我們視線遠近息息相關; 一般來說,從視線上物件越大,與我們的距離越近,亦對於較大的物件產生較大興趣,使它變為主體.

    物件结构对配置的影响

    物件的結構影響分類. 結構影響結構. 列陣(a)與(b)有兩種不同的物件. 一是簡單的圓形. 另一種是不完整的圓形—缺少一少部份. 當有缺憾的圓形被放置在多個完整的圓形中(如圖A),那很容易看到不完整的圓形. 相反卻是另一回事—列陣(b) ,在多個不完整的形中,卻很難覺察到那個完整的圓形. 原因是不完整的圓形是”圓形加上缺口”,是擁有二種成分的結構. 完整的圓形則是單單一個没有組合的結構. 當把完整的圓形放置於多個不完整的圓形當中. 它不能與它們形成一組,因為它沒有結構. 此等多個簡單物件便會形成子群. 複雜物件在簡單物件中就會成為活躍物件.



    展开全文
  • 5.oracle的dump理解 数据块理论

    万次阅读 2016-04-23 21:47:36
    5.oracle的dump理解 数据块理论 欢迎转载,转载请标明出处: 前两篇描述了我们在操作层面看到的一些东西,但是没有理论指导,看到越多我们只会越迷糊。所以,蛤蟆从官方文档上摘取一些老少皆宜的内容来补脑。  ...

     

    5.oracle的dump理解五 数据块理论

    欢迎转载,转载请标明出处:http://blog.csdn.net/notbaron/article/details/51228514

    前两篇描述了我们在操作层面看到的一些东西,但是没有理论指导,看到越多我们只会越迷糊。所以,蛤蟆从官方文档上摘取一些老少皆宜的内容来补脑。

           块是数据块IO的最小单位。

    1     数据块和操作系统块

    从物理层面,数据库的块存储时候是由操作系统块组成。操作系统块是操作系统可以读写的最小数据单位。ORACLE块是一个逻辑存储结构结构,大小和结构对操作系统是透明的。

    如下图1


    数据块大小和操作系统块大小是可以不一样的,数据块请求多个数据块,不是多个操作系统块。

           当数据库请求一个数据块,操作系统转换这个请求操作到存储上。数据块的逻辑分离有一下两点:

    n  应用层面不需要确定磁盘上数据的物理地址

    n  数据块可以条带或镜像到多个物理磁盘

    1.1     数据块大小

    每个数据块都有一个数据块块大小。有初始化参数DB_BLOCK_SIZE初始化参数在创建库的时候设置。如果没有设置就使用操作系统默认的块大小来制定。标准的数据块大小是4KB或8KB。如果和操作系统块大小不一样,必须是操作系统的倍数。

    1.2     表空间块大小

    在创建独立的表空间的时候使用不同于DB_BLOCK_SIZE大小的块大小。

    2     块格式

    每个数据块都有一个格式或内部结构来使能数据块来跟踪数据和空闲空间。存放表,索引还是表族数据都是相似的。

    如下图2


    2.1     数据块Overhead

    数据块的Overhead蛤蟆不知道翻译成什么,就不翻译了。

    数据块使用Overhead来管理块本身。不能用于存储用户数据。这就说明虽然每个块大小假设是8KB,但是实际可用的其实并没有这么多的。

           Overhead包含如下几个部分:

    2.1.1       块头

    块头包含块的通用信息,例如块地址,段类型。对于交易管理的块,块头包含了活动和历史的交易信息。

    每个更新块都需要一个交易入口(transaction entry)。ORACLE数据块初始化保留了这些空间。每个交易入口需要的空间取决于操作系统平台。一般是23个字节左右。

    2.1.2       表目录

    对于堆表,这个目录包含存在这个块的表的元数据块。对于簇表,多个表会存储行在同一个块中。

    2.1.3       行目录

    对于堆表,该目录描述行在块中的位置。数据块会把行放到块底部的任何位置。行地址记录在该目录向量中。

           一个rowid指向特定文件,块和行位置。例如ROWID:AAAPecAAFAAAABSAAA最后3个AAA表示行号.行号是行目录中索引。行目录包含指向块中数据的指针。如果从块中移动一行,数据块会修改行目录中的指针,ROWID保持不变。

           数据库在行目录分配空间后,删除行后数据块不会回收这个空间。因此,一个当前是空的块(曾有50行的块)可能分配了100个字节在行目录。数据块在插入行的时候会重新使用这空间。

           OverHead中的有些部分是固定的,但是整体是变化的。平均在84~107字节。

    2.2     行格式

    一个块中除了Overhead,剩下的都是行了。就是真正放数据的地方了。

           行数据保持真正的数据,例如表行或索引键。每个数据块有内部格式,每个行也有行格式使得数据块来跟踪数据。

           Oracle数据块通过变长记录来存储行。一个行包含一个或多个段。每个段叫做行片(rowpiece),每个行片有一个行头和列数据。

    如下图3


    2.2.1       行头

    ORACLE数据使用行头来管理行片在块中的存储。行头包含以下信息:

    l  行片中的列数量

    l  在其他块中的行片(如果完整的行在一个数据块中,那么行作为一个行片,如果不能在一个块中存储,那么会被存储在多个行片中)

    l  簇表的簇键

    一个块中完整包含一个行至少需要3个字节的行头。

    2.2.2       列数据

    行头之后,列数据段保存实际的数据。一般,存储列的顺序和CREATE TABLE语句一致,但是顺序不能保证。例如,LONG类型一般最后创建。

           在行片中的每个列,数据库分开存储列长度和数据。空间取决于数据类型。如果是可变的,那么会需要空间来增长或变小。

           在块头中的行目录上的有个槽指向行。

    2.2.3       ROWID格式化

    ORACLE使用ROWID来唯一指定一行。ROWID是数据块用来访问行的结构。一个ROWID物理上不存在数据块上,但是和数据所在的文件和块相关。

    ROWIW格式如下图4


    分为4个段,第一个是数据对象号,表簇有相同的数据对象号。

    第二个是相对文件号,第三个是块号,第四个是行号。

           ROWID指向一个行片后,ROWID在一些情况下可以改变。例如,发生行移动,分区键更新,闪回表操作等。

           内部数据块执行行移动是物理上先删除然后在插入。但是行移动是被当做UPDATE,可能会触发触发器。

    3     块压缩

    数据块可以使用表压缩来消除数据块中重复值。

    数据块的格式不管是否压缩都是一样的。区别在于,块开始存储时候存储了一个符号表。使用符号表中的短符号来代替重复的值。

    例如:

    2190,13770,25-NOV-00,S,9999,23,161

    2225,15720,28-NOV-00,S,9999,25,1450

    34005,120760,29-NOV-00,P,9999,44,2376

    9425,4750,29-NOV-00,I,9999,11,979

    1675,46750,29-NOV-00,S,9999,19,1121

    压缩后如下:

    2190,13770,25-NOV-00,S,%,23,161

    2225,15720,28-NOV-00,S,%,25,1450

    34005,120760,*,P,%,44,2376

    9425,4750,*,I,%,11,979

    1675,46750,*,S,%,19,1121

    使用*来替换29-NOV-00

    使用%来替换9999

    符号表如下图5


    4     数据块中的空间管理

    数据块填充数据块从底部开始,空闲空间位于行数据和块头之间。在UPDATE时候自由空间会减少。数据库管理空闲空间来优化性能避免浪费空间。

    4.1     空闲空间百分比

    PCTFREE参数指定如何管理自由空间。PCTFREE是重要的避免行迁移和空间浪费。

    如果更新少,可以如下设置:

    CREATETABLE test_table (n NUMBER) PCTFREE 20;

    如下图6所示


    PCTFREE设置为20,需要至少有20%的块是空闲的。预留20%是用于现存行更新的使用。

    4.2     数据块中优化空闲空间

    空间空间的比例不能少于PCTFREE,但是可以超过20%的。

    以下命令可以增加块中的空闲空间:

    l  DELETE

    l  UPDATE(将存在的值改成更小的值,或者让行发生迁移)

    l  INSERT(插入唤醒块压缩,导致更多空闲空间)

    insert释放空间注意下面2点:

    1、 本次交易的插入语句释放后,还是本次交易使用该空间;

    2、 如果是其他交易释放的空间,需要其他交易COMMIT后才能使用

    4.3     合并碎片空间

    释放的空间可能不是连续的,如下图7所示


    当一下条件发生时候,ORACLE自动合并空闲空间

    l  INSERT或UPDATE命令企图使用块中空间来包含新行

    l  空闲空间太分散不能插入到块中连续的空间中

    合并后,空闲空间就连续了。

    合并只有在条件满足才执行,因为会该动作是会影响性能的。

    4.4     行连接和行迁移

    数据块必须管理太大的行存储在单个块中。

    l  当第一次插入时候,行太大。ORACLE存储该行使用段保留的多个块连接。行连接在大行时候经常发生。例如包含LONG或者LONGRAW。不可避免的。

    l  当行被更新的长度增加,剩下的空间不能保持更新的行。发生行迁移,将整行移动新的数据块,原来行片中保存一个指针指向新的位置。ROWID并没有发生改变。

    l  一行超过255列,一个行片中只能保持255个列。如果超过的话,需要链接多个块了。

    当行迁移或链接后,IO就会增加。

    5     索引块

    索引块是特殊类型的块,和表块有些不同。数据块使用索引块来管理索引的逻辑存储空间。

           索引块类型有如下:

    根块:索引入口

    分支块:搜索索引键时候的导航块

    叶块:包含索引键值ROWID,指向表中的相关行。

    5.1     索引入口存储

    索引入口存储方式和表行在数据块中存储一样。索引在块中的不是按二进制顺序存储,而是用堆的方式。

           数据块管理行目录的方式和数据块有些不同。行目录中的是根据键值排序的。提高了索引扫描的效率。

    5.2     索引块槽位复用

    索引块比堆表的表块有更多行。在一个单独索引块中存储很多行,可以让数据块管理更简单因为可以避免频繁的分裂块。

    数据块可以复用索引块中的空间。如果插入一个值到列中,然后删除一个值。当行需要空间的会后,数据块会重新使用之前删掉释放出来的索引槽位。

    索引不能合并他们自己,除非手动执行ALTER INDEX REBUILD或者COALESCE选项。

    5.3     合并索引块

    索引合并压实当前存在索引数据,如果重新组织释放了块,释放的块留在索引结构中,并不释放出来给其他用户。不会自动执行,需要输入ALTER INDEX REBUILD或者COALESCE选项。

     

     

     

     

     

     

     

     

     

     

     

    展开全文
  • TRIZ意译为发明问题的解决理论。TRIZ理论成功地揭示了创造发明的内在规律和原理,着力于澄清和强调系统中存在的矛盾,其目标是完全解决矛盾,获得最终的理想解。它不是采取折中或者妥协的做法,而且它是基于技术的...

    TRIZ意译为发明问题的解决理论。TRIZ理论成功地揭示了创造发明的内在规律和原理,着力于澄清和强调系统中存在的矛盾,其目标是完全解决矛盾,获得最终的理想解。它不是采取折中或者妥协的做法,而且它是基于技术的发展演化规律研究整个设计与开发过程, 而不再是随机的行为。实践证明,运用TRIZ理论,可大大加快人们创造发明的进程而且能得到高质量的创新产品。

    TRIZ,(俄文:теории решения изобретательских задач 俄语缩写“ТРИЗ”翻译为“发明家式的解决任务理论”,用英语标音可读为Teoriya Resheniya Izobreatatelskikh Zadatch,缩写为TRIZ。英文说法:Theory of Inventive Problem Solving,TIPS),也有人缩写为TIPS。

    TRIZ,直译是“发明问题解决理论”,国内也形象的翻译为“萃智”或者“萃思”,取其“萃取智慧”或“萃取思考”之义。

    前苏联发明家、教育家G.S.Altshuller(根里奇·阿奇舒勒)和他的研究团队,通过分析大量专利和创新案例总结出来的。

    其中的的核心理论之一就是八大法则,这八大进化法则可以应用于产生市场需求、定性技术预测、产生新技术、专利布局和选择企业战略制定的时机等。它可以用来解决难题,预测技术系统,是产生并加强创造性问题的解决工具。

    八大法则

     

    一、技术系统的S曲线进化法则

    技术系统各阶段的特点可以表述为以下曲线:

     

     

     

    二、提高理想度的进化法则

    理想度是指有用作用与有害作用的比值

    a.增加系统功能

    b.输出尽可能多的功能到工作元件

    c.将一些系统功能转移到超系统或外部环境中

    d.利用内部或外部已存在的可利用资源

     

    三、子系统的不均衡进化法则

    a.每个子系统都是沿着自己的S曲线进化的;

    b.不同的子系统将依据自己的时间进度进化;

    c.不同的子系统在不同的时间点到达自己的极限,这将导致子系统间矛盾的出现;

    d.系统中最先到达其极限的子系统将抑制整个系统的进化,系统的进化水平取决于此子系统;

    f.需要考虑系统的持续改进来消除矛盾。

    类似于木桶效应

     

    四、动态性和可控性进化法则

    a.向移动性增强的方向转化的路径

    固定的系统—可移动的系统—随意移动的系统

    b.增加自由度的路径

    无动态的系统—结构上的系统可变性—微观级别的系统可变性。

    即:刚性体—单铰链—多铰链柔性体—气体/液体—场。

    c.增加可控性的路径

    无控制的系统—直接控制—间接控制反馈控制—自我调节控制的系统。

    d.改变稳定度的路径

    静态固定的系统—有多个固定状态的系统—动态固定系统—多变系统。

     

    五、增加集成度再进行简化的法则

    a.增加集成度的路径

    创建功能中心—附加或辅助子系统加入——通过分割、 向超系统转化或向复杂系统的转化来加强易于分解的程度。

    b.简化路径

                         1.通过选择实现辅助功能的最简单途径来进行初级简化;

                         2.通过组合实现相同或相近功能的元件来进行部分简化;

                         3.通过应用自然现象或“智能”物替代专用设备来进行整体的简化。

    c.单一双一多路径

    单系统—双系统—多系统。

    双系统包括:

                         1.单功能双系统:同类双系统和轮换双系统,比如双叶片风扇和双头铅笔;

                         2.多功能双系统:同类双系统和相反双系统,比如双色圆珠笔和带橡皮擦的铅笔;

                         3.局部简化双系统:比如具有长、短双焦距的相机;

                         4.完整简化的双系统:新的单系统。

    多系统包括:

                         1.单功能多系统:同类多系统和轮换多系统;

                         2.多功能多系统:同类多系统和相反多系统;

                         3.局部简化多系统;

                         4.完整简化的多系统:新的单系统。

    d.子系统分离路径

                         当技术系统进化到极限时,实现某项功能的子系统会从系统中剥离出来,进入超系统,这样在此子系统功能得到加                       强的同时,也简化了原来的系统。比如,空中 加油机就是从飞机中分离出来的子系统。

     

    六、子系统协调性进化法则

    a.匹配和不匹配元件的路径

                         不匹配元件的系统—匹配元件的系统—失谐元件的系 统―动态匹配/失谐系统。

    b.调节的匹配和不匹配的路径

                         最小匹配/不匹配的系统—强制匹配/不匹配的系 统—缓冲匹配/不匹配的系统—自匹配/自不匹配的系统。

    c.工具与工件匹配的路径

                         点作用—线作用—面作用—体作用。

    d.匹配制造过程中加工动作节拍的路径

                         1.工序中输送和加工动作的不协调;

                         2.工序中输送和加工动作的协调,速度的匹配;

                         3.工序中输送和加工动作的协调,速度的轮流匹配;

                         4.将加工动作与输送动作独立开来。

     

    七、向微观级和增加场应用的进化法则

    a.向微观级转化的路径

                         1.宏观级的系统;

                         2.通常形状的多系统平面_或薄片,条或杆,球体或球;

                         3.来自高度分离成分的多系统如粉末,颗粒等,次分子系统(泡沫、凝胶体等) —化学相互作用下的分子系统—原                          子系统;

                         4.具有场的系统。

    b.转化到高效场的路径

                         应用机械交互作用—应用热交互作用—应用分子交互作用一应用化学交互作用—应用电子交互作用—应用磁交互                         作用—应用电磁交互作用和福射。

    c.增加场效率的路径

                         应用直接的场—应用有反方向的场—应用有相反方向 的场的合成—应用交替场/振动/共振/驻波等―应用脉冲场—                           应用带梯度的场—应用不同场的组合作用。

    d.分割的路径

                         固体或连续物体—有局部内势垒的物体—有完整势垒的物体—有部分间隔分割 的物体—有长而窄连接的物体—用场                       连接零件的物体—零件间用结构连接的物体— 零件间用程序连接的物体—零件间没有连接的物体。

     

    八、减少人工介入的进化法则

    a.减少人工介入的一般路径

                         包含人工动作的系统—替代人工但仍保留人工动作的 方法用机器动作完全代替人工。

    b.在同一水平上减少人工介入的路径

                         包含人工作用的系统用执行机构替代人工—用能量传输机构替代人工—用能量源替代人工。

    c.不同水平间减少人工介入的路径

                         包含人工作用的系统—用执行机构替代人工—在控制水平上替代人工—在决策水平上替代人工。

    展开全文
  • 深度学习笔记:卷积神经网络CNN(基本理论)

    万次阅读 多人点赞 2016-12-29 15:49:56
    卷积神经网络基本理论

    最开始先把这篇笔记的博客和网络上面的资源先贴出来,方便大家查找。至于书在一开始的笔记中就已经提到过了,这里就不再反复写了。
    http://neuralnetworksanddeeplearning.com/chap6.html
    http://cs231n.github.io/convolutional-networks/

    一.初识卷积网络结构

    Ⅰ.概览

    前面已经做过手写体识别的任务。之前我们只是使用了两层的全连接层,或者根据喜好多加几层。我更喜欢把这样的结构叫做多层感知机,即使用到了一些现代的权重初始化方式,更好的激活函数reLU等,我还是倾向于叫做多层感知机。
    对于前面的这个手写体的识别任务,我们一开始就把图片展开成了一个一维的向量来做的(要是你有印象的话),虽然效果还行,但是却忽略了很重要的一点,那就是位置关系。
    这里写图片描述
    以这个喵的图片为例,我们的任务现在是想识别这只猫,按照之前的做法就是把这幅图片弄成一个一维向量,然后丢到网络里面去跑。但是人眼应该不是这样子的吧。虽然现在对于人眼识别东西原理还没有完全知道,但是你识别东西是先把你看到的弄成一个一维向量了去识别的?猫的鼻子下面有嘴巴,鼻子上面有眼睛,这都是很明确的位置关系,但是要是弄成了一维向量,那还有位置关系吗?也就没有了。
    因此接下来就引入卷积神经网络以及卷积神经网络的一些基本概念:

    局部感受野(local receptive fields)
    权值共享(Shared weights and biases)
    池化(pooling)

    Ⅱ.局部感受野(local receptive fields)

    在讲局部感受野之前,首先要知道的是,这个中文名词看到很多地方都是这么翻译,所以就这么翻译了,我本人并不知道怎么翻译这个。你也可以叫做局部感知。要是都是不对你胃口,那就直接看英文就行了。
    更重要的是我们不再需要将一幅图片做成一个一维向量了。比如你现在的输入是28x28,那就是28x28,或者当有颜色通道的时候,比如28x28x3,就是宽高都是28,有3个颜色通道。这个很简单很好理解。
    没有图的话理解肯定是不是很直观的,这里开始搬图了。
    这里写图片描述
    Deep learning 搬过来,上图就已经代表你的输入了,你原来是什么输入,不用再变成一维了,直接拿过来用就行了(可能有一些预处理什么的,但是不足以改变位置信息)
    既然输入是上面这个样子了,这里就可以开始讲局部感受野了。有了输入之后,肯定要把输入连接到隐藏层的神经元了,这里应该怎么连接呢?还是像以前的全连接层那样每个输入都连接一个神经元?那肯定不是的,那样就和多层感知机没什么区别了。这里很大的一个改变就是采用了“可以滑动的窗口”。可以滑动的窗口在这里是一个非常不正规的名词,但是确是很通俗的。搬一张图片先感受一下。
    这里写图片描述
    图中间的那个就是可以滑动的窗口了,他的作用是和输入相应的“感受域”下的像素做运算得到新的值。这个运算就是“卷积”运算了。图上面有详细的运算过程。实际上就是每个相应元素的值相乘,然后把得到的都加起来。很简单。
    重点说明,中间的这个窗口的本质是其中的数字和一个偏置构成的,非常常见的是把这个窗口叫做滤波器或者卷积核,要是看见了这两个名词,要能够知道是什么意思。
    这里说两点,第一点就是上图是对于一个颜色通道的输入做卷积操作的。你看到这里只有一个通道。但是并不是意味输入只能够是一个通道。常见的三通道也是可以的。这个后面会再讲,原理差不多,很简单。
    第二点就是,你看到的那个窗口是可以滑动的,你可以指定每次的滑动步长。这里太抽象,直接上经典的动图看感性理解一下。
    这里写图片描述
    这幅动图是一个三个通道的输入,然后“滑动窗口”的维度是3x3x3,至于为什么会是这样的维度后面会详细来讲。在这幅图片里面你暂时能够得出的信息就是他的滑动的直观理解,窗口是怎么样子的。知道这些就够了。这一节的目标就是建立一个感性的认识。等先有个模型在脑子里面,后面量化就简单了。

    Ⅲ.权值共享(Shared weights and biases)

    你可以把滑动窗口看做是一个隐藏神经元,而窗口里面的数字就是连接输入(这里暂且看做是输入)局部感受野的上面的权重。我们的任务就是学习到这些权重来提取特征。如下图
    这里写图片描述
    要是这些话很难理解的话,你就记住,我们把卷积核(上面滑动的窗口)里面那些数字叫做权重,是可以学习的。我们要学习的就是窗口里面的那些数字,而这些数字对于一幅图来说都是相同的。就像动图里面的那个样子。就这么理解就行了。为什么要这个样子,后面会深入的来讲。你这里先记住。同样,一个卷积核(滑动窗口)都是带一个偏置的,同样的,偏置在整幅图上面也是一样的。
    对于一幅图,你可以有多个卷积核,并不是只能够有一个。这里方便理解就没有多列出,后面详细讲。

    Ⅳ.池化(pooling)

    原图经过一个“滑动窗口”的折腾,会得到什么呢?还是直接上图
    这里写图片描述
    这里写图片描述
    上图是一个max pooling的过程,原理超简单,以这里为例,就是2x2的格子里面找到值最大的拿出来,所有的构成一个新的。
    这个有什么用呢?上图4X4变成了2x2,数据量减少了。你自己可以通过20X20的试一下,明显会发现得到的新的map减少了。所以作用就是减少数据的量,进一步减少参数的量。参数减少了,内存会happy,速度会起来,过拟合也没有那么强烈了。这就是好处。

    Ⅴ.网络架构感性认识

    至此,卷积网络的一些最基本的概念就在这里说了,感性认识也有了。但是还不是很系统。这里又搬过来一张图来大概的了解一下架构。
    这里写图片描述
    上面这幅图可以看做是一个识别车的架构。
    中间交叉的有卷积层,reLU激活层,池化层(pooling),到最后的全连接层(FC),然后对类别打分,然后判断是否是车。要是前面亲手做过全连接网络版本的手写字体识别的话,这幅图很容易看懂。
    至此,比较基本的结构就讲完了。这部分仅仅是非常基础的感性认识部分,并不是很困难。后面更加深入来讲卷积网络。

    二.再看卷积神经网络结构

    上一节我们感性认识了神经网络的基本结构,这一节更加深度的某些地方定量的来看一下卷积神经网路的结构。
    这里以斯坦福的cs231n为主要的笔记来源。
    Convolutional Neural Networks (CNNs / ConvNets)
    卷积神经网络的各层中的神经元是3维排列的:宽度高度深度
    这里先解释下:一开始的时候我们讲深度,更多的是指代的神经网络的层数,在卷积层这里我们讲深度指的是数据或者filter的第三个维度。
    这里的图是拿的CS231n的课件PPT
    这里写图片描述
    可以看到上图的图片就是一个32x32x3的图片,其中的3代表是3通道,也就是说有3个颜色通道,这个很简单。同样,这里的滤波器(filter)也是三维的结构,其中最后面的3和数据的第三个维度是一样的。这样是不是更加容易理解。
    有了这个最基本的知识,就再次搬一下前面说的那幅图。
    这里写图片描述
    一般最基本的卷积神经网络的架构可以是:

    [输入层-卷积层-ReLU层-汇聚层-全连接层]

    我们使用上面的图片来大致讲解一下各层的作用:

    输入层:
    我更加喜欢直接叫做输入,比如上面那辆车可以抽象为[32x32x3]存有图像的原始像素值,表示宽32,高32,3个颜色通道
    卷积层:
    神经元与输入层中的一个局部区域相连,每个神经元都计算自己与输入层相连的小区域与自己权重的内积。也就是我们前面说过的卷积核运行的这层。
    ReLU层:
    将会逐个元素地进行激活函数ReLU操作,该层对数据尺寸没有改变。
    Pooling层:
    Pooling层在在空间维度(宽度和高度)上进行降采样(downsampling)操作,数据的尺寸一般会变下。
    全连接层:
    将会计算分类评分,数据尺寸变为[1x1x10],其中10个数字对应的就是CIFAR-10中10个类别的分类评分值。也就是我们前面提到过得通俗意义上面的全连接层啦。

    接下来就详细的一个层一个层的来讲了。

    Ⅰ.卷积层

    卷积层肯定是卷积网络中最重要的一层啦,毕竟叫做卷积神经网络。
    卷积层的参数是有一些可学习滤波器集合(前面提到过得滑动窗口)构成的。
    滤波器的宽度和高度一般不大,深度和输入数据一致,这是前面说过的。见下图
    这里写图片描述

    这里写图片描述

    这里写图片描述

    这里写图片描述

    上面的图的意思就是原图像是32x32x3,然后我们有一个滑动窗口(filter)为5x5x3,5x5的宽高相比起32x32来说,还是不大的,深度为3是和输入数据一样的。
    一个卷积核在输入图上面滑动(见前面的动图)可以生成一个activation map(激活图?我不知道怎么翻译),激活图到底是什么东西呢?这里不理解没有关系,暂时理解为可以得到边缘呀,得到某些形状呀,得到某些特征的一个特征图就行了。之后会给出直观感性的解释。上图右边的就是activation map啦,至于28这个数字怎么来的,看一下动图就知道了,后面同样会给出计算的方法。
    这里写图片描述
    不同的卷积核(filter)能够得到不同的激活图,将这些激活映射在深度方向上层叠起来就生成了输出数据。所以,在用了6个filter之后,我们可以得到28x28x6的激活图。(参照图来看理论,这个计算要记得)
    到这里就来一个例子来理一下,输入尺寸和滤波器尺寸之间的关系,(这里还还要注意的一个尺寸是激活图的尺寸,放到接下来讲零填充,步长等等的时候再讲怎么得到激活图的尺寸,其实超简单)
    这里写图片描述
    上图中,输入是32x32x3,用了6个5x5x3的滤波器,前面说过,滤波器的宽高尺寸自己定,深度为3是因为必须和输入的数据一样,用了6个滤波器,意味着接下来得到的激活图的深度是6维的。所以,接下来的激活图的尺寸为28x28x6。然后这个激活图作为输入,用了10个5x5x6的滤波器,还是那句话,滤波器的宽高尺寸自己定,但是深度为6是因为输入的深度是6,10个滤波器意味着得到的激活图的深度是6维的,即得到24x24x10.
    上面的要是会了的话,就可以看窗口滑动的详细细节了。直观一点,丢一个动图。
    这里写图片描述
    这里可以看到是3x3的窗口,每次滑动的距离是1个,这个就叫做步长(stride)。你可以自己尝试着用笔画一下,得到的输出应该是5x5的激活图。
    那么再试一下步长为2,照例丢一个动图。
    这里写图片描述
    那么会输出一个3x3的激活图。
    那么使用步长为3呢?发现就无法很好地适配了。
    这里给出一个通用的输出尺寸的计算公式:
    这里写图片描述
    这里写图片描述

    但是有一个问题,比如下图,
    这里写图片描述
    每经过一个filter,得到的激活图就会小一些,要是多经过几个,那岂不是最后什么都不见啦?
    所以解决的办法就叫做零填充(zero padding),其实很简单啦,就是在输入上面填充一圈或者几圈的0,就这么简单。如下图是填充了一圈的0之后的样子。
    这里写图片描述
    那么你会发现,N变为了N+p*2 (这里p代表圈数)为什么p乘以2呢,因为加了一圈之后两侧都加了1啊。所以N+p*2 ,那么得到新的公式为:
    这里写图片描述
    这个公式表示,相应原输入尺寸,步长,框口尺寸下面,加圈后得到的输出尺寸。
    举例子:上面那幅图之前是7x7,也就是说N=7 ,窗口尺寸为3,即F=3 ,步长为1,stride=1 ,加了一圈即p=1
    那么可以算出新的尺寸为:
    这里写图片描述
    还是7,意味着这样组合下面的新的尺寸是可以保持不变的。
    那么,我希望加p圈保持原来的输入尺寸不变,怎么计算这个p的大小呢?初中数学啦。
    这里写图片描述

    到这里举两个例子复习一下:
    1.输入数据是32x32x3,用了10个5x5的滤波器,步长为1,填充2圈,那么输出的尺寸是多少?这层的参数数量有多少个?
    这里写图片描述
    又因为使用了10个滤波器,那么可以知道输出的尺寸是32x32x10
    参数数量主要是滤波器的权重和偏置。一个滤波器的话就是5*5*3+1=76个,因为有10个滤波器,那么一共有10*76=760个.

    上面都是正方形的,现在来总结和通用化一些公式:
    这里写图片描述

    最后,再回到那个很有名的动图来:
    这里写图片描述

    详细地分析一下这个动图的运作过程。
    首先可以得到输入(没有zero padding的原始数据)为W=5(宽度),H=5(高度),D=3(深度),意味着我需要深度为3的滤波器,至于滤波器宽高自己定义。图上来说,滤波器的宽高都是3,即F=3,深度为3(可以看到图上w0和w1都有3个分量)。而且有2个滤波器,即K=2K=2意味着我输出的深度为2(可以看到output volume有2个分量)。加了一圈的0,意味着p=1,一次移动两格,意味着s=2
    那么通过这些信息,我们已经能够手算出输出的尺寸了,
    这里写图片描述
    知道尺寸了,现在来看具体其中的数值是怎么得到的。
    首先看最开始的那一下:
    这里写图片描述
    第一个滤波器的不同深度的分量和输入数据相应深度的分量分别做卷积操作。
    具体来说就是:
    对于x[:,:,0] 的那一小块和w0[:,:,0]做卷积:即
    (0*1)+(0*0)+(0*0)+(0*1)+(1*0)+(2*0)+(0*-1)+(2*0)+(0*1)=0
    对于x[:,:,1] 的那一小块和w0[:,:,1]做卷积:即
    (0*1)+(0*-1)+(0*1)+(0*-1)+(1*-1)+(1*0)+(0*-1)+(2*0)+(1*1)=0
    对于x[:,:,2] 的那一小块和w0[:,:,2]做卷积:即
    (0*1)+(0*-1)+(0*-1)+(0*1)+(0*1)+(1*1)+(0*0)+(1*-1)+(1*0)=0
    最后结果为0+0+0+1=1
    然后其他的每移动一个步长,都这么计算一次,得到一个结果。

    Ⅱ.池化层(Pooling layer)

    前面已经贴过两张图片,池化层的作用就是减少feature map的空间尺寸,达到减少参数进一步达到控制过拟合的作用。
    池化层并不会对于feature map的深度有影响。还是会保持原来的深度。
    这里写图片描述
    现在常用的pooling 操作有max pooling(最大值pooling)或者average pooling(平均值pooling)等等,以max pooling为例
    这里写图片描述
    上图中,pooling的尺寸是2x2,步长为2,你可以看到就是在四个格子里面选择最大的值,然后所有的组合起来,大小明显减小了。
    average pooling和max pooling的不同就是前者是求均值,后者求最大值。
    然后给出一组公式:
    这里写图片描述
    Ⅲ.
    Ⅳ.

    展开全文
  • 计算广告CTR预估系列()–阿里Deep Interest Network理论 计算广告CTR预估系列()–阿里Deep Interest Network理论 1. 背景 1.1 名词解释 1.2 相关工作 2. 系统总览 2.1 训练数据 2.2 特征处理 2.3 评价指标 ...
  • 大学英语综合教程三 Unit 4 课文内容英译中 中英翻译   大家好,我叫亓官劼(qí guān jié ),在CSDN中记录学习的点滴历程,时光荏苒,未来可期,加油~博客地址为:亓官劼的博客 本文原创为亓官劼,请...
  • 大学英语综合教程三 Unit 1至Unit 8课文内容英译中 中英翻译   大家好,我叫亓官劼(qí guān jié ),在CSDN中记录学习的点滴历程,时光荏苒,未来可期,加油~博客地址为:亓官劼的博客 本文原创为亓官劼...
  • English-国内三大翻译证书比较

    千次阅读 2013-03-04 11:01:15
    国内三大翻译证书比较 不 同 点 考试设立 机构 人事部 教育部 上海市委组织部、 人事局、教育局 考试名称 (中文) 全国翻译专业资格(水平)考试 全国...
  • 本人今年19硕士,初试390+,成绩个位已经打码处理,今天跟大家分享一下上海交通大学816自动控制理论考研经验。 1.初试 1.1政治:政治紧跟肖秀荣。其他的不看。我平时也就是不想看的时候刷刷一千题,讲真题刷一遍...
  • 关于nginx的五大面试题

    万次阅读 多人点赞 2019-01-30 16:55:00
    least-connected算法的中文翻译是最少连接,即每次都找连接数最少的服务器来转发请求。例如Nginx负载中有两台服务器,A和B,当Nginx接收到一个请求时,A正在处理的请求数是10,B正在处理的请求数是20,则Nginx会把...
  • HNC理论

    千次阅读 2014-01-16 16:24:44
    HNC(概念层次网络)理论 参考: http://www.hackchi.com/hnc/books/hnc/bookml.html    HNC是“Hierarchical Network Concepts(概念层次网络)”的简称,它是面向整个自然语言理解的理论框架。这个理论...
  • 新视野大学英语第三版3课后翻译

    万次阅读 2019-04-20 23:01:23
    现在大洲有不少国家种茶。也有很多国家从中国进口茶。中国茶和中国的丝绸及瓷器一样,已经成为中国在全世界的代名词。 China is the hometown of tea and the birthplace of tea culture. Since ancient times,...
  • AlexNet论文翻译与解读

    万次阅读 多人点赞 2017-05-08 00:30:21
    AlexNet论文翻译与解读
  • 【老罗笔记】一万小时天才理论

    千次阅读 2014-03-31 12:55:55
    一万小时天才理论的三要素:精深练习,激情,伯乐。精深练习一万小时是习得技能回路的必经之路,而激情能激发并保持持久进行精深练习的动力,伯乐在触发和维持激情以及精深练习中都有着非常重要的引导与指导作用。...
  • 【英语】克拉申博士的五大假说

    千次阅读 热门讨论 2018-01-07 21:02:14
    克拉申博士的个假说 acquire和学得差异假设The Acquisition-Learning Hypothesis) 自然顺序假设(The Natural Order Hypothesis) 监检假设(The Monitor Hypothesis) 输入假设(The Input Hypothesis) 情感...
  • 可能是CAP理论的最好解释

    万次阅读 多人点赞 2015-01-16 21:28:56
    一篇非常精彩的解释CAP理论的文章,翻译水平有限,不准确之处请参考原文,还请见谅。 Chapter 1: “Remembrance Inc” Your new venture :Last night when your spouse appreciated you on remembering her ...
  • 03 图模型推理算法 ...推理算法分两类,第一类是准确推理(Exactinference),第二类就是近似推理(Approximate Inference)。准确推理就是通过把分解的式子中的不相干的变量积分掉(离散的就是求
  • 1. 五大流派 ①符号主义:使用符号、规则和逻辑来表征知识和进行逻辑推理,最喜欢的算法是:规则和决策树 ②贝叶斯派:获取发生的可能性来进行概率推理,最喜欢的算法是:朴素贝叶斯或马尔可夫...
  • 【语义分割系列:】DeepLab v1 / v2 论文阅读翻译笔记 DeepLab v3 2017 CVPR Rethinking Atrous Convolution for Semantic Image Segmentation ❤ fregu856/deeplabv3 :PyTorch implementation of ...
  • 大学英语综合教程四 Unit 1至Unit 8课文内容英译中 中英翻译   大家好,我叫亓官劼(qí guān jié ),在CSDN中记录学习的点滴历程,时光荏苒,未来可期,加油~博客地址为:亓官劼的博客 本文原创为亓官劼...
  • 持续集成--理论和实践的新进展

    千次阅读 2013-10-07 11:04:18
    最近雷镇同学将Martin Fowler先生的著名论文《持续集成》第二版翻译成中文并发布出来,掀起了国内对于持续集成理论和实践讨论的新的高潮。笔者在本文中将全面对比持续集成论文前后两版的异同,分析并展示Thought...
  • 语音识别、图像检测、机器翻译、风格迁移等技术已经在我们的实际生活中开始得到了应用,但机器学习的发展仍还在继续,甚至被认为有可能彻底改变人类文明的发展方向乃至人类自身。但你了解现在正在发生的这场变革吗?...
  • 每一种运行模式决定了处理器怎样翻译机器指令,怎样访问内存。Pentium处理器可以运行于以下四种模式:   实模式 ( Real mode ) 保护模式 ( Protected mode) 系统管理模式 ( System management mode, ...
  • MBTI人格理论

    千次阅读 2014-02-15 14:17:09
    MBTI人格理论 MBTI人格理论(迈尔斯类型指标,Myers Briggs Type Indicator,MBTI)——国际最为流行的职业人格评估工具 目录 [隐藏] 1 MBTI的来源2 MBTI的内容3 MBTI人格理论的指标 3.1 ...
  • Raft算法国际论文全翻译

    万次阅读 2016-12-15 16:43:46
    最近在开发强一致性的分布式算法,因此需要深入理解下Raft算法,这里对Raft论文进行了翻译,留以备用 - Sunface. 英文版论文:https://ramcloud.atlassian.net/wiki/download/attachments/6586375/raft.pdf   Raft...
  • 部分 支持向量机 第六部分 学习理论 第七部分 正则化与模型选择 感知器和大型边界分类器 K 均值聚类算法 混合高斯和期望最大化算法 第九部分 期望最大化算法 第十部分 因子分析 第十一部分 主成分分析 第十二...
  • 机器翻译之句子对齐

    千次阅读 2015-05-11 16:29:08
    1.EBMT方法1.1 传统的EBMT方法有个步骤1、先将英文源篇章 分解 为 若干短句。然后再分为若干短语片段(分句) 2、将短语片段在一个英文实例库上进行匹配,得到包含该短语 且 语义最接近(需要语义词典) 的英文...
  • 随着深度学习技术的发展,基于神经网络的机器翻译系统已成为业界的主流系统。本课程将详细讲解 Transformer 新型神经网络及其在机器翻译中的应用,并从工业实践和评测竞赛的角度更全面的展现其实用价值。 本场 Chat ...
  • 大学英语综合教程二 Unit 1 到Unit 8课文内容英译中 中英翻译   大家好,我叫亓官劼(qí guān jié ),在CSDN中记录学习的点滴历程,时光荏苒,未来可期,加油~博客地址为:亓官劼的博客 本文原创为亓官...
  • 新视野 大学英语 第三册 翻译

    千次阅读 2012-08-26 18:41:05
    理论上说,克隆一个孩子以获取器官是可行的,但实际上这么做却可能对孩子的心理有害。 In theory it’s feasible to clone a child to harvest organs, but in practice it would be psychologically harmful to ...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 40,576
精华内容 16,230
关键字:

五大翻译理论