精华内容
下载资源
问答
  • 卷积神经网络CNN中各种意义

    万次阅读 多人点赞 2017-12-13 17:31:44
    简单来说,CNN目的是以一定模型对事物进行特征提取,而后根据特征对该事物进行分类、识别、预测或决策等。在这个过程里,最重要步骤在于特征提取,即如何提取到能最大程度区分事物特征。如果提取特征无法...

    只是知道CNN是不够,我们需要对其进行解剖,继而分析不同部件存在的意义

    CNN的目的

    简单来说,CNN的目的是以一定的模型对事物进行特征提取,而后根据特征对该事物进行分类、识别、预测或决策等。在这个过程里,最重要的步骤在于特征提取,即如何提取到能最大程度区分事物的特征。如果提取的特征无法将不同的事物进行划分,那么该特征提取步骤将毫无意义。而实现这个伟大的模型的,是对CNN进行迭代训练。

    特征

    在图像中(举个例子),目标事物的特征主要体现在像素与像素之间的关系。比如说,我们能区分一张图片中有一条直线,是因为直线上的像素与直线外邻像素的区别足够大(或直线两边的像素区别足够大),以至于这“直线”能被识别出来:

    直线上的像素与直线外邻像素的区别足够大

    直线两边的像素区别足够大

    除了直线外,其他特征也同理。在CNN中,大部分特征提取依赖于卷积运算。

    卷积与特征提取

    卷积在此其实就是内积,步骤很简单,就是根据多个一定的权重(即卷积核),对一个块的像素进行内积运算,其输出就是提取的特征之一:

    选用卷积的原因

    局部感知

    简单来说,卷积核的大小一般小于输入图像的大小(如果等于则是全连接),因此卷积提取出的特征会更多地关注局部 —— 这很符合日常我们接触到的图像处理。而每个神经元其实没有必要对全局图像进行感知,只需要对局部进行感知,然后在更高层将局部的信息综合起来就得到了全局的信息。

    参数共享

    参数共享最大的作用莫过于很大限度地减少运算量了。

    多核

    一般我们都不会只用一个卷积核对输入图像进行过滤,因为一个核的参数是固定的,其提取的特征也会单一化。这就有点像是我们平时如何客观看待事物,必须要从多个角度分析事物,这样才能尽可能地避免对该事物产生偏见。我们也需要多个卷积核对输入图像进行卷积。

    Down-Pooling

    卷积后再接上一个池化层(Pooling)简直就是绝配,能很好的聚合特征、降维来减少运算量。

    多层卷积

    层数越高,提取到的特征就越全局化。

    池化

    池化,即对一块数据进行抽样或聚合,例如选择该区域的最大值(或平均值)取代该区域:

    上图的池化例子,将10 * 10的区域池化层1 * 1的区域,这样使数据的敏感度大大降低,同时也在保留数据信息的基础上降低了数据的计算复杂度。

    激活函数的意义

    在数学上,激活函数的作用就是将输入数据映射到0到1上(tanh是映射-1到+1上)。至于映射的原因,除了对数据进行正则化外,大概是控制数据,使其只在一定的范围内。当然也有另外细节作用,例如Sigmoid(tanh)中,能在激活的时候,更关注数据在零(或中心点)前后的细小变化,而忽略数据在极端时的变化,例如ReLU还有避免梯度消失的作用。通常,Sigmoid(tanh)多用于全连接层,而ReLU多用于卷积层。

    或者我们换一个卷积核(换一种角度)来看待这个激活函数,如果我们把每一次激活动作当成一次分类,即对输入数据分成两类(0或1),那么激活函数得到的输出是在0到1的值,它可以代表着这次“分类”的归属度。如果我们把0规定为未激活,1表示激活,那么输出0.44就表示激活了44%。

    而激活函数的使用却有可能带来一定的负面影响(对于训练的负面影响),激活函数可能会使我们得输入数据都激活了大半,对此我们有另外的对策 —— LRN。

    LRN的催化与抑制

    LRN,局部响应归一化。在神经学科中,有一个叫横向抑制(lateral inhibition)的概念,这种抑制的作用就是阻止兴奋神经元向邻近神经元传播其动作趋势,从而减少兴奋神经元的邻近神经元的激活程度。借鉴了这一生物现象(其实我们全部东西都是借鉴生物的,不是?),我们使用LRN层来对激活函数的输出数据进行横向抑制,在为激活函数收拾残局的同时,LRN还凸显了该区域的一个峰值 —— 这个峰值特征就是我们想要的特征。

    特别是ReLU,它无限制的激活使得我们更需要LRN来到数据进行归一化。在大规模的数据中,我们大多情况下更看重被凸显的高频特征。因此,用LRN对数据的峰值进行催化而对其周围进行抑制,何乐不为。

    IP层

    BP神经网络中d的全连接层

    在许多CNN的后部分,都存在着一个IP(Inner Product)层/内积层/fc(full connect)层/全连接层。这个全连接网络的代表性层级,其存在于CNN的意义我不得而知。在许多论文中,它替代了softmax来特征负责最终的提取,而有人也指出CNN最后可以不用IP层。

    Dropout的舍弃

    舍弃一直是一个伟大的哲学,生物的进化上例子比比皆是。Dropout的任务就是在训练时,通过设置阈值并与某些隐含层节点的权重对比,让特定的权重不工作 —— 在该层舍弃这些权重。Dropout的作用也很明显,除了加速运算外,就是防止过拟合了。

    展开全文
  • 简单来说,CNN目的是以一定模型对事物进行特征提取,而后根据特征对该事物进行分类、识别、预测或决策等。在这个过程里,最重要步骤在于特征提取,即如何提取到能最大程度区分事物特征。如果提取特征无法...

    只是知道CNN是不够,我们需要对其进行解剖,继而分析不同部件存在的意义

    CNN的目的

    简单来说,CNN的目的是以一定的模型对事物进行特征提取,而后根据特征对该事物进行分类、识别、预测或决策等。在这个过程里,最重要的步骤在于特征提取,即如何提取到能最大程度区分事物的特征。如果提取的特征无法将不同的事物进行划分,那么该特征提取步骤将毫无意义。而实现这个伟大的模型的,是对CNN进行迭代训练。

    特征

    在图像中(举个例子),目标事物的特征主要体现在像素与像素之间的关系。比如说,我们能区分一张图片中有一条直线,是因为直线上的像素与直线外邻像素的区别足够大(或直线两边的像素区别足够大),以至于这“直线”能被识别出来:

    直线上的像素与直线外邻像素的区别足够大

    直线两边的像素区别足够大

    除了直线外,其他特征也同理。在CNN中,大部分特征提取依赖于卷积运算。

    卷积与特征提取

    卷积在此其实就是内积,步骤很简单,就是根据多个一定的权重(即卷积核),对一个块的像素进行内积运算,其输出就是提取的特征之一:

    选用卷积的原因

    局部感知

    简单来说,卷积核的大小一般小于输入图像的大小(如果等于则是全连接),因此卷积提取出的特征会更多地关注局部 —— 这很符合日常我们接触到的图像处理。而每个神经元其实没有必要对全局图像进行感知,只需要对局部进行感知,然后在更高层将局部的信息综合起来就得到了全局的信息。

    参数共享

    参数共享最大的作用莫过于很大限度地减少运算量了。

    多核

    一般我们都不会只用一个卷积核对输入图像进行过滤,因为一个核的参数是固定的,其提取的特征也会单一化。这就有点像是我们平时如何客观看待事物,必须要从多个角度分析事物,这样才能尽可能地避免对该事物产生偏见。我们也需要多个卷积核对输入图像进行卷积。

    Down-Pooling

    卷积后再接上一个池化层(Pooling)简直就是绝配,能很好的聚合特征、降维来减少运算量。

    多层卷积

    层数越高,提取到的特征就越全局化。

    池化

    池化,即对一块数据进行抽样或聚合,例如选择该区域的最大值(或平均值)取代该区域:

    上图的池化例子,将10 * 10的区域池化层1 * 1的区域,这样使数据的敏感度大大降低,同时也在保留数据信息的基础上降低了数据的计算复杂度。

    激活函数的意义

    在数学上,激活函数的作用就是将输入数据映射到0到1上(tanh是映射-1到+1上)。至于映射的原因,除了对数据进行正则化外,大概是控制数据,使其只在一定的范围内。当然也有另外细节作用,例如Sigmoid(tanh)中,能在激活的时候,更关注数据在零(或中心点)前后的细小变化,而忽略数据在极端时的变化,例如ReLU还有避免梯度消失的作用。通常,Sigmoid(tanh)多用于全连接层,而ReLU多用于卷积层。

    或者我们换一个卷积核(换一种角度)来看待这个激活函数,如果我们把每一次激活动作当成一次分类,即对输入数据分成两类(0或1),那么激活函数得到的输出是在0到1的值,它可以代表着这次“分类”的归属度。如果我们把0规定为未激活,1表示激活,那么输出0.44就表示激活了44%。

    而激活函数的使用却有可能带来一定的负面影响(对于训练的负面影响),激活函数可能会使我们得输入数据都激活了大半,对此我们有另外的对策 —— LRN。

    LRN的催化与抑制

    LRN,局部响应归一化。在神经学科中,有一个叫横向抑制(lateral inhibition)的概念,这种抑制的作用就是阻止兴奋神经元向邻近神经元传播其动作趋势,从而减少兴奋神经元的邻近神经元的激活程度。借鉴了这一生物现象(其实我们全部东西都是借鉴生物的,不是?),我们使用LRN层来对激活函数的输出数据进行横向抑制,在为激活函数收拾残局的同时,LRN还凸显了该区域的一个峰值 —— 这个峰值特征就是我们想要的特征。

    特别是ReLU,它无限制的激活使得我们更需要LRN来到数据进行归一化。在大规模的数据中,我们大多情况下更看重被凸显的高频特征。因此,用LRN对数据的峰值进行催化而对其周围进行抑制,何乐不为。

    IP层

    BP神经网络中d的全连接层

    在许多CNN的后部分,都存在着一个IP(Inner Product)层/内积层/fc(full connect)层/全连接层。这个全连接网络的代表性层级,其存在于CNN的意义我不得而知。在许多论文中,它替代了softmax来特征负责最终的提取,而有人也指出CNN最后可以不用IP层。

    Dropout的舍弃

    舍弃一直是一个伟大的哲学,生物的进化上例子比比皆是。Dropout的任务就是在训练时,通过设置阈值并与某些隐含层节点的权重对比,让特定的权重不工作 —— 在该层舍弃这些权重。Dropout的作用也很明显,除了加速运算外,就是防止过拟合了。

    展开全文
  • 思考卷积神经网络(CNN)中各种意义

    万次阅读 多人点赞 2016-11-13 00:24:07
    思考卷积神经网络(CNN)中各种意义只是知道CNN是不够,我们需要对其进行解剖,继而分析不同部件存在的意义CNN的目的简单来说,CNN的目的是以一定的模型对事物进行特征提取,而后根据特征对该事物进行分类、识别、...

    思考卷积神经网络(CNN)中各种意义

    只是知道CNN是不够,我们需要对其进行解剖,继而分析不同部件存在的意义

    CNN的目的

    简单来说,CNN的目的是以一定的模型对事物进行特征提取,而后根据特征对该事物进行分类、识别、预测或决策等。在这个过程里,最重要的步骤在于特征提取,即如何提取到能最大程度区分事物的特征。如果提取的特征无法将不同的事物进行划分,那么该特征提取步骤将毫无意义。而实现这个伟大的模型的,是对CNN进行迭代训练。

    特征

    在图像中(举个例子),目标事物的特征主要体现在像素与像素之间的关系。比如说,我们能区分一张图片中有一条直线,是因为直线上的像素与直线外邻像素的区别足够大(或直线两边的像素区别足够大),以至于这“直线”能被识别出来:

    直线上的像素与直线外邻像素的区别足够大

    直线两边的像素区别足够大

    除了直线外,其他特征也同理。在CNN中,大部分特征提取依赖于卷积运算。

    卷积与特征提取

    卷积在此其实就是内积,步骤很简单,就是根据多个一定的权重(即卷积核),对一个块的像素进行内积运算,其输出就是提取的特征之一:

    选用卷积的原因

    局部感知

    简单来说,卷积核的大小一般小于输入图像的大小(如果等于则是全连接),因此卷积提取出的特征会更多地关注局部 —— 这很符合日常我们接触到的图像处理。而每个神经元其实没有必要对全局图像进行感知,只需要对局部进行感知,然后在更高层将局部的信息综合起来就得到了全局的信息。

    参数共享

    参数共享最大的作用莫过于很大限度地减少运算量了。

    多核

    一般我们都不会只用一个卷积核对输入图像进行过滤,因为一个核的参数是固定的,其提取的特征也会单一化。这就有点像是我们平时如何客观看待事物,必须要从多个角度分析事物,这样才能尽可能地避免对该事物产生偏见。我们也需要多个卷积核对输入图像进行卷积。

    Down-Pooling

    卷积后再接上一个池化层(Pooling)简直就是绝配,能很好的聚合特征、降维来减少运算量。

    多层卷积

    层数越高,提取到的特征就越全局化。

    池化

    池化,即对一块数据进行抽样或聚合,例如选择该区域的最大值(或平均值)取代该区域:

    上图的池化例子,将10 * 10的区域池化层1 * 1的区域,这样使数据的敏感度大大降低,同时也在保留数据信息的基础上降低了数据的计算复杂度。

    激活函数的意义

    在数学上,激活函数的作用就是将输入数据映射到0到1上(tanh是映射-1到+1上)。至于映射的原因,除了对数据进行正则化外,大概是控制数据,使其只在一定的范围内。当然也有另外细节作用,例如Sigmoid(tanh)中,能在激活的时候,更关注数据在零(或中心点)前后的细小变化,而忽略数据在极端时的变化,例如ReLU还有避免梯度消失的作用。通常,Sigmoid(tanh)多用于全连接层,而ReLU多用于卷积层。

    或者我们换一个卷积核(换一种角度)来看待这个激活函数,如果我们把每一次激活动作当成一次分类,即对输入数据分成两类(0或1),那么激活函数得到的输出是在0到1的值,它可以代表着这次“分类”的归属度。如果我们把0规定为未激活,1表示激活,那么输出0.44就表示激活了44%。

    而激活函数的使用却有可能带来一定的负面影响(对于训练的负面影响),激活函数可能会使我们得输入数据都激活了大半,对此我们有另外的对策 —— LRN。

    LRN的催化与抑制

    LRN,局部响应归一化。在神经学科中,有一个叫横向抑制(lateral inhibition)的概念,这种抑制的作用就是阻止兴奋神经元向邻近神经元传播其动作趋势,从而减少兴奋神经元的邻近神经元的激活程度。借鉴了这一生物现象(其实我们全部东西都是借鉴生物的,不是?),我们使用LRN层来对激活函数的输出数据进行横向抑制,在为激活函数收拾残局的同时,LRN还凸显了该区域的一个峰值 —— 这个峰值特征就是我们想要的特征。

    特别是ReLU,它无限制的激活使得我们更需要LRN来到数据进行归一化。在大规模的数据中,我们大多情况下更看重被凸显的高频特征。因此,用LRN对数据的峰值进行催化而对其周围进行抑制,何乐不为。

    IP层

    BP神经网络中d的全连接层

    在许多CNN的后部分,都存在着一个IP(Inner Product)层/内积层/fc(full connect)层/全连接层。这个全连接网络的代表性层级,其存在于CNN的意义我不得而知。在许多论文中,它替代了softmax来特征负责最终的提取,而有人也指出CNN最后可以不用IP层。

    Dropout的舍弃

    舍弃一直是一个伟大的哲学,生物的进化上例子比比皆是。Dropout的任务就是在训练时,通过设置阈值并与某些隐含层节点的权重对比,让特定的权重不工作 —— 在该层舍弃这些权重。Dropout的作用也很明显,除了加速运算外,就是防止过拟合了。




    若有错误之处请指出,更多地关注煎鱼

    展开全文
  • 只是知道CNN是不够,我们需要对其进行解剖,继而分析不同部件存在的意义CNN的目的简单来说,CNN的目的是以一定的模型对事物进行特征提取,而后根据特征对该事物进行分类、识别、预测或决策等。在这个过程里,最重要...


    只是知道CNN是不够,我们需要对其进行解剖,继而分析不同部件存在的意义

    CNN的目的

    简单来说,CNN的目的是以一定的模型对事物进行特征提取,而后根据特征对该事物进行分类、识别、预测或决策等。在这个过程里,最重要的步骤在于特征提取,即如何提取到能最大程度区分事物的特征。如果提取的特征无法将不同的事物进行划分,那么该特征提取步骤将毫无意义。而实现这个伟大的模型的,是对CNN进行迭代训练。

    特征

    在图像中(举个例子),目标事物的特征主要体现在像素与像素之间的关系。比如说,我们能区分一张图片中有一条直线,是因为直线上的像素与直线外邻像素的区别足够大(或直线两边的像素区别足够大),以至于这“直线”能被识别出来:

    直线上的像素与直线外邻像素的区别足够大

    直线两边的像素区别足够大

    除了直线外,其他特征也同理。在CNN中,大部分特征提取依赖于卷积运算。

    卷积与特征提取

    卷积在此其实就是内积,步骤很简单,就是根据多个一定的权重(即卷积核),对一个块的像素进行内积运算,其输出就是提取的特征之一:

    选用卷积的原因

    局部感知

    简单来说,卷积核的大小一般小于输入图像的大小(如果等于则是全连接),因此卷积提取出的特征会更多地关注局部 —— 这很符合日常我们接触到的图像处理。而每个神经元其实没有必要对全局图像进行感知,只需要对局部进行感知,然后在更高层将局部的信息综合起来就得到了全局的信息。

    参数共享

    参数共享最大的作用莫过于很大限度地减少运算量了。

    多核

    一般我们都不会只用一个卷积核对输入图像进行过滤,因为一个核的参数是固定的,其提取的特征也会单一化。这就有点像是我们平时如何客观看待事物,必须要从多个角度分析事物,这样才能尽可能地避免对该事物产生偏见。我们也需要多个卷积核对输入图像进行卷积。

    Down-Pooling

    卷积后再接上一个池化层(Pooling)简直就是绝配,能很好的聚合特征、降维来减少运算量。

    多层卷积

    层数越高,提取到的特征就越全局化。

    池化

    池化,即对一块数据进行抽样或聚合,例如选择该区域的最大值(或平均值)取代该区域:

    上图的池化例子,将10 * 10的区域池化层1 * 1的区域,这样使数据的敏感度大大降低,同时也在保留数据信息的基础上降低了数据的计算复杂度。

    激活函数的意义

    在数学上,激活函数的作用就是将输入数据映射到0到1上(tanh是映射-1到+1上)。至于映射的原因,除了对数据进行正则化外,大概是控制数据,使其只在一定的范围内。当然也有另外细节作用,例如Sigmoid(tanh)中,能在激活的时候,更关注数据在零(或中心点)前后的细小变化,而忽略数据在极端时的变化,例如ReLU还有避免梯度消失的作用。通常,Sigmoid(tanh)多用于全连接层,而ReLU多用于卷积层。

    或者我们换一个卷积核(换一种角度)来看待这个激活函数,如果我们把每一次激活动作当成一次分类,即对输入数据分成两类(0或1),那么激活函数得到的输出是在0到1的值,它可以代表着这次“分类”的归属度。如果我们把0规定为未激活,1表示激活,那么输出0.44就表示激活了44%。

    而激活函数的使用却有可能带来一定的负面影响(对于训练的负面影响),激活函数可能会使我们得输入数据都激活了大半,对此我们有另外的对策 —— LRN。

    LRN的催化与抑制

    LRN,局部响应归一化。在神经学科中,有一个叫横向抑制(lateral inhibition)的概念,这种抑制的作用就是阻止兴奋神经元向邻近神经元传播其动作趋势,从而减少兴奋神经元的邻近神经元的激活程度。借鉴了这一生物现象(其实我们全部东西都是借鉴生物的,不是?),我们使用LRN层来对激活函数的输出数据进行横向抑制,在为激活函数收拾残局的同时,LRN还凸显了该区域的一个峰值 —— 这个峰值特征就是我们想要的特征。

    特别是ReLU,它无限制的激活使得我们更需要LRN来到数据进行归一化。在大规模的数据中,我们大多情况下更看重被凸显的高频特征。因此,用LRN对数据的峰值进行催化而对其周围进行抑制,何乐不为。

    IP层

    BP神经网络中d的全连接层

    在许多CNN的后部分,都存在着一个IP(Inner Product)层/内积层/fc(full connect)层/全连接层。这个全连接网络的代表性层级,其存在于CNN的意义我不得而知。在许多论文中,它替代了softmax来特征负责最终的提取,而有人也指出CNN最后可以不用IP层。

    Dropout的舍弃

    舍弃一直是一个伟大的哲学,生物的进化上例子比比皆是。Dropout的任务就是在训练时,通过设置阈值并与某些隐含层节点的权重对比,让特定的权重不工作 —— 在该层舍弃这些权重。Dropout的作用也很明显,除了加速运算外,就是防止过拟合了。

    展开全文
  •  演讲稿是进行演讲依据,是演讲内容和形式规范和提示,它体现着演讲目的和手段, 演讲内容和形式。 演讲稿是人们在工作和社会生活中经常使用一种文体。它可以用来交流思想、感情,表达 主张、见解;也...
  • 网页分类技术介绍

    2016-08-19 13:51:41
    技术背景分类问题是人类所面临一个非常重要且具有普遍...自动文本分类就是大量自然语言文本按照一定主题类别进行自动分类,它是自然语言处理一个十分重要问题。文本分类主要应用于信息检索,机器翻译,自动
  • 分类(一)

    2013-07-05 11:31:32
    在这里我们探讨一个话题,分类。...我们世界上东西进行了分门别类研究处理,打个比方,例如生物学上,我们把生物分成了,原核生物、真核生物、病毒,而后针对每样事物进行研,由于同一类别事物有他们
  • 自动文本分类就是大量的自然语言文本按照一定的主题类别进行自动分类,它是自然语言处理的一个十分重要的问题。文本分类主要应用于信息检索,机器翻译,自动文摘,信息过滤,邮件分类等任务。文本分类的一个关键...
  • 【1. 概述】 消息 : 来自外界各种报道。 信息 : 消息中有意义的内容。...系统基本作用是信号进行传输和处理。 激励: 输入信号。 响应: 输出信号。 【2. 确定信号和随机信号】 确定...
  • 2,日常生活当中我们都习惯对事物进行分类,那么这种分类的思想是否可以引入到 程序设计中? 1,可以; 2,面向对象就是将分类的思想直接引入到程序设计当中; 3,面向对象的意义在于: 1,将日常生活中...
  • 思考卷积神经网络(CNN)中各种意义只是知道CNN是不够,我们需要对其进行解剖,继而分析不同部件存在的意义CNN的目的简单来说,CNN的目的是以一定的模型对事物进行特征提取,而后根据特征对该事物进行分类、识别、...
  • 基于文本数据挖掘

    2012-04-09 10:33:22
    数据的分类问题是人类所面临一个非常重要且具有普遍意义的问题。将事物正确的分类,有助于人们认识世界,使杂乱无章现实世界变得有条理。因此在科学技术、工农业生产以及工商业领域,数据分类、文本分类都起着...
  • MySQL-01数据库基本概念 1. 数据 数据是事实或观察结果,它是客观事物的逻辑归纳,是...数据管理是数据处理中心问题,是数据库核心任务,主要包括数据进行分类、组织、编码、 存储、检索和维护。 数据管
  • ①当描述一个事物作为分类的依据的时候,我们可能仅仅描述的是一个“抽象”过后的特征,例如在和一个人相处后,经常会说你他的印象怎么样,十分满分的话,打几分?这里的分数其实并不属于那个人的属性,而是那个...
  • 抽象原则有两方面的意义:第一,尽管问题域中的事物是很复杂的,但是分析员并不需要了解和描述它们的一切,只需要分析研究其中与系统目标有关的事物及其本质性特征。第二,通过舍弃个体事物在细节上的差异,抽取其...
  • 类型是C++语言的基础,对象类型决定了能该对象进行的操作。 一、基本内置数据类型 C++预先定义的基本内置数据类型是构造世界万物的原子,数据类型告诉我们数据的意义以及我们能在数据上执行的操作。 1、 数据的...
  • 卷积神经网络CNN特点功能及其缺陷

    千次阅读 2020-06-22 15:14:09
    卷积神经网络CNN特点功能及其缺陷卷积神经网络(CNN)中模块及其功能作用CNN目的特征卷积与特征提取卷积特点:...CNN目的是以一定模型对事物进行特征提取,而后根据特征对该事物进行分类、识别、预测或决策
  • 日常生活中,我们都习惯于对事物进行分类,那么这种分类思想是否可以引入程序设计中呢? 面向对象的基本概念: 类和对象的意义: 一些有趣的问题; 小结: 转载于:...
  • 定义只适用于非历史的东西(尼采)因为科学没有一个共同的本质——我们采用家族相似的方案科学进行分类1.1 什么是科学史(习题)1.2科学史的意义根据知识的形态载体分类文本知识的出现,使得知识具有可批判性知识...
  • 进阶面向对象

    2018-01-14 11:20:24
    日常生活中,我们都习惯对事物进行分类。那么,这种分类的思想是否可以引入程序设计中呢? 2 面向对象的基本概念 面向对象的意义在于 将日常生活中习惯的思维方式引入程序设计中; 将需求中的概念直观的映射...
  • 在日常生活中,我们都习惯于对事物进行分类。那么,这种分类的思想是否也可以引入程序设计中呢?面向对象的意义在于:将日常生活中习惯的思维方式引入程序设计中;将需求中的概念直观的映射到解决方案中;以模块为...
  • 诞生的意义ice是通过对象来进行通信的,对象提供的操作一旦多起来,就变得复杂起来,不便于管理。...ice facets本质还是信息进行分类,只不过是针对对象的信息进行分类。 facets在通信协议领域里面是很常见
  • 模式识别扫盲

    2014-04-09 06:59:33
    模式识别是对表征事物或现象各种形式信息进行处理和分析,以对事物或现象进行描述、辨认、分类和解释过程,是信息科学和人工智能重要组成部分。 英文“Pattern”源于法文“Patron”,本来是指...

空空如也

空空如也

1 2 3
收藏数 60
精华内容 24
关键字:

对事物进行分类的意义