精华内容
下载资源
问答
  • 首先,先简单介绍一下MD5 MD5的全称是message-digest algorithm 5(信息-摘要算法,在90年代初由mit laboratory for computer science和...MD5具有很好的安全性(因为它具有不可逆的特征,加过密的密文经过解密后和加...

    首先,先简单介绍一下MD5

    MD5的全称是message-digest algorithm 5(信息-摘要算法,在90年代初由mit laboratory for computer science和rsa data security inc的ronald l. rivest开发出来, 经md2、md3和md4发展而来。

    MD5具有很好的安全性(因为它具有不可逆的特征,加过密的密文经过解密后和加密前的东东相同的可能性极小)

    引用
    using System.Security.Cryptography;
    using System.Text;

    具体代码如下(写在按钮的Click事件里):
    byte[] result = Encoding.Default.GetBytes(this.tbPass.Text.Trim());    //tbPass为输入密码的文本框
    MD5 md5 = new MD5CryptoServiceProvider();
    byte[] output = md5.ComputeHash(result);
    this.tbMd5pass.Text = BitConverter.ToString(output).Replace("-","");  //tbMd5pass为输出加密文本的文本框

    展开全文
  • QGIS是一个开源地理信息系统。 该项目诞生于2002年5月,并于同年6月在SourceForge上建立为一个项目。 我们已经努力使GIS软件(传统上是昂贵的商业软件)对于具有基本访问个人计算机权限的任何人来说都是可行的前景...
  • 首先,面向对象的概念是 是一种以对象为中心的编程思想,通过指挥对象实现具体功能 ...原则 ----将类的某些信息隐藏在类的内部,不允许外部程序直接访问,而是通过该类提供的方法来实现对隐藏信息的操作和访问. 例如 :

    首先,面向对象的概念是

     是一种以对象为中心的编程思想,通过指挥对象实现具体功能
    
    • 类 — 是对现实生活中一类具有共同属性和行为的事物的抽象
    • 对象— 是能够看得到摸的着的真实存在的实体
    • 简单理解:类是对事物的一种描述,对象则为具体存在的事物

    面向对象的三大特征 “封装”…“继承”…“多态”

    [ 1 ] - < 封装 >-------

    1. 原则 ----将类的某些信息隐藏在类的内部,不允许外部程序直接访问,而是通过该类提供的方法来实现对隐藏信息的操作和访问.

    例如 : 成员变量private,提供对应的 get , set 方法

    1. 封装的好处
      ----通过方法来控制成员变量的操作,提高了代码的安全性

    ----把代码用方法进行封装,提高了代码的复用性

    [ 2 ] - < 继承 >-------

    继承的概念 :

    可以使得子类具有父类的属性和方法,可以在子类中重新定义,以及追加属性和方法

    < 一 >
    1.实现继承的格式

    继承通过extends实现
    格式:class 子类 extends 父类 { }
    在这里插入图片描述

    2 . 继承带来的好处 :
    ----继承可以让类与类之间产生关系,子父类关系,产生子父类后,子类则可以使用父类中非私有的成员

    < 1 > ----提高了代码的复用性(多个类相同的成员可以放到同一个类中)

    < 2 > ----提高了代码的维护性(如果方法的代码需要修改,修改一处即可)

    3.继承带来的弊端

    ----继承让类与类之间产生了关系,类的耦合性增强了,当父类发生变化时子类实现也不得不跟着变化,削弱了子类的独立性

    4.使用继承
    ----需要考虑是不是 is a 的关系,不能盲目使用继承
    ----is . a的关系:谁是谁的一种,例如:老师和学生是人的一种,那人就是父类,学生和老师就是子类
    < 二 >

    1. Java中继承的特点
      ----只支持单继承,不支持多继承,但是支持多层继承
      在这里插入图片描述
      2.继承中变量的访问特点
      ----就近原则
      -子类局部范围找
      -子类成员范围找
      -父类成员范围找
      -如果都没有就报错(不考虑父亲的父亲…)
      this&super关键字:

    this:代表本类对象的引用
    super:代表父类存储空间的标识(可以理解为父类对象引用)
    this和super的使用 :

    • this.成员变量 - 访问本类成员变量
      super.成员变量 - 访问父类成员变量成员方法

    • this.成员方法 - 访问本类成员方法
      super.成员方法 - 访问父类成员方法构造方法

    • this(…) - 访问本类构造方法
      super(…) - 访问父类构造方法

    3.继承中构造方法的访问特点
    子类中所有的构造方法默认都会访问父类中无参的构造方法

    子类会继承父类中的数据,可能还会使用父类的数据。所以,子类初始化之前,一定要先完成父类数据的初始化,原因在于,每一个子类构造方法的第一条语句默认都是:super()

    4.继承中成员方法的访问特点

    • 子类成员范围找
    • 父类成员范围找
    • 如果都没有就报错(不考虑父亲的父亲…)
    1. 方法重写
      子类出现了和父类中一模一样的方法声明(方法名一样,参数列表也必须一样)

      当子类需要父类的功能,而功能主体子类有自己特有内容时,可以重写父类中的方法,这样,即沿袭了父类的功能,又定义了子类特有的内容

    方法重写的注意事项:

    • 私有方法不能被重写(父类私有成员子类是不能继承的)
    • 子类方法访问权限不能更低(public > 默认 > 私有)
    • 静态方法不能被重写,如果子类也有相同的方法,并不是重写的父类的方法

    [ 3 ]–< 多态 >-------

    什么是多态?

    • 同一个对象,在不同时刻表现出来的不同形态~

    多态的前提

    • 要有继承或实现关系
    • 要有方法的重写
    • 要有父类引用指向子类对象~

    在这里插入图片描述
    多态中的成员访问特点

    成员访问特点
    成员变量

    • 编译看父类,运行看父类

    成员方法

    • 编译看父类,运行看子类

    在这里插入图片描述
    多态的好处和弊端
    好处

    • 提高程序的扩展性。定义方法时候,使用父类型作为参数,在使用的时候,使用具体的子类型参与操作

    弊端

    • 不能使用子类的特有成员

    多态中的转型

    向上转型
    父类引用指向子类对象就是向上转型
    向下转型
    格式:子类型 对象名 = (子类型)父类引用;

    在这里插入图片描述

    在这里插入图片描述

    展开全文
  • 该方法充分利用了图像中的冗余信息,在去噪的同时能最大程度地保持图像的细节特征。基本思想是:当前像素的估计值由图像中与它具有相似邻域结构的像素加权平均得到。 工作原理:请参照参考文献:...

    经典非局部均值滤波(NLM)算法python实现(单通道图像版本)

    概述:非局部均值(NL-means)是近年来提出的一项新型的去噪技术。该方法充分利用了图像中的冗余信息,在去噪的同时能最大程度地保持图像的细节特征。基本思想是:当前像素的估计值由图像中与它具有相似邻域结构的像素加权平均得到。

    工作原理:请参照参考文献:https://blog.csdn.net/literacy_wang/article/details/106937535

    以下是博主根据自己的一些个人理解和网上MATLAB代码翻译过来的代码, 适合单通道的图片场景:

    # 传统的非局部均值滤波器
    import cv2 
    import numpy as np 
    
    # 单通道
    # f为相似窗口的半径, t为搜索窗口的半径, h为高斯函数平滑参数(一般取为相似窗口的大小)
    def make_kernel(f):
        kernel = np.zeros((2*f+1, 2*f+1), np.float32)
        for d in range(1, f+1):
            kernel[f-d:f+d+1, f-d:f+d+1] += (1.0/((2*d+1)**2))
    
        return kernel/kernel.sum()
    
    def NLmeans_filter(src, f, t, h):
        H, W = src.shape
        out = np.zeros((H, W), np.uint8)
        pad_length = f+t
        src_padding = np.pad(src, (pad_length, pad_length), mode='symmetric').astype(np.float32)
        kernel = make_kernel(f)
        h2 = h*h
    
        for i in range(0, H):
            for j in range(0, W):
                i1 = i + f + t
                j1 = j + f + t
                W1 = src_padding[i1-f:i1+f+1, j1-f:j1+f+1] # 领域窗口W1
                w_max = 0
                aver = 0
                weight_sum = 0
                # 搜索窗口
                for r in range(i1-t, i1+t+1):
                    for c in range(j1-t, j1+t+1):
                        if (r==i1) and (c==j1):
                            continue
                        else:
                            W2 = src_padding[r-f:r+f+1, c-f:c+f+1] # 搜索区域内的相似窗口
                            Dist2 = (kernel*(W1-W2)*(W1-W2)).sum()
                            w = np.exp(-Dist2/h2)
                            if w > w_max:
                                w_max = w
                            weight_sum += w
                            aver += w*src_padding[r, c]
                aver += w_max*src_padding[i1, j1] # 自身领域取最大的权重
                weight_sum += w_max
                out[i, j] = aver/weight_sum
    
        return out
    
    img = cv2.imread("lena256gs10.bmp", 0)
    out = NLmeans_filter(img, 2, 5, 10)
    cv2.imwrite("result.bmp", out)
    

    输出展示:
    加了标准差为10的高斯噪声的lena图像:

    在这里插入图片描述
    滤波结果:

    在这里插入图片描述
    参考博文:
    https://blog.csdn.net/literacy_wang/article/details/106937535
    https://blog.csdn.net/nineship/article/details/82109363
    https://blog.csdn.net/u010839382/article/details/48229579

    展开全文
  • PCA是最重要的非监督学习的降维方法之一。在数据压缩消除冗余和数据噪音消除等领域...2)缺点:主成维特整分各个特征维度的含义具有一定的模糊性,不如原始样本特征的解释性强;方差小的非主成分也可能含有对样本差...

    PCA是最重要的非监督学习的降维方法之一。在数据压缩消除冗余和数据噪音消除等领域都有广泛的应用。

    A、PCA的优缺点

    1)优点:仅仅需要以方差衡量信息量,不受数据集以外的因素影响;各主成分之间正交,可以消除原始数据成分见得相互影响的因素;计算方法简单,主要运算是特征值分解,易于实现。

    2)缺点:主成维特整分各个特征维度的含义具有一定的模糊性,不如原始样本特征的解释性强;方差小的非主成分也可能含有对样本差异的重要信息,因降维丢弃可能对后续数据处理有影响。

    B、PCA思想

    将n维特征映射到k维上(k<n),这k维是全新的正交特征。这k维特征称为主元,是重新构造出来的k维特征。而不是简单地从n维特征中去除其他n-k维特征。

    PCA操作流程

    1、去平均值,即每一位特征减去各自的平均值(当然,为避免量纲以及数据数量及差异带来的影响,先标准化是必要的);

    2、计算协方差矩阵;

    3、计算协方差矩阵的特征值与特征向量;

    4、对特征值从大到小排序;

    5、保留最大的k个特征向量;

    6、将数据转换到k个特征向量构建的新空间中。

    C、PCA举例

         首先介绍PCA的计算过程:

         假设我们得到的2维数据如下:

         clip_image001[4]

         行代表了样例,列代表特征,这里有10个样例,每个样例两个特征。可以这样认为,有10篇文档,x是10篇文档中“learn”出现的TF-IDF,y是10篇文档中“study”出现的TF-IDF。也可以认为有10辆汽车,x是千米/小时的速度,y是英里/小时的速度,等等。

         第一步分别求x和y的平均值,然后对于所有的样例,都减去对应的均值。这里x的均值是1.81,y的均值是1.91,那么一个样例减去均值后即为(0.69,0.49),得到

         clip_image002[4]

         第二步,求特征协方差矩阵,如果数据是3维,那么协方差矩阵是

         clip_image003[4]

         这里只有x和y,求解得

         clip_image004[4]

         对角线上分别是x和y的方差,非对角线上是协方差。协方差大于0表示x和y若有一个增,另一个也增;小于0表示一个增,一个减;协方差为0时,两者独立。协方差绝对值越大,两者对彼此的影响越大,反之越小。

         第三步,求协方差的特征值和特征向量,得到

         clip_image005[4]

         上面是两个特征值,下面是对应的特征向量,特征值0.0490833989对应特征向量为clip_image007[4],这里的特征向量都归一化为单位向量。

        第四步,将特征值按照从大到小的顺序排序,选择其中最大的k个,然后将其对应的k个特征向量分别作为列向量组成特征向量矩阵。

         这里特征值只有两个,我们选择其中最大的那个,这里是1.28402771,对应的特征向量是clip_image009[6]

         第五步,将样本点投影到选取的特征向量上。假设样例数为m,特征数为n,减去均值后的样本矩阵为DataAdjust(m*n),协方差矩阵是n*n,选取的k个特征向量组成的矩阵为EigenVectors(n*k)。那么投影后的数据FinalData为

         clip_image011[4]

         这里是

         FinalData(10*1) = DataAdjust(10*2矩阵)×特征向量clip_image009[7]

         得到结果是

         clip_image012[4]

         这样,就将原始样例的n维特征变成了k维,这k维就是原始特征在k维上的投影。

         上面的数据可以认为是learn和study特征融合为一个新的特征叫做LS特征,该特征基本上代表了这两个特征。

         上述过程有个图描述:

         clip_image013[4]

         正号表示预处理后的样本点,斜着的两条线就分别是正交的特征向量(由于协方差矩阵是对称的,因此其特征向量正交),最后一步的矩阵乘法就是将原始样本点分别往特征向量对应的轴上做投影。

         如果取的k=2,那么结果是

         clip_image014[4]

         这就是经过PCA处理后的样本数据,水平轴(上面举例为LS特征)基本上可以代表全部样本点。整个过程看起来就像将坐标系做了旋转,当然二维可以图形化表示,高维就不行了。上面的如果k=1,那么只会留下这里的水平轴,轴上是所有点在该轴的投影。

         这样PCA的过程基本结束。在第一步减均值之后,其实应该还有一步对特征做方差归一化。比如一个特征是汽车速度(0到100),一个是汽车的座位数(2到6),显然第二个的方差比第一个小。因此,如果样本特征中存在这种情况,那么在第一步之后,求每个特征的标准差clip_image016[6],然后对每个样例在该特征下的数据除以clip_image016[7]

     

    •  注意1:虽然PCA有降维的效果,也许对避免过拟合有作用,但是最好不要用PCA去作用于过拟合。
    •  注意2:在训练集中找出PCA的主成分,(可以看做为映射 mapping),然后应用到测试集和交叉验证集中。而不是对所有数据集使用PCA然后再划分训练集,测试集和交叉验证集。

     

    展开全文
  • 光致变色物质具有颜色和多种物理性质可逆变化的特征,其中磁性随光刺激发生变化(即所谓光磁效应)的化合物除具有一般光致变色物质的强光防护、光开关等功能外,还可能在磁共振成像、光信息存储等方面发挥重要作用。...
  • 新版本还为读者提供了计算机图形学领域的最前沿信息。《计算机图形学(OpenGL版)第3版》是计算机图形学课程的很好教材,也是计算机图形学专业人员的很好参考书。 编辑推荐 《计算机图形学(OpenGL版)第3版》配套的网站...
  • Contents ...由于模型呈树形结构,可以看做是if-then规则的集合,具有一定的可读性,可视化效果好。 决策树的建立包括3个步骤:特征选择、决策树生成和决策树的修剪。 模型的建立实际上就是通过某...
  • 前言:这节课是C#讲解的第四节课,主要围绕面向对象的三大特性展开。上节课已经把封装讲完了,这节课讲继承和多态。 内容: ...子类继承超类的状态和行为(字段和方法),同时也可以具有自己的特征...
  • 把在数据集上具有相同的样本空间、不同的特征空间的参与方所组成的联邦学习归纳为纵向联邦学习(Vertical Federated Learning, VFL),也可以理解为按特征划分的联邦学习。 在这种联邦学习体系下,每一个参与方的...
  • 论文名称:《 Feature Pyramid Networks for Object Detection 》 ... ... 1、模型概述: 目前多尺度的物体检测主要面临的挑战为: ...(1)如何学习具有强语义信息的多尺度特征表示? (2)如何设计通用的...
  • 横向联邦学习也称为按样本划分的联邦学习,可以应用于联邦学习的各个参与方的数据集有相同的特征空间和不同的样本空间的场景,类似于在表格视图中对数据进行水平划分的情况。 横向联邦学习中通常假设只有服务器才能...
  • 特征工程 我们都知道特征工程在机器学习中是很重要...所以我们可以这么理解,特征是数据中抽取出来的对结果预测有用的信息(水域),而特征工程就是使用专业知识来处理数据,筛选出具有价值的特征(从100个水域中挑...
  • 利用前面的方法检测出边缘点,但由于噪声、光照不均等因素的影响,获得边缘点有可能是不连续的,必须使用连接过程将边缘像素组合成有意义的边缘信息,以备后续处理。 填充小的间隙可以简单地实现,通过搜索一个以某...
  • #点特征直方图(PFH)...直接的结果是,大多数场景将包含许多具有相同或非常相似的特征值的点,从而降低了它们的信息特征。 为了简单起见,本教程介绍了一系列创建PFH(点特征直方图)的3D特征描述符,展示了它们的...
  • 大数据是一种规模大到在获取、存储、管理、分析方面大大超出了传统数据库软件工具能力范围的数据集合,具有海量的数据规模、快速的数据流转、多样的数据类型,高价值性和准确性五大特征,即5V(Volume, Velocity, ...
  • 英文原网页查看。 点特征直方图(PFH)描述...直接的结果是,大多数场景将包含许多具有相同或非常相似的特征值的点,从而减少了它们的信息特征。 本教程介绍了一组为简单起见而创建的3D特征描述符PFH(点特征直方图),...
  • 封装和信息隐藏 继承和重写 多态性,子类型和重载 静态与动态分派 Java中一些重要的Object方法设计好的类面向对象的历史总结 面向对象的标准 面向对象的编程方法/语言应该具有类的概念作为中心概念。语言应该能够为...
  • 第一章 概论 1.地理信息 地理信息是有关地理实体和地理现象的性质、...(1) 空间相关性:地理事物都是相关的,并且在空间上相距越近则相关性越大,空间距离越远则相关性越小,同时地理信息的相关性具有区域性特点。
  • 深度特征融合---高低层(多尺度)特征融合

    万次阅读 多人点赞 2019-03-09 23:00:07
    高层特征具有更强的语义信息,但是分辨率很低,对细节的感知能力较差。如何将两者高效融合,取其长处,弃之糟泊,是改善分割模型的关键。 空洞卷积 高低层特征直接concat 融合特征的SSD:对小目标的快速检测 FSSD: ...
  • Python 网络爬虫从0到1 (5):re(正则表达式)库入门详解   在上一节Python 网络爬虫从0...但是,在实际应用中,我们常常会遇到一类情况,我们需要获取某一类具有共同特征的一组标签数据,但其各属性并不完全相同
  • 单目视觉(2):SFM之概述(一)

    千次阅读 2018-04-14 20:39:11
    SFM: Struct From Motion 概述(一) SFM: Struct From Motion 概述(一) ...这样的特征点相对于一些普通的点具有相对较多的信息量。我们可以根据这样的特征点,来描述图像中的关键信息。图像特征主要包括线...
  • 在Gabor特征的基础上,我们分别获得了LBP特征和LPQ特征,从而在空间域内以及不同尺度和方向上充分探究了模糊不变性和信息。 在CMU-PIE和Yale B上进行的实验证明了我们的GLL在处理不同条件面部数据集时的有效性。
  • 【关键词】银行,保险,信托,证券,租赁,IT,特征,金融企业 【摘要】由于金融企业是经营金融商品的特殊企业,它包括银行、保险、信托、证券和租赁。 因此决定它具有指标性、垄断性、高风险性、效益依赖性和高...
  • 循环神经网络,通过潜在自回归模型,使用隐藏状态来存储之前的信息。隐藏层和隐藏状态是指两个非常不同的概念。如所解释的,隐藏层是在从输入到输出的路径上从视图中隐藏的层。从技术上讲,隐藏状态是在给定步骤中...
  • 1、特征提取:从文字,图像,声音等其他非结构化数据中提取信息作为特征,建立最原始特征信息采集。 2、特征创造:把现有的一些特征进行组合胡总和相互计算,得到新的特征。 3:特征选择:从所有特征中挑选出最具有...
  • 激光雷达学习笔记(三)特征提取

    千次阅读 2017-05-22 17:45:27
    激光雷达学习笔记(三)特征提取 标签: 激光雷达算法特征提取 2013-02-22 23:26 9495人阅读 评论(5) 收藏 举报  分类: 激光雷达(5)  版权声明:本文为博主原创文章,未经博主允许...
  • 机器学习(一)特征工程基本流程 前言  特征是数据中抽取出来的对结果预测有用的信息,可以是文本或者数据。特征工程是使用专业背景知识和技巧处理数据,使得特征能在机器学习算法上发挥更好的作用的过程。过程...
  • 特征选择(Feature Selection)

    万次阅读 多人点赞 2018-07-04 17:00:56
    在现实生活中,一个对象往往具有很多属性(以下称为特征),这些特征大致可以被分成三种主要的类型: 相关特征:对于学习任务(例如分类问题)有帮助,可以提升学习算法的效果; 无关特征:对于我们的算法没有任何...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 4,007
精华内容 1,602
关键字:

)特征信息具有(