精华内容
下载资源
问答
  • 用MATLAB编写,4个基站的基于TDOA的Chan-Taylor混合加权算法定位。最普通的Chan-Taylor算法,将Chan算法计算出来的估计值作为Taylor级数展开法的迭代初始值带入,之后合理设置Chan算法和Taylor级数展开法的加权系数...
  • 加权随机算法

    2017-01-09 14:57:00
    2019独角兽企业重金招聘Python工程师标准>>> ...

    加权随机算法一般应用在以下场景:有一个集合S,里面比如有A,B,C,D这四项。这时我们想随机从中抽取一项,但是抽取的概率不同,比如我们希望抽到A的概率是50%,抽到B和C的概率是20%,D的概率是10%。一般来说,我们可以给各项附一个权重,抽取的概率正比于这个权重。那么上述集合就成了:

    {A:5,B:2,C:2,D:1}

    方法一:

    扩展这个集合,使每一项出现的次数与其权重正相关。在上述例子这个集合扩展成:
    {A,A,A,A,A,B,B,C,C,D}
    然后就可以用均匀随机算法来从中选取。

    好处:选取的时间复杂度为O(1),算法简单。
    坏处:空间占用极大。另外如果权重数字位数较大,例如{A:49.1 B:50.9}的时候,就会产生巨大的空间浪费。

    方法二:

    计算权重总和sum,然后在1到sum之间随机选择一个数R,之后遍历整个集合,统计遍历的项的权重之和,如果大于等于R,就停止遍历,选择遇到的项。

    还是以上面的集合为例,sum等于10,如果随机到1-5,则会在遍历第一个数字的时候就退出遍历。符合所选取的概率。

    好处:没有额外的空间占用,算法也比较简单。
    坏处:选取的时候要遍历集合,时间复杂度是O(n)。

    方法三:

    可以对方法二进行优化,对项目集按照权重排序。这样遍历的时候,概率高的项可以很快遇到,减少遍历的项。
    比较{A:5,B:2,C:2,D:1}和{B:2,C:2,A:5,D:1}
    前者遍历步数的期望是5/10*1+2/10*2+2/10*3+1/10*4而后者是2/10*1+2/10*2+5/10*3+1/10*4。

    好处:提高了平均选取速度。
    坏处:需要进行排序,并且不易添加删除修改项。

    解决:

    这是能想到和能看到的最多的版本,不知道还没有更高效好用的算法。

    1. #!/usr/bin/env python  
    2. # -*- coding: utf-8 -*-  
    3. #python2.7x  
    4. #random_weight.py   
    5. #author: orangleliu@gmail.com 2014-10-11  
    6.   
    7. ''''' 
    8. 每个元素都有权重,然后根据权重随机取值 
    9.  
    10. 输入 {"A":2, "B":2, "C":4, "D":10, "E": 20} 
    11. 输出一个值 
    12. '''  
    13. import random  
    14. import collections as coll  
    15.   
    16. data = {"A":2, "B":2, "C":4, "D":6, "E": 11}  
    17.   
    18. #第一种 根据元素权重值 "A"*2 ..等,把每个元素取权重个元素放到一个数组中,然后最数组下标取随机数得到权重  
    19. def list_method():  
    20.     all_data = []  
    21.     for v, w in data.items():  
    22.         temp = []  
    23.         for i in range(w):  
    24.             temp.append(v)  
    25.         all_data.extend(temp)  
    26.           
    27.     n = random.randint(0,len(all_data)-1)  
    28.     return all_data[n]  
    29.       
    30. #第二种 也是要计算出权重总和,取出一个随机数,遍历所有元素,把权重相加sum,当sum大于等于随机数字的时候停止,取出当前的元组  
    31. def iter_method():  
    32.     total = sum(data.values())  
    33.     rad = random.randint(1,total)  
    34.       
    35.    cur_total = 0  
    36.     res = ""  
    37.     for k, v in data.items():  
    38.         cur_total += v  
    39.         if rad<= cur_total:  
    40.             res = k   
    41.             break  
    42.     return res  
    43.       
    44.       
    45. def test(method):  
    46.     dict_num = coll.defaultdict(int)  
    47.     for i in range(100):  
    48.         dict_num[eval(method)] += 1  
    49.     for i,j in dict_num.items():  
    50.         print i, j      
    51.       
    52. if __name__ == "__main__":  
    53.     test("list_method()")  
    54.     print "-"*50  
    55.     test("iter_method()")  
    56.       

    一次执行的结果

    1. A 4  
    2. C 14  
    3. B 7  
    4. E 44  
    5. D 31  
    6. --------------------------------------------------  
    7. A 8  
    8. C 16  
    9. B 6  
    10. E 43  
    11. D 27  

     

     

    问题:

    例如我们要选从不同省份选取一个号码,每个省份的权重不一样,直接选随机数肯定是不行的了,就需要一个模型来解决这个问题。

    简化成下面的问题:

     字典的key代表是省份,value代表的是权重,我们现在需要一个函数,每次基于权重选择一个省份出来

    {"A":2, "B":2, "C":4, "D":10, "E": 20}

    转载于:https://my.oschina.net/u/2603728/blog/821385

    展开全文
  • 校验位的加权算法与10位ISBN的算法不同,具体算法是: 用1分别乘ISBN的前12位中的奇数位(从左边开始数起),用3乘以偶数位,乘积之和以10为模, 10与模值的差值再对10取模(即取个位的数字)即可得到校验位的值,其...

    标题:书号验证

    2004年起,国际ISBN中心出版了《13位国际标准书号指南》。
    原有10位书号前加978作为商品分类标识;校验规则也改变。
    校验位的加权算法与10位ISBN的算法不同,具体算法是:
    用1分别乘ISBN的前12位中的奇数位(从左边开始数起),用3乘以偶数位,乘积之和以10为模,
    10与模值的差值再对10取模(即取个位的数字)即可得到校验位的值,其值范围应该为0~9。

    下面的程序实现了该算法,请仔细阅读源码,填写缺失的部分。

    public class A
    {
    static boolean f(String s){
    int k=1;
    int sum = 0;
    for(int i=0; i<s.length(); i++){-
    char c = s.charAt(i);
    if(c==’-’ || c==’ ') continue;
    sum += ______________________________; //填空
    k++;
    if(k>12) break;
    }

    	return s.charAt(s.length()-1)-'0' == (10-sum % 10)%10;
    }
    
    public static void main(String[] args){
    	System.out.println(f("978-7-301-04815-3"));
    	System.out.println(f("978-7-115-38821-6"));
    }
    

    }

    注意:只提交空缺的代码,不要抄写已经存在的代码。

    package nine;
    
    public class shyz {
    	static boolean f(String s){
    		int k=1;
    		int sum = 0;
    		for(int i=0; i<s.length(); i++){
    			char c = s.charAt(i);
    			if(c=='-' || c==' ') continue;
    			sum +=Integer.parseInt(String.valueOf(c))*(k % 2 == 0?3:1);//填空
    			k++;
    			if(k>12) break; 
    		}
    		
    		return s.charAt(s.length()-1)-'0' == (10-sum % 10)%10;
    	}
    	
    	public static void main(String[] args){
    		System.out.println(f("978-7-301-04815-3"));
    		System.out.println(f("978-7-115-38821-6"));
    	}
    }
    
    
    展开全文
  • 标准线性回归只拟合出一条直线,局部加权线性回归共更新x矩阵m-1次,在相邻两个数据之间都回归出直线,共得到m-1条直线,连接起来就近似曲线了 改变lwlr()函数的k值,可以改变曲线的平滑度和拟合度,大家有兴趣可以...
    '''
    机器学习实战章8
    一个矩阵x(样本数据属性矩阵)和y(样本数据y矩阵)可拟合出一条直线
    标准线性回归只拟合出一条直线,局部加权线性回归共更新x矩阵m-1次,在相邻两个数据之间都回归出直线,共得到m-1条直线,连接起来就近似曲线了
    改变lwlr()函数的k值,可以改变曲线的平滑度和拟合度,大家有兴趣可以试试
    本代码使用的资源和文件在文末
    '''
    from numpy import *
    
    '''
     该函数解析用tab键分离的文本文件,若该文件内有m条数据
     dataMat:如其名,属性矩阵,m x 2
     labelMat:y值矩阵,m x 1
    '''
    def loadDataSet(fileName):
        numFeat = len(open(fileName).readline().split('\t')) - 1 #获取属性数,前两列是属性,最后一列是y值
        dataMat = []; labelMat = []
        fr = open(fileName)
        for line in fr.readlines():
            lineArr =[]
            curLine = line.strip().split('\t')
            for i in range(numFeat):
                lineArr.append(float(curLine[i]))
            dataMat.append(lineArr)
            labelMat.append(float(curLine[-1]))
        return dataMat,labelMat #函数有多个返回值其实是返回了一个tuple
    
    """
    标准回归,计算最佳拟合直线
    返回m x 1的回归系数矩阵
    """
    def standRegres(xArr,yArr):
        xMat = mat(xArr); yMat = mat(yArr).T
        xTx = xMat.T*xMat
        if linalg.det(xTx) == 0.0:#判断xTx矩阵行列式是否为0,linalg是numpy提供的线性代数库
            print( "This matrix is 不可逆的, cannot 求逆")
            return
        ws = xTx.I * (xMat.T*yMat)
        return ws
    
    
    '''
    加权局部线性回归
    以待预测数据为中心对所有样本数据赋予一定的权重得到新x矩阵,相邻两点间回归出直线,上述过程重复m-1次,连接在一起近似平滑的曲线
    k是参数,由用户指定,这也是lwlr中唯一要考虑的参数
    testPoint: 1 * 2 一条测试数据,不是一个点
    weights:m * m
    xMat: m * 2
    yMat: m * 1
    ws: 2 * 1
    '''
    def lwlr(testPoint,xArr,yArr,k):
        xMat = mat(xArr); yMat = mat(yArr).T
        m = shape(xMat)[0] # m 样本数据数
        weights = mat(eye((m))) #eye()创建m阶单位矩阵,是方阵,即该矩阵为每个样本点初始化了一个权重1
        for j in range(m): 
            diffMat = testPoint - xMat[j,:]     #样本点与待遇测点的距离
            #exp():以e为底的指数函数。随着样本点与待预测点距离递增,权重以指数级衰减。这种设置权重的方法叫高斯核类型。
            weights[j,j] = exp(diffMat*diffMat.T/(-2.0*k**2))
        xTx = xMat.T * (weights * xMat) # x = weights * xMat,相当于更新了x(样本)矩阵
        if linalg.det(xTx) == 0.0:
            print( "This matrix  cannot do inverse")
            return
        ws = xTx.I * (xMat.T * (weights * yMat)) #求sei ta的算法式子也更新,得到回归系数(sei ta)2 * 1
        return testPoint * ws # 返回lwlr对testPoint(样本数据)的预测值
    
    '''
    本函数对所有样本数据调用lwlr(),得到所有预测值
    '''
    def lwlrTest(testArr,xArr,yArr,k):  #loops over all the data points and applies lwlr to each one
        m = shape(testArr)[0]
        yHat = zeros(m)
        for i in range(m):
            yHat[i] = lwlr(testArr[i],xArr,yArr,k)
        return yHat
    
    """
    xarr,yarr是数组,loadDataSet()的返回值
    
    """
    def show(xarr,yarr,yHat):
        xMat = mat(xarr)  # 数组转化成矩阵 m * 2
        yMat = mat(yarr)  # 数组转化成矩阵1 * m
        #排序
        strInd = xMat[:,1].argsort(0) #对样本x升序排序并返回索引
        xSort = xMat[strInd][:,0,:]
        import  matplotlib.pyplot as plt
        fig = plt.figure()
        ax = fig.add_subplot(111)
        ax.plot(xSort[:,1],yHat[strInd])# xSort是横坐标,yHat是对应的纵坐标,plot按索引顺序在相邻两点连线。如果不排序就会来回画
        ax.scatter(xMat[:,1].flatten().A[0],yMat.T.flatten().A[0],s = 2,c = 'red') # 画出所有原始数据
        plt.show()
    
    xarr,yarr = loadDataSet("ex0.txt")
    
    yHat = lwlrTest(xarr,xarr,yarr,0.03)
    
    show(xarr,yarr,yHat)
    
    """
    print(corrcoef(yHat.T,yMat))
    corrcoef(yEstimate,yActual):计算真实值和预测值的相关性,两个参数都应是行向量
    输出
    [[1.         0.98647356]
    [0.98647356 1.        ]]
    表示相关性为0.98647356
    """
    
    

    机器学习实战代码百度云:提取码8569

    展开全文
  • 实现 Feitelson 加权算法的 C++ 程序。 概述 这是一个 C++ 程序,用于实现 Dror G. Feitelson 的加权集团算法算法在信息研究中的,9(4) 论文 192 中描述。有关更多详细信息,请参阅。 依赖关系 该程序使用可从...
  • ...来源:伯乐在线 - iPytLab ...最近开始总结学习回归相关的东东了,与...当然还是从最简单的线性回归开始,本文主要介绍无偏差的标准线性回归和有偏局部加权线性回归的理论基础以及相应的Python实现。 标准线

    (点击上方蓝字,快速关注我们)


    来源:伯乐在线 - iPytLab

    如有好文章投稿,请点击 → 这里了解详情


    前言


    最近开始总结学习回归相关的东东了,与分类的目标变量是标称型不同,回归是对连续型数据进预测。当然还是从最简单的线性回归开始,本文主要介绍无偏差的标准线性回归和有偏局部加权线性回归的理论基础以及相应的Python实现。


    标准线性回归


    标准线性回归的理论知识很简单,我们既可以写出它的标量表达式也可以写成矩阵的形式,其中矩阵的形式也可以通过投影矩阵进行推到得到。本部分就对标准线性回归的表达式进行下简单的推导。


    给定一组数据其中包括特征矩阵X, 目标变量向量y:


    640?wx_fmt=png&wxfrom=5&wx_lazy=1


    其中X第一列为截距项,我们做线性回归是为了得到一个最优回归系数向量w使得当我们给定一个x能够通过y=xw预测y的值。其中


    0?wx_fmt=png

    最小二乘法获取回归系数


    那么怎样的w才是最优的呢?在标准线性回归中我们需要找到是误差最小的w, 即预测的y值与真实的y值之间的差值,为了避免简单累加造成的正负差值相互抵消,这里采用了平方误差:


    0?wx_fmt=png

    对于上述式子f(w)可以通过梯度下降等方法得到最优解。但是使用矩阵表示将会是的求解和程序更为简单:


    0?wx_fmt=png

    将f(w)对w求导可得:


    0?wx_fmt=png

    使其等于0,便可得到:


    0?wx_fmt=png

    通过投影矩阵获取回归系数


    除了通过最小平方差的方法推导得到w的表达式,我们还可以通过投影矩阵(Projection Matrix)来得到。


    我们知道如果我们能够求得一个w使得Xw=y肯定是最好的,但是实际情况中y一般并不在矩阵X的列空间中,也就是此方程无解,于是我们希望通过将向量y投影到X的列空间中得到投影矩阵p, 然后求解Xw=p来获取一个最接近的一个解, 矩阵X的投影矩阵形式为


    0?wx_fmt=png

    于是得到y在X列空间的投影为

    0?wx_fmt=png

    此时方程Xw=p是有解的,得到最接近Xw=y的解为:


    0?wx_fmt=png

    标准线性回归的Python实现


    通过矩阵形式我么可以很方便的通过Numpy的接口进行矩阵运算获取线性回归系数向量ŵ , 实现如下:


    def std_linreg(X, Y):

        xTx = X.T*X

        if np.linalg.det(xTx) == 0:

            print('xTx is a singular matrix')

            return

        return xTx.I*X.T*Y


    通过对现有数据进行标准线性回归并绘制回归直线得到如下图(完整代码和数据见: https://github.com/PytLab/MLBox/tree/master/linear_regression)


    w = [3.00774324, 1.69532264]


    0?wx_fmt=png

    相关系数(Correlation Coefficient)计算


    如何判断获得的模型预测能力的好坏呢?我们需要计算模型计算得到的yy的值向量与实际yy值向量的匹配程度, 也就是计算相关系数Correlation Coefficient。


    相关系数的计算公式:

    0?wx_fmt=png


    也就是两个数据序列的协方差并除上各自的标准差,本质上就是一种剔除了两个变量量纲影响、标准化后的特殊协方差。


    而协方差便是衡量两个变量变化趋势是否相似的一种方法,是同向变化(同时变大或变小)还是反向变化(一个变大一个变小), 同向或者反向的程度如何,计算公式如下:


    0?wx_fmt=png

    通过公式可以看出,如果对于向量中的每个x,y同时大于或同时小于各自的期望值,协方差为正,相反则为负。可见如果协方差越大相似程度就越高,协方差越小相似程度就越小。也可以看到如果X,Y相同,协方差就是方差,也就是方差是一种特殊情况下的协方差。


    关于协方差与相关系数的通俗解释可以参考知乎上的回答:如何通俗易懂地解释「协方差」与「相关系数」的概念?


    虽然Numpy中有计算协方差的接口numpy.corrcoef,是分别对两两向量进行比较并计算协方差,得到协方差矩阵。为了练习,我还是稍微自己计算了下协方差并只计算两列不同数据之间的相关系数:


    def get_corrcoef(X, Y):

        # X Y 的协方差

        cov = np.mean(X*Y) - np.mean(X)*np.mean(Y)

        return cov/(np.var(X)*np.var(Y))**0.5


    通过对上面得到的线性回归模型得到的预测的值与实际的值进行相关系数计算可以得到相关系数为


    Correlation coeffient: 0.9864735622335125


    局部加权线性回归(Local Weighted Linear Regression)


    上面的数据点是通过公式y=3+1.7x+0.1sin(30x)添加噪声生成的数据,而标准的线性回归是一种无偏差估计,在计算所有点的时候都是无偏差的计算误差并通过优化方法优化误差,如果针对不同的点能够对误差进行调整便可以一定程度上避免标准线性回归带来的欠拟合现象。


    也就是引入偏差来降低预测的均方误差,本部分总结下局部加权线性回归的方法。当我们获取某个xx的预测值的时候,我们需要计算回归系数w,但是如果针对样本中的数据,距离x越近我们就给个越大的权重,如果距离越远就给一个小的权重,这样就会使得针对x的预测值ypredict能够更贴合样本数据。


    当我们需要对数据点xx相应的目标值进行预测的时候,我们需要给样本中的每个点赋予一个权重值wi (为了区分权重和回归系数,在这里用θ表示回归系数,w表示权重), 那么平方误差的表达式就变成:


    0?wx_fmt=png

    通过矩阵可以表示成:


    0?wx_fmt=png

    f(θ)对θ求导等于0得到:


    0?wx_fmt=png

    通过上面的公式,对于任意给定的未知数据可以计算出对应的回归系数θθ,并得到相应的预测值y, 其中W是一个对角矩阵,对角线上的元素wii对应样本点xi的权重值。


    使用高斯核来赋值权重


    那么权重的表达式又是怎样的呢,我们需要距离给定x的样本点的权重越高,LWRL使用核来对附近的点赋予更高的权重,最常用的是高斯核函数,对应表达式如下:


    0?wx_fmt=png

    通过公式可以看到如果xi距离xx的距离越小,wii就会越大,其中参数k决定了权重的大小。k越大权重的差距就越小,k越小权重的差距就很大,仅有局部的点参与进回归系数的求取,其他距离较远的权重都趋近于零。如果k去进入无穷大,所有的权重都趋近于1,W也就近似等于单位矩阵,局部加权线性回归变成标准的无偏差线性回归,会造成欠拟合的现象;当k很小的时候,距离较远的样本点无法参与回归参数的求取,会造成过拟合的现象。


    LWLR的Python实现


    本部分对局部加权线性回归进行Python实现,对于给定数据求取相应回归系数:


    def lwlr(x, X, Y, k):

        ''' 局部加权线性回归,给定一个点,获取相应权重矩阵并返回回归系数

        '''

        m = X.shape[0]

        # 创建针对x的权重矩阵

        W = np.matrix(np.zeros((m, m)))

        for i in range(m):

            xi = np.array(X[i][0])

            x = np.array(x)

            W[i, i] = exp((np.linalg.norm(x - xi))/(-2*k**2))

        # 获取此点相应的回归系数

        xWx = X.T*W*X

        if np.linalg.det(xWx) == 0:

            print('xWx is a singular matrix')

            return

        w = xWx.I*X.T*W*Y

        return w


    我们对上部分使用的数据进行回归并绘制回归曲线:


    当k = 0.5, 基本上就是无偏差的标准线性回归


    Correlation coefficient: 0.9869292425124014


    0?wx_fmt=png

    当k = 0.1, 可以较好的反应数据的潜在规律


    Correlation coefficient: 0.997890402610583


    0?wx_fmt=png

    当k = 0.03, 拟合的曲线较多的考虑了噪声数据导致过拟合的现象


    Correlation coefficient: 0.9995975498285312


    0?wx_fmt=png

    总结


    本文总结了标准线性回归以及局部加权线性回归的基础知识,并对两张回归方式给与了Python的实现。可见局部加权线性回归在取得适当的k,便可以较好的发现数据的内在潜质,但是局部加权线性回归有个缺点就是类似kNN一样,每计算一个点的预测值就需要利用所有数据样本进行计算,如果数据量很大,计算量会是一个问题。


    参考


    • 《Machine Learning in Action》

    • 如何通俗易懂地解释「协方差」与「相关系数」的概念?


    看完本文有收获?请转发分享给更多人

    关注「大数据与机器学习文摘」,成为Top 1%

    640?wx_fmt=jpeg

    展开全文
  • 熟悉数值算法(最优化方法,蒙特卡洛算法等)与并行化算法(MPI,OpenMP等多线程以及多进程并行化)以及python优化方法,经常使用C++给python写扩展。 知乎专栏:化学狗码砖的日常 blog:http://pytlab.org gith
  • 针对单独的线性滤波和非线性滤波方法难以解决混合噪声滤除的问题, 基于现有的标准自适应中值算法和梯度倒数加权平滑算法, 提出一种自适应中值梯度倒数加权的图像滤波算法。该算法自适应调节窗口大小检测出椒盐噪声并...
  • 为解决该问题,该文提出局部加权的Citation-kNN 算法,综合考虑样本的分布情况,提出基于样本距离加权、基于样本离散度加权的方法,并对各种组合情况进行了实验。在标准数据集MUSK 和乳腺超声图像数据库上的实验结果...
  • 为克服存在的这两个缺陷,提出了一种样本和特征加权的SVDD算法,并用其建立了一种基于样本和特征加权SVDD算法的部位外观模型。样本的权重系数根据样本到样本中心的距离远近来确定,样本特征的权重系数根据特征对应...
  • 针对这个问题,构建相应的加权函数计算各个特征属性取不同值时对分类的贡献程度,并利用得到的结果对HNB算法中用到的条件概率计算公式加权,得到了一个改进的HNB算法,然后利用加利福尼亚大学的埃文斯标准数据集...
  • 样本方差与样本标准差 1、定义:样本中各数据与样本平均数的差的平方和的平均数叫做样本方差;样本方差的算术平方根叫做样本标准差。 注:样本方差和样本标准差都是衡量一个样本波动大小的量,样本方差或样本标准...
  • 标准数据集OTB-100上进行算法评估, 实验结果表明, 所提算法的平均距离精度为89.2%, 平均重叠率精度为80.6%, 比ECO-HC算法分别高3.6%和2.1%。中央处理器的跟踪速度达65.2 frame/s, 优于实验中对比的其他跟踪算法。...
  • 密度峰值聚类算法是一种新颖的密度聚类算法,但是原算法仅仅考虑了数据的全局结构,在对分布不均匀的数据集进行聚类时效果不理想,并且原算法仅仅依据决策图上各点的分布情况来选取聚类中心,缺乏可靠的选取标准。...
  • 取损失函数为绝对误差的数学期望值,采用实数值编码多子种群的标准遗传算法来极小化损失函数。由于遗传算法:是用点群进行寻优,而不是用一个单点进行寻优,具有隐含并行算法的特点;群体在每一代的进化过程中执行...
  • 针对局部立体匹配算法中边缘区域易造成误匹配的问题,提出一种基于边缘加权的跨尺度局部立体匹配算法。在代价计算阶段,根据边缘点的数量和结构信息提出一种边缘相似度测量方法,并对满足约束条件的点进行两种策略的...
  • 采用基于最小方差准则构造的加权矩阵对广义逆的定义做出修正,提出了基于加权广义逆矩阵的二维多项式内插算法。仿真结果证明该算法可以适应不同的移动速度,特别是在中低移动速度下,该算法在高信噪比时的误码性能相...
  • 这篇文章的顺序是:1、线性回归算法原理 2、最小二乘法和算法评估标准 3、案例1-简单数据集标准线性回归 4、案例2-简单数据集局部加权线性回归 5、案例3-鲍鱼年龄预测。 案例2-简单数据集局部加权线性回归 接上一篇
  • 为了动态平衡全局搜索与局部搜索能力,跳出局部最优,将标准差分进化算法的变异策略DE/rand/1和DE/best/1进行加权组合,提出两种新的随机扰动加权变异算子。提出一种动态自适应调整缩放因子和交叉概率因子的策略,...
  • 针对虚拟视点绘制标准方案中存在的问题,提出了一种基于空间加权的像素插值算法。它是通过对多个投影像素点的深度值和水平方向绝对距离进行加权操作来实现像素插值的。在插值过程中,该算法考虑了不同区域投影像素点...
  • 迭代重加权最小二乘(IRLS)算法

    千次阅读 2020-07-29 16:06:22
    迭代重加权最小二乘算法 1. 概述 对于数据点集合中,如果存在少量离群点,使用标准的最小二乘法进行拟合,往往可以得到满意的结果。但当离群点的比重增加时,例如当需拟合的圆部分被遮挡,使用标准的最小二乘法进行...
  • 然后在此基础上以最大化数据集的对数条件似然估计为标准对条件属性设定(近似)最优权值,进而提出一种新型加权粗糙朴素贝叶斯模型。通过在垃圾邮件过滤领域对该模型进行实际验证表明,贝叶斯模型的分类效率有明显...
  • 提出了以加权视觉色差为评价标准的三维色域匹配算法加权视觉色差公式由 CIE1994色差公式引申而出,根据权重系数在色差边界的can矩阵内确定了动态的空间搜索范围,将重心坐标方程应用于搜索值并得到最终匹配结果。...
  • 然后在此基础上以最大化数据集的对数条件似然估计为标准对条件属性设定(近似)最优权值,进而提出一种新型加权粗糙朴素贝叶斯模型。通过在垃圾邮件过滤领域对该模型进行实际验证表明,贝叶斯模型的分类效率有明显...
  • 减少野点数据对形成支持向量机边界存在的影响,根据各个样本在整个训练样本集中的重要性不同,将各个训练样本的重要性程度值作为权值赋予边界值上,提出了一种基于加权边界调节的支持向量机算法。通过对标准UCI数据...
  • 针对最小二乘支持向量机失去标准支持向量机稀疏特性的问题,提出了一种基于密度加权的稀疏化算法.首先计算样本的密度信息,对样本估计误差进行密度加权获得该样本对模型的可能贡献度;然后选取具有最大可能贡献度的...
  • 一种基于加权随机抽样的QR码美化算法,李强,林亚平,标准的QR码是由均匀分布的黑色与白色模块组成,外观类似噪声信号,缺乏视觉美感。针对该问题,提出一种把彩色图像嵌入到QR码中的��
  • 为了提高人脸识别在复杂条件下的识别率,提出一种基于自适应加权梯度方向直方图特征(AW-HOG)的...在Yale B 以及AR标准人脸库上的实验结果表明,提出的人脸识别方法在识别率上优于传统算法且对光照具有较强的鲁棒性。

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 413
精华内容 165
关键字:

标准加权算法