精华内容
下载资源
问答
  • 2018-06-12 10:24:42

    一种异常检测算法很难满足所有的业务类型曲线。若想提高智能告警的准确度,有必要对不同 曲线进行分类,以便于针对不同曲线,应用不同的异常检测算法。那么一条曲线,到底包含了哪些信息,可以帮助我们进行特征提取呢?

    数据描述

    数据每分钟一个点,一天1440个数据点,每天为一个周期,共7天数据。
    测试数据为monitor数据,视图4180,属性231960.
    原始数据

    数据去噪

    常用的去噪方法有:3-σ去噪、移动中位数去噪。

    3-σ去噪

    数据点与均值相差超过3个标准差,则认为为噪点
    噪点数据

    移动中位数去噪

    用中位数代替均值,用中位数偏差代替标准差,避免极端异常值的影响。通过移动分段中位数,增强局部异常点的探测。

    import numpy as np
    import pandas as pd
    def median_noise_filter(df_data, threshold=15,rolling_median_window=50):
        exceptions = pd.Series()
        df_data['median'] = df_data['value'].rolling(window=rolling_median_window, center=True).median().fillna(method='bfill').fillna(
            method='ffill')
        difference = np.abs(df_data['value'] - df_data['median'])
        median_difference = np.median(difference)
        if median_difference != 0:
            s = difference / float(median_difference)
            exceptions = s[s > threshold]
        return exceptions

    移动中位数去噪

    移动中位数去噪需要选择合适的滑动窗口和偏差阈值参数。3-σ简单直接,但会受到极端值的影响

    噪点填充

    噪点填充为前一个和后一个正常点的均值

    数据标准化(归一化)

    将数据按比例缩放,去除数据的单位限制,将其转化为无量纲的纯数值,专注于曲线的形状识别,而不关心曲线上点数值的大小。

    max-min标准化

    对原始数据的一种线性变换,使原始数据映射到[0-1]之间,指将原始数据的最大值映射成1,是最大值归一化

    x=xminmaxmin x ∗ = x − m i n m a x − m i n

    max-min归一化

    z-score标准化

    根据原始数据的均值和标准差进行标准化,经过处理后的数据符合标准正态分布,即均值为0,标准差为1.本质上是指将原始数据的标准差映射成1,是标准差归一化。曲线数值表示该点与均值相差的标准差的数据量:

    x=xμσ x ∗ = x − μ σ

    曲线值反映了数据点与均值相差的标准差个数。
    z-score归一化

    统计特征

    中心位置

    借由中心位置,可以知道数据的一个平均情况。数据的中心位置可分为均值(Mean),中位数(Median),众数(Mode)

    • 均值:表示统计数据的一般水平。受到极端值影响
    • 中位数:在 n 个数据由大到小排序后,位在中间的数字,不受极端值影响
    • 众数:一组数据中出现次数最多的数据值,不受极端值影响、非数值性数据同样适用

    发散程度

    数据的发散程度可用极差或全距(R)、方差(Var)、标准差(STD)、变异系数(CV)来衡量.

    R=xmaxxmin R = x m a x − x m i n

    Var(X)=Ni=1(xiμ)2N V a r ( X ) = ∑ i = 1 N ( x i − μ ) 2 N

    STD=Var S T D = V a r

    CV=STDMean C V = S T D M e a n

    零值率

    零值所占的比率,需要在max-min标准化前提前该特征

    波动率

    波动率定义为7天波动率的中位数。
    每天的波动率定义为该天数据标准化后的90分位值-10分位值:

    wave_rateday=quantile(xnorm,0.9)quantile(xnorm,0.1) w a v e _ r a t e d a y = q u a n t i l e ( x n o r m , 0.9 ) − q u a n t i l e ( x n o r m , 0.1 )

    或者可以直接采用 wave_rate=quantile(x,0.9)quantile(x,0.1)+1quantile(x,0.1)+1 w a v e _ r a t e = q u a n t i l e ( x , 0.9 ) − q u a n t i l e ( x , 0.1 ) + 1 q u a n t i l e ( x , 0.1 ) + 1

    偏度(Skewness)

    偏度(偏态)是不对称性的衡量。正态分布的偏度是0,表示左右完美对称。右偏度为正,左偏度为负.
    Skewness 定义为:

    S=nt=1(xtμ)3nσ3 S = ∑ t = 1 n ( x t − μ ) 3 n σ 3

    其中 μ μ 为均值, σ σ 为标准差,实际计算中,通过其样本值代替 μ μ σ3 σ 3

    峰度(kurtosis)

    峰度(Kurtosis)衡量数据分布相对于正态分布,是否更尖或平坦。高峰度数据在均值附近有明显峰值,下降很快并且有重尾(heavy tails)。低峰度在均值附近往往为平坦的顶部。
    峰度(Kurtosis)定义为:

    K=nt=1(xtμ)4nσ43 K = ∑ t = 1 n ( x t − μ ) 4 n σ 4 − 3

    其中 μ μ 为均值, σ σ 为标准差,实际计算中,通过其样本值代替 μ μ σ4 σ 4 .
    该计算值也称为超值峰度(excess kurtosis),正态分布的峰度为3。公式减3,是为了修正使正态分布的峰度为0。
    K>0,称为尖峰态(leptokurtic)
    K<0,称为低峰态(platykurtic)

    参考:

    [1] Tsfresh. https://tsfresh.readthedocs.io/en/latest/text/introduction.html
    [2] A Scalable Method for Time Series Clustering. https://www.researchgate.net/publication/228894373_A_scalable_method_for_time_series_clustering
    [3] 矩、峰度、偏度. http://yaoyao.codes/math/2014/09/04/moment-expectation-variance-skewness-and-kurtosis

    更多相关内容
  • 基于回声状态网络的功耗曲线特征提取
  • 经典曲线特征提取方法总结1

    万次阅读 2018-12-14 15:17:49
    但是因为不同种类的曲线太过于相似,想试试能不能提取迟来特征。 数据描述 数据每分钟一个点,一天1440个数据点,每天为一个周期,共7天数据。  测试数据为monitor数据,视图4180,属性231960.  数...

    原文参考 :https://blog.csdn.net/vegetable_bird_001/article/details/80653986 

    最近在做曲线分类识别的工作。但是因为不同种类的曲线太过于相似,想试试能不能提取迟来特征。

    数据描述

    数据每分钟一个点,一天1440个数据点,每天为一个周期,共7天数据。 
    测试数据为monitor数据,视图4180,属性231960. 

    移动中位数去噪


    数据去噪

    常用的去噪方法有:3-σ去噪、移动中位数去噪。

     

    3-σ去噪

    数据点与均值相差超过3个标准差,则认为为噪点 

     


    移动中位数去噪

    用中位数代替均值,用中位数偏差代替标准差,避免极端异常值的影响。通过移动分段中位数,增强局部异常点的探测。

     

    import numpy as np
    import pandas as pd
    def median_noise_filter(df_data, threshold=15,rolling_median_window=50):
        exceptions = pd.Series()
        df_data['median'] = df_data['value'].rolling(window=rolling_median_window, center=True).median().fillna(method='bfill').fillna(
            method='ffill')
        difference = np.abs(df_data['value'] - df_data['median'])
        median_difference = np.median(difference)
        if median_difference != 0:
            s = difference / float(median_difference)
            exceptions = s[s > threshold]
        return exceptions

    移动中位数去噪

    移动中位数去噪需要选择合适的滑动窗口和偏差阈值参数。3-σ简单直接,但会受到极端值的影响

     

    噪点填充

    噪点填充为前一个和后一个正常点的均值

     

    数据标准化(归一化)

    将数据按比例缩放,去除数据的单位限制,将其转化为无量纲的纯数值,专注于曲线的形状识别,而不关心曲线上点数值的大小。

     

    max-min标准化

    对原始数据的一种线性变换,使原始数据映射到[0-1]之间,指将原始数据的最大值映射成1,是最大值归一化 
                                                                             

    max-min归一化


    z-score标准化

    根据原始数据的均值和标准差进行标准化,经过处理后的数据符合标准正态分布,即均值为0,标准差为1.本质上是指将原始数据的标准差映射成1,是标准差归一化。曲线数值表示该点与均值相差的标准差的数据量: 
                                                                              

    曲线值反映了数据点与均值相差的标准差个数。 

    z-score归一化


    统计特征

     

    中心位置

    借由中心位置,可以知道数据的一个平均情况。数据的中心位置可分为均值(Mean),中位数(Median),众数(Mode)


    均值:表示统计数据的一般水平。受到极端值影响
    中位数:在 n 个数据由大到小排序后,位在中间的数字,不受极端值影响
    众数:一组数据中出现次数最多的数据值,不受极端值影响、非数值性数据同样适用

     


    发散程度

    数据的发散程度可用极差或全距(R)、方差(Var)、标准差(STD)、变异系数(CV)来衡量. 
                                                                  

     

    零值率

    零值所占的比率,需要在max-min标准化前提前该特征

     

    波动率

    波动率定义为7天波动率的中位数。 
    每天的波动率定义为该天数据标准化后的90分位值-10分位值:

                                  

     

    或者可以直接采用

     

    偏度(Skewness)

    偏度(偏态)是不对称性的衡量。正态分布的偏度是0,表示左右完美对称。右偏度为正,左偏度为负. 
    Skewness 定义为: 
                                                     
    其中μμ为均值,σσ为标准差,实际计算中,通过其样本值代替μ,σ3

     

    峰度(kurtosis)

    峰度(Kurtosis)衡量数据分布相对于正态分布,是否更尖或平坦。高峰度数据在均值附近有明显峰值,下降很快并且有重尾(heavy tails)。低峰度在均值附近往往为平坦的顶部。 
    峰度(Kurtosis)定义为: 
                                                                  
    其中μμ为均值,σσ为标准差,实际计算中,通过其样本值代替μ,σ4. 
    该计算值也称为超值峰度(excess kurtosis),正态分布的峰度为3。公式减3,是为了修正使正态分布的峰度为0。 
    K>0,称为尖峰态(leptokurtic) 
    K<0,称为低峰态(platykurtic)

     

    参考:

    [1] Tsfresh. https://tsfresh.readthedocs.io/en/latest/text/introduction.html 
    [2] A Scalable Method for Time Series Clustering. https://www.researchgate.net/publication/228894373_A_scalable_method_for_time_series_clustering 
    [3] 矩、峰度、偏度. http://yaoyao.codes/math/2014/09/04/moment-expectation-variance-skewness-and-kurtosis


     

    展开全文
  • 工程设计中涉及大量的设计资料,...以螺旋角系数曲线图像为例,提出扫描图像的预处理、图像校正、图像裁剪、二值化处理、网格去除、特征提取等方法,进一步利用最小二乘法对特征点进行曲线拟合,实现工程曲线的数字化。
  • 曲线分类-特征提取(二)

    千次阅读 2018-06-20 17:40:52
    时域特征 自相关系数与偏自相关系数 自相关(autocorrelation),指时序序列于其自身在不同时间点的互相关性. 离散数据的lll阶自相关系数定义为 autocorrelationl=1(n−l)σ2∑t=1n−1(Xt−μ)(Xt+l−μ)...

    时域特征

    自相关系数与偏自相关系数

    自相关(autocorrelation),指时序序列于其自身在不同时间点的互相关性.
    离散数据的 l l 阶自相关系数定义为

    autocorrelationl=1(nl)σ2t=1n1(Xtμ)(Xt+lμ)

    n n 是时间序列Xi的长度, σ2 σ 2 为方差, μ μ 为均值

    自相关(autocorrelation)

    为了更清楚查看自相关系数,这里选择滞后阶数为120。

        from statsmodels.graphics.tsaplots import plot_acf
        plot_acf(df_data['value'],lags=120)
        plt.show()

    滞后数为120自相关系数

    偏自相关(partial_autocorrelation),滞后k阶偏自相关系数是指在给定中间k-1个随机变量 xt1,xt2...xtk+1 x t − 1 , x t − 2 . . . x t − k + 1 的条件下,或者说在剔除了中间k-1个随机变量的干扰后, xtkxt x t − k 对 x t 影响的相关性度量

    αk=Cov(xt,xtk|xt1,...,xtk+1)Var(xt|xt1,...,xtk+1)Var(xtk|xt1,...,xtk+1) α k = C o v ( x t , x t − k | x t − 1 , . . . , x t − k + 1 ) V a r ( x t | x t − 1 , . . . , x t − k + 1 ) V a r ( x t − k | x t − 1 , . . . , x t − k + 1 )

    同样,选取滞后120阶偏自相关系数查看。

        from statsmodels.graphics.tsaplots import plot_pacf
        plot_pacf(df_data['value'],lags=120)
        plt.show()

    滞后120阶偏自相关系数

    自相关和偏自相关系数,可以取某一阶的值作为特征值。或者计算Box-Pierce统计值或 Ljung-Box Q*统计值。
    Box-Pierce统计:

    Q=nk=1hr2k Q = n ∑ k = 1 h r k 2

    The Ljung-Box Q* 统计:

    Q=n(n+2)k=1hr2knk Q ∗ = n ( n + 2 ) ∑ k = 1 h r k 2 n − k

    其中, rk r k 表示k阶自相关系数值,n为观测的时间序列长度,h为最大的滞后阶数。

    LB检验是基于一系列滞后阶数,判断序列总体的相关性或者说随机性是否存在。

    差分

    一阶(前向)差分

    Δf(xk)=f(xk+1)f(xk) Δ f ( x k ) = f ( x k + 1 ) − f ( x k )

    时间序列1阶差分,即为序列每个值减去前一个值得到的序列。通过差分可以得到平稳的序列。

        plt.plot(np.diff(df_data['value']))
        plt.title("%s" % name)
        plt.show()

    这里写图片描述
    特征值可取某阶差分的均值、方差、中位数等聚合函数值作为特征值。

    季节和趋势特征

    时间序列的几种特征(模式)

    • Trend(趋势性),代表了数据长期的增长或者下降的特性。
    • Seasonal(季节性),跟日期时间相关的周期性。如一年、一周等,季节性都是已知且固定的频率。
    • Cyclic(周期性),由数据上升或下降出现,不固定频率的周期,通常指与经济相关的“商业周期‘”,较长时间(至少两年)的周期性。
    • Residual(残差 或者 噪声),剩下的部分视为数据的噪声

    这里写图片描述

    一般的时间序列我们只考虑趋势性(T),季节性(S)和残差(E)。因此可以将时间序列按下式分解为上面的几种模式,分解方式有:
    加法模型:

    yt=St+Tt+Et y t = S t + T t + E t

    乘法模型:
    yt=St×Tt×Et y t = S t × T t × E t

    时间序列分解有多种方法:Classical decomposition,X11 decomposition,STL decomposition。

    Classical时间序列分解 :
    该分解方法目前依然有较多应用,但是不建议采用。主要原因:

    • 该方法是基于移动平均实现,因此趋势和残差成分,前后会有一段数据(分别为滑动窗口的1/2)缺失.
    • 该方法假设季节成分是重复的,虽然适用很多时间序列,但对于时间跨度较长的序列,该经典分解方法没办法得知季节成分随时间的变化.
    • 对异常数据不具有鲁棒性,移动平均受到极端值影响.
        from statsmodels.tsa.seasonal import seasonal_decompose
        result = seasonal_decompose(df_data['value'].values, model='additive',freq=1440)#加法模型
        result.plot()

    Classical decomposition

    X11 时间序列分解:
    X11是基于经典时间序列分解的改进,克服了Classical decomposition的缺点,分解的趋势成分在整个观测时间段内都存在,季节性成分随时间会缓慢变化,对异常值更加鲁棒,甚至增加了节假日效应和已知预测因子的影响,更多的信息可以查看文献3、4。

    STL时间序列分解:
    STL(Seasonal and Trend decomposition using Loess)是通用的鲁棒性较好的时间序列分解模型。局部加权回归散点平滑法LOESS (locally weighted scatterplot smoothing) 是针对二维变量,评估非线性关系的一种方法。
    STL分解方法更灵活,趋势的光滑性、季节成分的变化速率,都可以进行控制。该方法只支持加法模型。

        from stldecompose import decompose
        stl = decompose(df_data['value'].values, period=1440)
        stl.plot()

    STL decomposition

    时间序列的特征
    趋势特征衡量:

    trend=1Var(Ydetrend)Var(Yt) t r e n d = 1 − V a r ( Y d e t r e n d ) V a r ( Y t )

    其中, Yt Y t 表示原始数据, Ydetrend Y d e t r e n d 表示去除趋势后的数据

    季节特征衡量:

    seasonality=1Var(Ydeseasonal)Var(Yt) s e a s o n a l i t y = 1 − V a r ( Y d e s e a s o n a l ) V a r ( Y t )

    其中, Yt Y t 表示原始数据, Ydeseasonal Y d e s e a s o n a l 表示去除趋势后的数据

    赫斯特指数

    赫斯特指数(The Hurst exponent)是对时间序列长期记忆性(long-term memory)的衡量,表示数据不来自于周期的长期统计上的依赖性。
    DFA(detrended fluctuation analysis)与赫斯特指数相似,但是DFA适用于非平稳的时间序列(均值和方差随时间变化)
    计算公式和详细内容可见以下链接
    Hurst_exponentDFAHurst指数与股票市场指数的关系赫斯特指数(Hurst)指数及在 Excel 中的实现

    熵为不确定性的量度,因为越随机的信源的熵越大。
    香农熵定义为:

    H=i=1npilogpi H = − ∑ i = 1 n p i l o g p i

    其中, pi p i 表示 i i 出现的概率

    信息熵表征信源的平均不确定性。

    分桶熵(Binned Entropy)

    binned_entropy=k=0min(max_bins,len(x))pklog(pk)1(pk>0)

    其中, pk p k 为桶k中样本数量所占的比例


    近似熵(Approximate entropy)
    在统计学中,近似熵(ApEn)是一种用来量化随时间序列数据波动的规律性和不可预测性的技术.
    常规的信息熵和分桶熵没有考虑数据的时序性。
    例如下面两个时间序列:

    series 1: (10,20,10,20,10,20,10,20,10,20,10,20)
    series 2: (10,10,20,10,20,20,20,10,10,20,10,20)

    两个序列中10,20 出现的概率都是1/2,因此信息熵无法区分这两个序列。
    近似熵实际上是在衡量当维数变化时该时间序列中产生新模式的概率的大小,产生新模式的概率越大,序列就越复杂,对应的近似熵也就越大。若时间序列包含许多重复的模式,则会有较小的近似熵,若为不太可预测的数据,则近似熵更大。
    短的时序序列的近似熵依赖于算法的参数,当时序序列长度大于2000会比较稳定。

    样本熵(sample entropy)
    样本熵是一种新的时间序列复杂性测度方法,样本熵是相对于近似熵的改进,旨在降低近似熵的误差,与已知是随机部分有更加紧密的一致性,其精度更好,不依赖数据长度,对丢失数据不敏感。
    具体算法思想可以查看文献5.

    参考

    [1] Autocorrelation and Partial Autocorrelation. https://machinelearningmastery.com/gentle-introduction-autocorrelation-partial-autocorrelation/
    [2] Box-Pierce. https://analysights.wordpress.com/tag/box-pierce-test/
    [3] Forecasting: Principles and Practice. https://otexts.org/fpp2/
    [4] X11 decomposition. https://www.springer.com/gp/book/9783319318202
    [5] 时间序列复杂度和熵. http://www.dlnu.edu.cn/xintong/docs/20121128144202794986.pdf

    展开全文
  • 提取特征线 程序

    2015-05-15 11:07:45
    在MATLAB中的特征线提取程序;对图像进行中值滤波;利用canny算子,进行边缘提取
  • 曲线分类-特征提取(三)

    千次阅读 2018-06-21 13:16:46
    频域特征 傅里叶变换 傅里叶变换(Fourier transform)是一种线性积分变换,用于信号在时域(或空域)和频域之间的变换。 FFT变换是针对一组数值进行运算的,这组数的长度N是2的整数次幂时,效果和速度会更好。 ...

    频域特征

    傅里叶变换

    傅里叶变换(Fourier transform)是一种线性积分变换,用于信号在时域(或空域)和频域之间的变换。

    FFT变换是针对一组数值进行运算的,这组数的长度N是2的整数次幂时,效果和速度会更好。

    在python中可以通过numpy.fft计算离散傅里叶变换(点击查看大图)

    这里写图片描述

    可以取傅里叶变换后频域特征的均值、方差等聚合函数值作为特征值

    参考:
    傅里叶分析之掐死教程. https://zhuanlan.zhihu.com/p/19763358
    A visual introduction. https://www.youtube.com/watch?v=spUNpyF58BY
    频域信号处理. http://bigsec.net/b52/scipydoc/frequency_process.html

    小波系数

    傅里叶变换只能得到一个频谱,做小波变换却可以得到一个时频谱,进行时频分析。

    • 傅里叶变换:知道一段时间内,信号的各个频率分量有分别多少。
    • 小波变换:知道一段时间内,信号的各个频率分量有分别多少,以及他们都是什么时候出现的。

    傅里叶变换局限性

    对非平稳过程,傅里叶变换有局限性。

    这里写图片描述

    这里写图片描述

    最上边的是频率始终不变的平稳信号,而下边两个则是频率随着时间改变的非平稳信号。 它们同样包含和最上边信号相同频率的四个成分。

    做FFT后,可以发现这三个时域上有巨大差异的信号,频谱(幅值谱)却非常一致。尤其是下边两个个非平稳信号,我们从频域上无法区分它们,因为它们包含的四个频率的信号的成分确实是一样的,只是出现的先后顺序不同。

    可见,博里叶变换处理非平稳信号有天生缺陷。它只能获取一段信号总体上包含哪些频率的成分。但是对各成分出现的时刻并无所知。因此时域相差很大的两个信号,可能频谱图一样。

    小波变换原理

    傅里叶变换把无限长的三角函数作为基函数:
    这里写图片描述

    这个基函数会伸缩、平移。缩的窄,对应高频;伸得宽,对应低频。然后这个基函数不断和信号做相乘。某一个尺度(宽窄)下乘出来的结果,就可以理解成信号缩包含的当前尺度对应频率成分有多少。

    这一步其实是计算信号和三角函数的相关性。
    这里写图片描述
    这里写图片描述

    这两种尺度能乘出一个大的值(相关度高),所以信息包含较多的这两个频率成分,在频谱上着两个频率会出现两个峰。以上,就是粗浅意义上傅里叶变换的原理

    小波做的改变就在于,将无限长的三角函数基换成了有限长的会衰减的小波基。
    这里写图片描述

    这里写图片描述

    从公式可以看出,不用于傅里叶变换,变量只有频率w,小波变换有两个变量:尺度a(scale)和平移量t(translation)。尺度a控制小波函数的伸缩,平移量t控制小波函数的平移。尺度就对应于频率(反比),平移量t就对应于时间。

    这里写图片描述

    当伸缩、平移到这么一种重合情况时,也会相乘得到一个大的值。这时候和傅里叶变换不同的是,这不仅可以知道信号有这样频率的成分,而且知道它在时域上存在的具体位置。

    时域信号
    时域信号

    傅里叶变换-频域信号
    傅里叶变换-频域信号

    小波变换-时频信号
    小波变换-时频信号

    离散小波变换(Discrete Wavelet Transform)
    将数据序列进行小波分解,每一层分解的结果是上次分解得到的低频信号再分解成低频和高频两个部分。

    2阶离散小波变换

    import pywt
    a2, d2, d1 = pywt.wavedec(data, 'db4', mode='sym', level=2)

    这里写图片描述

    同理,4阶离散小波变换。

    这里写图片描述

    可取小波系数固定某阶的均值作为特征值。

    参考:
    傅立叶分析和小波分析之间的关系. https://www.zhihu.com/question/22864189
    WaveletTutorial. http://web.iitd.ac.in/~sumeet/WaveletTutorial.pdf
    小波变换教程. http://blog.jobbole.com/101976/

    展开全文
  • 今天小编就为大家分享一篇python利用小波分析进行特征提取的实例,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
  • 可以从滞回曲线里面提取相应数据生成骨架曲线
  • 本程序可对论文/产品手册等资料中的各类曲线图片实现数据的提取与复原。不仅使用于包含单色单曲线的图片,亦可提取多色多曲线图片中任意曲线上的数据。 使用时,首先对图片坐标轴四点进行定位,随后按照提示进行操作...
  • 该程序从一组训练图像(不同类别的不同文件)中获取统计特征,并生成一个用于监督学习的特征矩阵。
  • 首先研究了地物光谱曲线特征提取的方法,并列举了特征点的一些应用。然后根据实测的3个不同时期小麦的反射率曲线,在进行了均值去噪处理之后。没定振幅阀值,排除了残余噪音干扰,从而提取曲线最重要的特征点。
  • 因此在面部器官区域标记特征点,计算特征点之间的距离和特征点所在曲线的曲率,就成为了采用几何形式提取人脸表情的方法。文献[1]使用形变网格对不同表情的人脸进行网格化表示,将第一帧与该序列表情最大帧之间的...
  • 本文应用小波变换技术对电力用户每15分钟采集一次的用电负荷数据的特征进行了梳理,选择小波变换算法开展用电负荷数据的特征提取,优化数据存储方式实现数据压缩与脱敏存储,用以解决海量用电负荷指标数据的存储问题...
  •   首先,输入的图片是一张二值图片 (白色为曲线),其中包含的曲线宽度为 1 像素的 (如果曲线不是 1 像素的 先提取其骨架)。遍历寻找图像中第一个白色的点,然后从这个点开始延伸寻找曲线。注意,第一个找到的点不...
  • 使用 MATLAB 进行图像中的曲线数据的提取小程序,自动过滤无关干扰曲线。傻瓜式操作,适合入门选手。内有整套程序、详细的操作说明,以及示例图片。有任何问题,请不要吝啬你的言辞,与作者联系。配套的博客说明在:...
  • 此代码可以用于提取一张图片中的曲线的数据,并将此曲线进行二次绘制,无论是以(0,0)为坐标原点还是其他的非(0,0)作为原点均可以使用
  • 描述了一种通用的在复杂特征图像中检测主曲线的新算法.基于曲线最短路径和方向偏移判据,主曲线检测的所有运算都在图形表达中进行.在图形网络搜寻中,采用了深度优先搜索方法.其应用背景是从地理测绘图中检测道路...
  • 利用matlab从滞回曲线提取骨架曲线,结构抗震
  • 输入发动机万有特性数据和外特性数据,可以生成发动机万有特性图、等功率线和发动机最佳燃油消耗曲线,并在命令行窗口输出各功率下最佳燃油点对应的转速和扭矩。
  • 此工具可帮助您从数据表或其他来源中提取数据。 它使在曲线中选择数据点、拟合曲线并将其保存到 cfit 对象的过程半自动化。 您从曲线图像开始,将光标放在曲线上并获得拟合曲线
  • 论文地址高光谱遥感数据光谱特征提取与应用杜培军遥感基础知识积累:绝对温度大于0的物体在整个光谱轴上具有连续的光谱曲线高光谱可以有效的描述一些窄而重要的局部光谱特征,可以明显看到高光谱对于光谱频带的...
  • 读取图片数据 识别曲线相应的点 用于数据拟合
  • 一款从图片中直接提取曲线数据点保存到EXCEL中的小工具。使用MATLAB2017以上版本直接打开运行即可。详细操作见 https://blog.csdn.net/BAR_WORKSHOP/article/details/104470763
  • 为了准确提取图像中目标特征,结合靶标的尺寸和特征信息提出了一种基于全局信息的方法。利用霍夫变换(HT)确定图像中包含靶标的目标区域;在目标区域中提取靶标上不同特征区域的中心;利用提取的中心拟合靶标在图像中...
  • 基于小波变换多尺度空间能量分布特征提取方法 转载自:https://write-bug.com/article/1940.html 小波分析技术可以把信号在各频率波段中的特征提取出来,基于小波变化的多尺度空间能量分布特征提取方法是对信号进行...
  • 曲线拟合-提取公式

    2016-04-19 17:19:47
    可通过X和Y的数据拟合曲线公式,有多种公式类型
  • 为了减少曲线合成孔径雷达(synthetic aperture radar,SAR)的成像算法计算复杂度,提出一种有效的目标三维特征提取方法。该方法基于松驰思想逐个提取散射点的三维特征,并利用散射点的距离参数与垂直于距离方向上...
  • 图象特征提取.pdf

    2020-06-09 09:47:07
    特征提取是计算机视觉和图像处理中的一个概念。它指的是使用计算机提取图像信息,决定每个图像的点是否属于一个...特征提取的结果是把图像上的点分为不同的子集,这些子集往往属于孤立的点、连续的曲线或者连续的区域
  • 使用曲线拟合的两阶段特征提取进行稳健的车道检测

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 53,988
精华内容 21,595
关键字:

曲线特征提取

友情链接: IrfanView398.rar