精华内容
下载资源
问答
  • 多元回归分析(Multiple Regression Analysis)是指在相关变量中将一个变量视为因变量,其他一个或多个变量视为自变量,建立多个变量之间线性或非线性数学模型数量关系式并利用样本数据进行分析的统计分析方法。...

    v2-cac2b6f89673b2175249dad947e917c9_1440w.jpg?source=172ae18b

    子乔我, Come Back Back!!

    继我的毕业论文SPSS系列,今天出一篇关于多元回归的.

    v2-0531ba28bba98ffdf952bd80f792d162_b.jpg

    前提须知:

    1. 什么是回归分析?
    多元回归分析(Multiple Regression Analysis)是指在相关变量中将一个变量视为因变量,其他一个或多个变量视为自变量,建立多个变量之间线性或非线性数学模型数量关系式并利用样本数据进行分析的统计分析方法。

    =>就是通过这么些变量的观测值来建立多个变量之间的因果关系.

    2. 哪种数据需要选择做线性回归?

    选择哪一种回归取决于因变量的数值类型,是连续数值型的就要选择线性回归.

    3. 分清什么是自变量与因变量

    自变量(原因),因变量(结果)

    栗子 :

    本次讲解是建立吃饭的美味程度睡觉舒适度、看剧的满意度Happy感的因果逻辑关系,即三个自变量和一个因变量。

    大家收集到的数据应该是这样婶儿的⬇️,很多题:因为一个自变量里分配了很多题,比如吃饭的美味程度取决于对面坐没坐男神,饭里芝士的多少......

    v2-5912140f5669e6a8287878a9f93cfa19_b.jpg

    So,大家自己转换成介样的综合得分,如果你的量表原来有算分标准就按规则走,没有的话可以sum一下.

    v2-d46bd39377f343602281c8d3e059dee5_b.jpg

    进入正题,开始回归分析:

    1.分析-回归-线性

    v2-549feb28b03a71d06ce10ea88d4d0d38_b.jpg

    2. 分配自变量与因变量

    v2-ef535faf5415269ee2a0e88e3018458e_b.jpg

    3. 旁边选项点一点,嘿

    v2-6d955bd874f972d83e498bf132fa8db2_b.jpg

    v2-29f300f750e57554377341baafcefc99_b.jpg

    这里是为了绘制散点图+正太概率图(这里“Z”表示标准化,所以“ZRESID”是标准化残差,一般放Y轴;“ZPRED”是标准化预测值,一般放X轴)

    结果:(放论文里)

    结果只需要分析两张表:模型摘要和系数表

    v2-e34db6789f44937b124a793474dfe6b8_b.jpg

    这里重点分析R方

    R²是指拟合优度,是回归直线对观测值的拟合程度。R²最大值为1。R²的值越接近1,说明回归直线对观测值的拟合程度越好;反之,R²的值越小,说明回归直线对观测值的拟合程度越差。
    我之前关注的陈老师,她说在统计学里要求高于30%以上可以接受。大家可以找找再文献看一下上面咋写的,可以私我一下~

    我这个表格里R方=0.521,说明我的自变量吃饭、睡觉、看剧可以解释我happy程度的52.1%(剩下的%,可能还有其他因素我没有纳入进来,比如K歌和学习等等)

    2. 第二个分析的点是,这三个自变量到底能不能影响Happy度?

    v2-fc8184b89c32bf54e24f21990387c4ab_b.jpg

    看一下显著性,

    例如:吃饭0.003<0.05, 因此吃饭是能显著影响happy的;那是怎么样的影响呢?是+1.28

    因此,得出回归方程:y(Happy)=(0.378)·看剧+(-0.015)·睡觉+(1.28)·吃饭+2.041

    回归的检验:(可放可不放)

    剩下的表是回归方程的诊断问题

    1. 变量之间是否相互独立的? == 其实就是写问卷的人都是独立的+自己作答的 看德宾沃森(D-W)值 ,在模型摘要表里
    一般来说越接近2越好,在2左右说明是独立的,模型设计的越好

    2. 多重共线性,自变量存在很相似的情况。例如肥胖与体脂同时引入回归方程的话,就会产生极强的多重共线性,而导致结果作废。这就需要看方差膨胀系数VIF:

    公式:

    v2-b4feeda2afc6c634578f8be1de2e499d_b.png
    VIF的取值大于1。VIF值越接近于1,多重共线性越轻,反之越重。

    有一种说法是VIF<5,说明变量不存在多重共线性。

    3. 残差的正态性问题

    v2-448288102ac747f6847d6751f8b27b6f_b.jpg
    我的数据不是hin完美吧

    其中有一个柱子超出去很多,说明残差略微不服从正态分布,因为可能还有一些重要的自变量没涉及的,但是问题不大.

    最后,你如果想做一下回归模型的图,可以用GraphPad,Matlab之类的画一下,看上去就hin优秀~

    v2-6baab471112fd67860ef8b21144aabcb_b.jpg

    v2-c069b9421e48f1d87ef42413f066405a_b.jpg

    咳咳咳!我的毕业论文系列,有四部曲:信效度+方差+相关+回归

    (后续可能不定期更新吧)

    链接 依次排列,感谢大家素质三连嘻嘻嘻,爱您~

    有才华的梅子青:毕业论文 快到DDL,如何用SPSS做关于量表问卷的分析(一)信效度分析zhuanlan.zhihu.com
    v2-7410f78fd6002f521763847bd46e5c62_180x120.jpg
    有才华的梅子青:毕业论文 快到DDL,如何用SPSS做关于量表问卷的分析(二)方差分析zhuanlan.zhihu.com
    v2-eb2b4853dab2e17db605f8a141e8a022_180x120.jpg
    有才华的梅子青:毕业论文 快到DDL,如何用SPSS做关于量表问卷的分析(三)相关分析zhuanlan.zhihu.com
    v2-eb2b4853dab2e17db605f8a141e8a022_180x120.jpg
    展开全文
  • 论文研究-非线性回归的弹性分析在股票投资与行情预测中应用.pdf, 根据我国沪深股市中个股在每一阶段内每日成交量与每日收盘价统计数据 ,应用最小二乘法分段拟合了...
  • 回归分析评价方法

    万次阅读 2014-08-27 17:07:09
    回归(Regression)不同于分类问题,在回归方法中我们预测一系列连续值,在预测完后有个问题是如何评价预测结果好坏,关于这个问题目前学术界也没有统一标准。下面是我在论文看到一些常用方法,希望对...

           回归(Regression)不同于分类问题,在回归方法中我们预测一系列连续的值,在预测完后有个问题是如何评价预测的结果好坏,关于这个问题目前学术界也没有统一的标准。下面是我在论文中的看到的一些常用方法,希望对有缘人有用。

    1 MAE(Mean Absolute Error)平均绝对差值

    In statistics, the mean absolute error (MAE) is a quantity used to measure how close forecasts or predictions are to the eventual outcomes. The mean absolute error is given by

    \mathrm{MAE} = \frac{1}{n}\sum_{i=1}^n \left| f_i-y_i\right| =\frac{1}{n}\sum_{i=1}^n \left| e_i \right|.

    As the name suggests, the mean absolute error is an average of the absolute errors e_i = |f_i - y_i|, where f_i is the prediction and y_i the true value. Note that alternative formulations may include relative frequencies as weight factors.

    注意:MAE与 MAD(Mean Absolute Difference)等价。此外,MAE很容易跟absolute deviation(绝对偏差)混淆,它们的定义很类似,但使用的场景完全不同;绝对偏差针对的就是一组数据,而MAD针对的两组数据(预测值一组,真实值一组)。

    2 MSE(Mean Square Error)均方误差

    If \hat{Y} is a vector of n predictions, and Y is the vector of the true values, then the (estimated) MSE of the predictor is: \operatorname{MSE}=\frac{1}{n}\sum_{i=1}^n(\hat{Y_i} - Y_i)^2.

    3 RMSE(Root Mean Square error)均方根误差

    RMSE跟RMSD(Root-mean-square deviation)均方根偏差的定义等价,RMSE实际上就是MSE的平方根。

    The RMSD of an estimator \hat{\theta} with respect to an estimated parameter \theta is defined as the square root of the mean square error:

    \operatorname{RMSD}(\hat{\theta}) = \sqrt{\operatorname{MSE}(\hat{\theta})} = \sqrt{\operatorname{E}((\hat{\theta}-\theta)^2)}.

    For an unbiased estimator, the RMSD is the square root of the variance, known as the standard error.

    The RMSD of predicted values \hat y_t for times t of a regression's dependent variable y is computed for n different predictions as the square root of the mean of the squares of the deviations:

    \operatorname{RMSD}=\sqrt{\frac{\sum_{t=1}^n (\hat y_t - y_t)^2}{n}}.

    In some disciplines, the RMSD is used to compare differences between two things that may vary, neither of which is accepted as the "standard". For example, when measuring the average difference between two time series x_{1,t} and x_{2,t}, the formula becomes

    \operatorname{RMSD}= \sqrt{\frac{\sum_{t=1}^n (x_{1,t} - x_{2,t})^2}{n}}. 


    4 Normalized root-mean-square deviation归一化均方差跟偏差

    The normalized root-mean-square deviation or error (NRMSD or NRMSE) is the RMSD divided by the range of observed values of a variable being predicted,or:

    \mathrm{NRMSD} = \frac{\mathrm{RMSD}}{y_\max -y_\min}

    The value is often expressed as a percentage, where lower values indicate less residual variance.

     coefficient of variation of the RMSD

    The coefficient of variation of the RMSD, CV(RMSD), or more commonly CV(RMSE), is defined as the RMSD normalized to the mean of the observed values:

    \mathrm{CV(RMSD)} = \frac {\mathrm{RMSD}}{\bar y}.

    It is the same concept as the coefficient of variation except that RMSD replaces the standard deviation.

    -------------------------------------------------------------------------------------------------------------------------------------------

    Correlation Coefficient(相关系数)

            相关表和相关图可反映两个变量之间的相互关系及其相关方向,但无法确切地表明两个变量之间相关的程度。于是,著名统计学家卡尔·皮尔逊设计了统计指标——相关系数(Correlation coefficient)。相关系数是用以反映变量之间相关关系密切程度的统计指标。相关系数是按积差方法计算,同样以两变量与各自平均值的离差为基础,通过两个离差相乘来反映两变量之间相关程度;着重研究线性的单相关系数。

           依据相关现象之间的不同特征,其统计指标的名称有所不同。如将反映两变量间线性相关关系的统计指标称为相关系数(相关系数的平方称为判定系数);将反映两变量间曲线相关关系的统计指标称为非线性相关系数、非线性判定系数;将反映多元线性相关关系的统计指标称为复相关系数、复判定系数等。

           相关关系是一种非确定性的关系,相关系数是研究变量之间线性相关程度的量。由于研究对象的不同,相关系数有如下几种定义方式:

    简单相关系数:又叫相关系数或线性相关系数,一般用字母P 表示,用来度量两个变量间的线性关系。
    复相关系数:又叫多重相关系数。复相关是指因变量与多个自变量之间的相关关系。例如,某种商品的季节性需求量与其价格水平、职工收入水平等现象之间呈现复相关关系。
    典型相关系数:是先对原来各组变量进行主成分分析,得到新的线性关系的综合指标,再通过综合指标之间的线性相关系数来研究原各组变量间相关关系。
    下面是两种在回归分析评价中常用的相关系数。
    -------------------------------------------------------------------------------------------------------------------------------------

    6  Pearson's Correlation Coefficient(皮尔逊相关系数)

      有的论文里叫COR(相关性)

    相关系数:考察两个事物(在数据里我们称之为变量)之间的相关程度。

    如果有两个变量:X、Y,最终计算出的相关系数的含义可以有如下理解:

    (1)、当相关系数为0时,X和Y两变量无关系。

    (2)、当X的值增大(减小),Y值增大(减小),两个变量为正相关,相关系数在0.00与1.00之间。

    (3)、当X的值增大(减小),Y值减小(增大),两个变量为负相关,相关系数在-1.00与0.00之间。

    相关系数的绝对值越大,相关性越强,相关系数越接近于1或-1,相关度越强,相关系数越接近于0,相关度越弱。

    通常情况下通过以下取值范围判断变量的相关强度:
    相关系数     0.8-1.0     极强相关
                     0.6-0.8     强相关
                     0.4-0.6     中等程度相关
                     0.2-0.4     弱相关
                     0.0-0.2     极弱相关或无相关

    皮尔逊相关也称为积差相关(或积矩相关)是英国统计学家皮尔逊于20世纪提出的一种计算直线相关的方法。

    假设有两个变量X、Y,那么两变量间的皮尔逊相关系数可通过以下公式计算:

    公式一:

    皮尔逊相关系数计算公式

    公式二:

    皮尔逊相关系数计算公式

    公式三:

    皮尔逊相关系数计算公式

    公式四:

    皮尔逊相关系数计算公式

    以上列出的四个公式等价,其中E是数学期望,cov表示协方差,N表示变量取值的个数。

    注意当两个变量的标准差都不为零时,相关系数才有定义,皮尔逊相关系数适用于:

    (1)、两个变量之间是线性关系,都是连续数据。

    (2)、两个变量的总体是正态分布,或接近正态的单峰分布。

    (3)、两个变量的观测值是成对的,每对观测值之间相互独立。

    7 concordance correlation coefficient(一致性相关系数)

    In statistics, the concordance correlation coefficient measures the agreement between two variables, e.g., to evaluate reproducibility or for inter-rater reliability.

    Definition:

    Lawrence Lin has the form of the concordance correlation coefficient \rho_c as

    \rho_c = \frac{2\rho\sigma_x\sigma_y}{\sigma_x^2 + \sigma_y^2 + (\mu_x - \mu_y)^2},

    where \mu_x and \mu_y are the means for the two variables and \sigma^2_x and \sigma^2_y are the corresponding variances\rho is the correlation coefficient between the two variables.

    This follows from its definition[1] as

    \rho_c = 1 - \frac{{\rm Expected\ orthogonal\ squared\ distance\ from\ the\ diagonal\ }x=y}{{\rm Expected\ orthogonal\ squared\ distance\ from\ the\ diagonal\ }x=y{\rm \ assuming\ independence}}.

    When the concordance correlation coefficient is computed on a N-length data set (i.e., two vectors of length N) the form is

    \hat{\rho}_c = \frac{2 s_{xy}}{s_x^2 + s_y^2 + (\bar{x} - \bar{y})^2},

    where the mean is computed as

    \bar{x} = \frac{1}{N} \sum_{n=1}^N x_n

    and the variance

    s_x^2 = \frac{1}{N} \sum_{n=1}^N (x_n - \bar{x})^2

    and the covariance

    s_{xy} = \frac{1}{N} \sum_{n=1}^N (x_n - \bar{x})(y_n - \bar{y}) .

    Whereas the ordinary correlation coefficient (Pearson's) is immune to whether the biased or unbiased versions for estimation of the variance is used, the concordance correlation coefficient is not. In the original article Lin suggested the 1/N normalization, while in another article Nickerson appears to have used the 1/(N-1), i.e., the concordance correlation coefficient may be computed slightly differently between implementations.

    Relation to other measures of correlation

    The concordance correlation coefficient is nearly identical to some of the measures called intra-class correlations, and comparisons of the concordance correlation coefficient with an "ordinary" intraclass correlation on different data sets found only small differences between the two correlations, in one case on the third decimal. It has also been stated that the ideas for concordance correlation coefficient "are quite similar to results already published by Krippendorff in 1970".

    In the original article[1] Lin suggested a form for multiple classes (not just 2). Over ten years later a correction to this form was issued.

    One example of the use of the concordance correlation coefficient is in a comparison of analysis method for functional magnetic resonance imaging brain scans.

      

    Reference:

    http://en.wikipedia.org/wiki/Concordance_correlation_coefficient

    http://en.wikipedia.org/wiki/Correlation_coefficient

    http://en.wikipedia.org/wiki/Root_mean_square_error

    http://blog.csdn.net/wsywl/article/details/5727327


    转载请注明转载自:http://blog.csdn.net/computerme/article/details/38871467










    展开全文
  • 本科生课余论文 讲诉关于回归分析模型预测不良贷款
  • 用形式化方法开发软件是提高软件可靠性和开发效率革命性途径。Designware、B是两种支持软件开发全过程形式化方法。对它们规约描述方法、规约求精方式、开发步骤进行比较,最后分析这两种方法各自优缺点。
  • 本文是关于房价一个数学模型,利用回归模型分析并预测房价走势。
  • 回顾了2000年至2018年发表37篇以Logistic回归为主要统计工具研究文章,以及6篇关于Logistic回归的教科书。 提出了逻辑回归概念,例如赔率,赔率比,对数变换,对数曲线,假设,选择因变量和自变量,模型拟合,...
  • 为了分析影响,该研究使用了诸如股票指数,货币政策和货币汇率之类变量,并且我们采用了统计技术,例如增强迪基·富勒,相关性,协整和回归。 该研究最后得出结论,原油价格对汇率,通货膨胀和利率具有重大影响...
  • 各位SPSS学堂粉丝大家好,上次我们简要给大家梳理了一篇有关非线性关系文章,现在我们就关于此模型数据如何用SPSS操作和结果分析进行详细介绍,前面描述性统计与相关分析等我们之前文章中都有提到,这里我们...

    各位SPSS学堂粉丝大家好,上次我们简要给大家梳理了一篇有关非线性关系的文章,现在我们就关于此模型的数据如何用SPSS操作和结果分析进行详细介绍,前面的描述性统计与相关分析等我们之前的文章中都有提到,这里我们就不再示范,我们直接给大家示范假设检验部分的数据分析。

    我们主要是想验证授权型领导行为与任务绩效存在倒U型关系,而自我决定感中介了这一曲线关系,具体内容请大家自行对照论文——《授权型领导行为对员工任务绩效的非线性影响机制 》。

    主要采用层次回归的方法进行数据分析,操作起来并不难。首先,对授权型领导行为、自我决定感进行中心化处理(即变量减去它的均值),分别构建二次项。其次,引入控制变量,构建基准模型,分别为Model1 与Model3,操作如下:分析—线性回归—引入控制变量

    v2-93e1e4ab9780a45dfe13db844d3b14b2_b.jpg

    再次,以任务绩效为结果变量,依次引入授权型领导行为、授权型领导行为平方分别构建Model4与Model5,在这里我们主要是验证授权型领导行为对任务绩效产生倒U型影响,主要是通过Model5来判断,如果授权型领导行为平方对任务绩效产生显著负向影响,且相比Model4产生显著的额外解释力,且R方更改显著则我们的假设得到验证。

    v2-f873ea5ebcd351262a5b8512c2b7535d_b.jpg

    得到结果如下,数据是随意选取的,在这里只是想告诉大家结果报告时应该关注哪些结果,具体如下。

    v2-bf7b20f282801eba937a85124b728ead_b.jpg

    v2-a111195f2f4d042d1cf42327224a623d_b.jpg

    再次以任务绩效为结果变量,依次引入自我决定感、自我决定感的平方构建Model6与Model 7,在这里我们是为了验证自我决定感是否对任务绩效产生倒 U 型影响,假若员工的自我决定感平方对任务绩效产生显著负向影响,且R方更改显著则我们的假设得到验证。

    v2-0b82f07c773e90d5e8f0e6df9f75326a_b.jpg

    Model8是在Model5基础上,引入中介变量自我决定感、自我决定感平方构建而来的,若自我决定感、自我决定感平方,对任务绩效分别产生显著负向影响,则能初步验证了自我决定感的中介作用。进一步的检验就是验证该模型是一种特殊的有调节中介模型,具体可参照Lin, Law和Zhou(2017)文中的做法。

    v2-e73e86c3ea6e7b02397a5d2314bfbd6a_b.jpg

    对于这种曲线图的做法,我们初步了解到可以采用R语言或者Origin软件进行拟合。感兴趣的小伙伴可以进一步了解。

    参考文献:

    尹奎, 邢璐, 汪佳. (2018).授权型领导行为对员工任务绩效的非线性影响 机制.心理科学, 41(3), 170-176

    Lin, B. L., Law, K. S., & Zhou, J. (2017). Why is underemployment related to creativity and OCB? A task-crafting explanation of the curvilinear moderated relations.Academy of Management Journal,60(1),156-177.

    展开全文
  • 论文研究-基于梯形模糊数模糊最小一乘回归模型.pdf, 本文给出一种梯形模糊数距离, 并基于这种距离, 建立了关于梯形模糊数模糊最小一乘回归模型. 针对输入、输出和...
  • 我自己执行的论文,《使用机器学习分析比特币的特性如何影响比特币的价格》(英文) 使用BlockChain API并在多项式回归上实现。 动机 量化项目 算法 使用Blockcahin Wallet API从数据集中提取比特币的特征。 实施了...
  • 然而,尤其是在中国,关于酒后驾驶(DUI)和醉酒驾驶(DWI)之间醉酒驾驶严重性统计分析较少。 从2012年和2013年中国某城市血液酒精检测报告中收集了3368次与酒后驾车相关撞车事故。对数据进行预处理之后,...
  • 由于数据记录,维护,处理和存储方式,大数据分析面临挑战。 我们证明了分层,多元统计机器学习算法,即增强回归树(BRT)可以解决大数据挑战以推动决策。 这项研究面临挑战是缺乏互操作性,因为数据,GIS...
  • 目的:本研究目的是通过对相关文献... 最常用研究方法是回归分析和时间序列分析。 结论:所有研究结果均证实,较低温度与较高卒中死亡率和卒中发生率相关,而较高纬度与较高卒中死亡率有关,与温度区一致。
  • 回归分析:利用数理统计方法揭示两种或多种维度之间相互依赖关系(相关性)。若无,可视化效果是一群离散点;若有,样本具有某种趋势。聚类分析将数据中样本按一定关系划分,同组之间相似性大。 平行坐标:可...

    《高维数据可视分析中维度及数据布局方法研究》

    回归分析:利用数理统计的方法揭示两种或多种维度之间的相互依赖关系(相关性)。若无,可视化效果是一群离散点;若有,样本具有某种趋势。聚类分析将数据中的样本按一定关系划分,同组之间相似性大。

    平行坐标:可精准的显示样本在各个维度上的分布情况。雷达图:平行坐标的变形,用于财务、气象、多指标分析等多维数据的可视化。RadViz:雷达图的改进形式,将高维数据的维度以点的形式均匀的投影到二维平面的单位圆周上,样本数据以点的形式投影到同一个圆,可观察样本的分布情况。

    改进:

    一个基于MDS算法和一个基于TSP算法改进RadViz图中维度投影到平面上的布局方法。

    1.以Pearson相关系数建立维度相关性矩阵—>通过变换函数将维度相关性矩阵变换为平面上维度点之间的欧氏距离矩阵—>采用TSP算法将维度投影到固定长度的线段上成为维度点—>将线段映射到平面的单位圆周上,得到数据维度向平面点的投影—>CM算法调整维度点在圆周上的位置—>实现RadViz方法中对维度相关性的展示。

    2.将维度投影到一维线段上并映射到单位圆周上,实现数据维度平面点的投影—>采用CM算法调整维度点在圆周上的位置,使应力误差最小—>确定维度点在平面上的位置—>采用广义重心坐标GBC,将样本点投影到圆中实现RadViz的可视化。

    MDS算法中距离矩阵的PTI指标、点的初始位置生成方法和点位置的调整策略三方面。提出改进MDS算法,降低全局应力误差值的方法:

    1.定义距离PTI指标,随机生成PTI值不同的距离矩阵,并根据MDS算法进行一维和二维的降维计算,获得相应的全局应力误差,得出反相关关系,得出在服从距离矩阵中的数值大小单调性约束的条件下,对距离矩阵中的数值进行幂函数运算,提高PTI指标,降低MDS算法降维过程中的全局应力误差。

    2.针对Random方法实现点的初始位置生成的方式,导致MDS算法的最终结果不可复制的问题,提出基于TSP算法实现点的初始位置生成和一种DRGT算法实现点的初始位置生成来代替Random方法,实现可复制性。

    3.针对位移策略中力导向算法不收敛的问题,设计了SEFM算法代替导向算法,通过对力导向算法和SEFM算法进行加权的方式,降低全局应力误差,最后将不同的点的初始位置生成方法和不同的位移策略两两组合实现MDS降维,全局应力误差的变化情况进行对比,获得更好的MDS 算法。
    在这里插入图片描述

    基于非线性降维方法的高维数据可视化平台研究与实现

    基于非线性降维方法的高维数据可视化平台,后端框架采用Django,前端框架使用bootstrap,并基于D3.js、Highcharts 实现平行坐标和散点矩阵进行数据可视化,降维方法实现了PCA、t-SNE和LargeVis 降维算法。数据存储使用JSON对象数组存储上传的数据样本。在此基础上,借助于交互式的可视化体验和参数调节功能并加入描述统计分析帮助用户分析不同维度数据的特征和维度之间的关联性,简化用户操作流程。
    在这里插入图片描述

    基于维度扩展和重排的类圆映射可视化聚类方法

    方法:利用近邻传播聚类算法和多目标聚类可视化评价指标对高维数据进行维度扩展,然后对扩展后的高维数据进行维度相关性重排,最后利用类圆映射机制降维至二维可视化空间,实现高维数据有效可视化聚类。

    维度扩展和重排策略能有效提高类圆映射可视化方法聚类效果,其中的维度扩展策略也能显著提高其它径向布局可视化方法聚类效果,泛化性能较好。

    在这里插入图片描述

    径向布局可视化方法主要利用分布在圆弧上的维度锚点( Dimensional Anchors,DAs) 表征数据集维度,将数据集映射为二维空间的一个个点,从而在低维空间表达任意高维数据。此外,径向布局可视化方法将具有相似特征的数据投影至相近的映射空间。相比传统的聚类方法,径向布局可视化方法不仅能直观显示高维数据的聚类结果,更有助于探索不易理解的聚类过程。

    在这里插入图片描述

    展开全文
  • 进行了多元逻辑回归分析,分配了对自变量和性知识性意识,对有性经验同伴和对自变量自尊评分[模型1],包括对自变量社会资本[模型2]。 该研究得到了子机构伦理审查委员会批准。 结果与讨论:在受试者中,...
  • 该研究目的是:a)揭示性别和年龄... 回归分析显示,感知到上司论据可以显着预测民主领导风格,员工工作条件,工作内容和直接上司变量。 员工与上级之间不同关系类型是“统一主义者”和“个人主义者”。
  • 使用格兰杰因果分析,增强迪基·富勒(ADF)单位根检验,矢量自回归(VAR)和矢量误差校正模型(VECM)分析了能耗,人口与经常账户赤字之间关系。 作为“格兰杰因果性分析结果,确定了能量消耗与贸易赤字之间...
  • 通过二元逻辑回归分析确定了侧支血管形成影响因素。 结果:左侧上腔静脉与侧支血管数目大于右侧血管,分别为22对8(X2 = 10.303,P = 0.001)。 左全身腔中远端部分易于产生侧支通道。 关于左全身静脉侧支...
  • 使用二元逻辑回归分析检查了胆石症预测因素。 结果:镰状细胞性贫血患儿平均年龄为9.0±4.5岁。 稳定状态下镰状细胞性贫血患儿胆石症患病率为4.8%。 15-17岁儿童患胆石症几率高12倍[AOR = 12.268(95%C...
  •  近来看论文中经常看到GDA和朴素贝叶斯,并且论文中说算法中用到贝叶斯公式,对怎么用原理以前没有仔细研究,今天仔细看了斯坦福机器学习的关于GDA,NB和LR讲义部分。理解了贝叶斯公式在GDA和NB中原理...
  • Matlab关于人工神经网络在预测中的应用的论文一-基于BP神经网络的电动小巴需求预测.pdf 一、基于Matlab的BP神经网络煤炭需求预测模型 摘要:煤炭是中国的基础能源,支撑着国民经济的商邃发展。在未来的一段时期...
  • 这项研究目的是用四种不同方式(黑不加糖,黑加糖,白不加糖和白加糖)评估提供给经过培训评估者咖啡描述性感官属性,并获得关于这四种未经评估者享乐主义偏好信息。不同演示样式。 通过感官接受度...
  • Matlab关于人工神经网络在预测中的应用的论文一-基于Matlab的BP神经网络煤炭需求预测模型.pdf 一、基于Matlab的BP神经网络煤炭需求预测模型 摘要:煤炭是中国的基础能源,支撑着国民经济的商邃发展。在未来的一...
  • Matlab关于人工神经网络在预测中的应用的论文一-基于BP神经网络的丝状真菌生长预测研究.pdf 一、基于Matlab的BP神经网络煤炭需求预测模型 摘要:煤炭是中国的基础能源,支撑着国民经济的商邃发展。在未来的一段...
  • 关于Cox PH模型适用性,需要解决主要问题是是否满足比例风险假设。 不证明主题假设合理性将导致误导性结果。 此外,确定连续协变量正确函数形式是Cox比例风险模型开发中重要方面。 这项研究目的是为...
  • Matlab关于人工神经网络在预测中的应用的论文二-人工神经网络模型在研究生招生数量预测中的应用.pdf 四、灰色人工神经网络人口总量预测模型及应用 摘要:针对单一指标进行人口总量预测精度不高的问题,基于灰色...
  • Matlab关于人工神经网络在预测中的应用的论文二-基于RBF人工神经网络模型预测棉花耗水量.pdf 四、灰色人工神经网络人口总量预测模型及应用 摘要:针对单一指标进行人口总量预测精度不高的问题,基于灰色系统...
  • 但是,在面板数据结构中,感兴趣变量通常在横截面和序列上相关,因此,当在回归分析中使用面板数据时,OLS标准误差会产生偏差。 作为分析面板数据解决方案,已记录了多种技术,例如牢固虚拟变量,单向聚类-...

空空如也

空空如也

1 2 3 4 5
收藏数 84
精华内容 33
关键字:

关于回归分析的论文