精华内容
下载资源
问答
  • 因子分析(FA)是一种探索性数据分析方法, 用于从一组观察到的变量中搜索有...市场研究人员使用因素分析来识别价格敏感的客户, 识别影响消费者选择的品牌特征, 并帮助理解分销渠道的渠道选择标准。在本教程中, 你将涵...

    因子分析(FA)是一种探索性数据分析方法, 用于从一组观察到的变量中搜索有影响力的潜在因子或潜在变量。通过减少变量的数量, 它有助于数据解释。它从所有变量中提取最大共同方差, 并将它们放入一个共同得分。

    因子分析广泛应用于市场研究, 广告, 心理学, 金融和运营研究。市场研究人员使用因素分析来识别价格敏感的客户, 识别影响消费者选择的品牌特征, 并帮助理解分销渠道的渠道选择标准。

    在本教程中, 你将涵盖以下主题:

    因子分析

    因子分析的类型

    确定因素数

    因子分析与主成分分析

    python中的因素分析

    充足性测试

    解释结果

    因素分析的利弊

    总结

    因子分析

    因子分析是线性统计模型。它用于解释观察变量之间的方差, 并将一组观察变量浓缩为称为因子的未观察变量。观测变量建模为因子和误差项的线性组合(来源)。因子或潜在变量与具有共同响应模式的多个观察变量相关。每个因素都说明了观察变量中的特定方差量。通过减少变量的数量, 它有助于数据解释。

    6-1.png

    因子分析是一种研究感兴趣的变量X1, X2, ……, X1是否与较少数量的不可观察因子F1, F2, ……, Fk线性相关的方法。

    1-1.png

    来源:此图像是根据我在因子分析说明中找到的图像重新创建的。该图提供了因素分析的完整视图。

    假设:

    数据中没有异常值。

    样本数量应大于因子。

    不应有完美的多重共线性。

    变量之间不应存在同质性。

    因子分析的类型

    探索性因素分析:这是社会和管理研究人员中最流行的因素分析方法。它的基本假设是, 任何观察到的变量都与任何因素直接相关。

    验证性因素分析(CFA):其基本假设是每个因素都与一组特定的观察变量相关联。 CFA确认基本要求。

    因子分析如何工作?

    因子分析的主要目的是减少观察变量的数量并发现不可观察的变量。这些未观察到的变量有助于市场研究人员完成调查。观察变量到未观察变量的这种转换可以通过两个步骤来实现:

    因子提取:在此步骤中, 使用方差划分方法(例如主成分分析和公共因子分析)选择因子的数量和提取方法。

    因子轮换:在这一步骤中, 轮换尝试将因子转换为不相关的因子, 这是提高总体可解释性的主要目标。有很多可用的旋转方法, 例如:Varimax旋转方法, Quartimax旋转方法和Promax旋转方法。

    术语

    是什么因素?

    一个因素是一个潜在变量, 它描述了观察到的变量数量之间的关联。因素的最大数量等于观察到的变量的数量。每个因素都说明观测变量存在一定差异。方差量最低的因素被删除。因子也称为潜在变量或隐藏变量或未观察到的变量或假设变量。

    负载因素是什么?

    因子加载是一个矩阵, 该矩阵显示每个变量与基础因子的关系。它显示了观测变量和因子的相关系数。它显示了观察到的变量解释的方差。

    什么是特征值?

    特征值代表方差, 由总方差解释每个因素。它也被称为特征根。

    什么是社区?

    共同点是每个变量的平方加载总和。它代表共同方差。它的范围是0-1, 接近1的值表示更多的方差。

    2-1.png

    什么是因子旋转?

    轮换是一种更好地解释因子分析的工具。旋转可以是正交的或倾斜的。它以清晰的负载模式重新分配了共性。

    选择因素数

    凯撒(Kaiser)准则是一种分析方法, 该方法基于将选择因数解释的方差的较大比例。特征值是确定因子数量的良好标准。通常, 将大于1的特征值视为特征的选择标准。

    图形化方法基于因子特征值的可视表示, 也称为卵石图。此卵石图有助于我们确定曲线成为弯头的因素的数量。

    3-1.png

    资源

    因子分析与主成分分析

    PCA组件说明最大方差, 而因子分析说明数据中的协方差。

    PCA组件彼此完全正交, 而因子分析不需要因子正交。

    PCA分量是观察变量的线性组合, 而在FA中, 观察变量是未观察变量或因子的线性组合。

    PCA组件无法解释。在FA中, 潜在因素是可标记和可解释的。

    PCA是一种降维方法, 而因子分析是潜在变量方法。

    PCA是一种因素分析。 PCA是观察性的, 而FA是一种建模技术。

    4.png

    资源

    使用factor_analyzer软件包在python中进行因素分析

    导入所需的库

    # Import required libraries

    import pandas as pd

    from sklearn.datasets import load_iris

    from factor_analyzer import FactorAnalyzer

    import matplotlib.pyplot as plt

    加载数据中

    让我们对BFI(基于人格评估项目的数据集)进行因素分析, 这些因素是使用6点回应量表收集的:1个非常不准确, 2个中度不准确, 3个略有不正确4个略有准确, 5个中度和6个非常准确。你也可以从以下链接下载此数据集:https://vincentarelbundock.github.io/Rdatasets/datasets.html

    df= pd.read_csv("bfi.csv")

    预处理数据

    df.columns

    Index(['A1', 'A2', 'A3', 'A4', 'A5', 'C1', 'C2', 'C3', 'C4', 'C5', 'E1', 'E2', 'E3', 'E4', 'E5', 'N1', 'N2', 'N3', 'N4', 'N5', 'O1', 'O2', 'O3', 'O4', 'O5', 'gender', 'education', 'age'], dtype='object')

    # Dropping unnecessary columns

    df.drop(['gender', 'education', 'age'], axis=1, inplace=True)

    # Dropping missing values rows

    df.dropna(inplace=True)

    df.info()

    Int64Index: 2436 entries, 0 to 2799

    Data columns (total 25 columns):

    A1 2436 non-null float64

    A2 2436 non-null float64

    A3 2436 non-null float64

    A4 2436 non-null float64

    A5 2436 non-null float64

    C1 2436 non-null float64

    C2 2436 non-null float64

    C3 2436 non-null float64

    C4 2436 non-null float64

    C5 2436 non-null float64

    E1 2436 non-null float64

    E2 2436 non-null float64

    E3 2436 non-null float64

    E4 2436 non-null float64

    E5 2436 non-null float64

    N1 2436 non-null float64

    N2 2436 non-null float64

    N3 2436 non-null float64

    N4 2436 non-null float64

    N5 2436 non-null float64

    O1 2436 non-null float64

    O2 2436 non-null int64

    O3 2436 non-null float64

    O4 2436 non-null float64

    O5 2436 non-null float64

    dtypes: float64(24), int64(1)

    memory usage: 494.8 KB

    df.head()

    A1

    A2

    A3

    A4

    A5

    C1

    C2

    C3

    C4

    C5

    N1

    N2

    N3

    N4

    N5

    O1

    O2

    O3

    O4

    O5

    0

    2.0

    4.0

    3.0

    4.0

    4.0

    2.0

    3.0

    3.0

    4.0

    4.0

    3.0

    4.0

    2.0

    2.0

    3.0

    3.0

    6

    3.0

    4.0

    3.0

    1

    2.0

    4.0

    5.0

    2.0

    5.0

    5.0

    4.0

    4.0

    3.0

    4.0

    3.0

    3.0

    3.0

    5.0

    5.0

    4.0

    2

    4.0

    3.0

    3.0

    2

    5.0

    4.0

    5.0

    4.0

    4.0

    4.0

    5.0

    4.0

    2.0

    5.0

    4.0

    5.0

    4.0

    2.0

    3.0

    4.0

    2

    5.0

    5.0

    2.0

    3

    4.0

    4.0

    6.0

    5.0

    5.0

    4.0

    4.0

    3.0

    5.0

    5.0

    2.0

    5.0

    2.0

    4.0

    1.0

    3.0

    3

    4.0

    3.0

    5.0

    4

    2.0

    3.0

    3.0

    4.0

    5.0

    4.0

    4.0

    5.0

    3.0

    2.0

    2.0

    3.0

    4.0

    4.0

    3.0

    3.0

    3

    4.0

    3.0

    3.0

    5行×25列

    充足性测试

    在执行因子分析之前, 你需要评估我们数据集的”可分解性”。可分解性意味着”我们可以在数据集中找到这些因素吗?”。有两种方法可以检查可分解性或抽样是否足够:

    巴特利特的测验

    Kaiser-Meyer-Olkin检验

    巴特利特(Bartlett)的球形度检验使用观察到的相关矩阵和恒等矩阵检查观察到的变量是否相互关联。如果测试发现统计上不重要, 则不应使用因子分析。

    from factor_analyzer.factor_analyzer import calculate_bartlett_sphericity

    chi_square_value, p_value=calculate_bartlett_sphericity(df)

    chi_square_value, p_value

    (18146.065577234807, 0.0)

    在此Bartlett检验中, p值为0。该检验具有统计学意义, 表明所观察到的相关矩阵不是恒等矩阵。

    Kaiser-Meyer-Olkin(KMO)测试可测量数据是否适合进行因子分析。它确定每个观察变量和完整模型的充分性。 KMO估计所有观察变量之间的方差比例。较低的比例ID更适合因子分析。 KMO值介于0到1之间。KMO值小于0.6被认为是不合适的。

    from factor_analyzer.factor_analyzer import calculate_kmo

    kmo_all, kmo_model=calculate_kmo(df)

    kmo_model

    0.8486452309468382

    我们的数据的总体KMO为0.84, 非常好。该值表示你可以继续进行计划的因素分析。

    选择因素数

    要选择因子数量, 可以使用Kaiser准则和卵石图。两者均基于特征值。

    # Create factor analysis object and perform factor analysis

    fa = FactorAnalyzer()

    fa.analyze(df, 25, rotation=None)

    # Check Eigenvalues

    ev, v = fa.get_eigenvalues()

    ev

    原始特征值

    0

    5.134311

    1

    2.751887

    2

    2.142702

    3

    1.852328

    4

    1.548163

    5

    1.073582

    6

    0.839539

    7

    0.799206

    8

    0.718989

    9

    0.688089

    10

    0.676373

    11

    0.651800

    12

    0.623253

    13

    0.596563

    14

    0.563091

    15

    0.543305

    16

    0.514518

    17

    0.494503

    18

    0.482640

    19

    0.448921

    20

    0.423366

    21

    0.400671

    22

    0.387804

    23

    0.381857

    24

    0.262539

    在这里, 你只能看到6因子特征值大于1。这意味着我们只需要选择6个因素(或未观察到的变量)。

    # Create scree plot using matplotlib

    plt.scatter(range(1, df.shape[1]+1), ev)

    plt.plot(range(1, df.shape[1]+1), ev)

    plt.title('Scree Plot')

    plt.xlabel('Factors')

    plt.ylabel('Eigenvalue')

    plt.grid()

    plt.show()

    5-1.png

    卵石图方法为每个因子及其特征值绘制一条直线。特征值大于1的数量被认为是因子的数量。

    在这里, 你只能看到6因子特征值大于1。这意味着我们只需要选择6个因素(或未观察到的变量)。

    执行因素分析

    # Create factor analysis object and perform factor analysis

    fa = FactorAnalyzer()

    fa.analyze(df, 6, rotation="varimax")

    fa.loadings

    因子1

    因素2

    因素3

    因素4

    因素5

    因子6

    A1

    0.040783

    0.095220

    0.048734

    -0.113057

    -0.530987

    0.161216

    A2

    0.235538

    0.033131

    0.133714

    0.063734

    0.661141

    -0.006244

    A3

    0.343008

    -0.009621

    0.121353

    0.033990

    0.605933

    0.160106

    A4

    0.219717

    -0.081518

    0.235140

    -0.125338

    0.404594

    0.086356

    A5

    0.414458

    -0.149616

    0.106382

    0.030977

    0.469698

    0.236519

    C1

    0.077248

    -0.004358

    0.554582

    0.190124

    0.007511

    0.095035

    C2

    0.038370

    0.068330

    0.674545

    0.087593

    0.057055

    0.152775

    C3

    0.031867

    -0.039994

    0.551164

    -0.011338

    0.101282

    0.008996

    C4

    -0.066241

    0.216283

    -0.638475

    -0.143846

    -0.102617

    0.318359

    C5

    -0.180812

    0.284187

    -0.544838

    0.025837

    -0.059955

    0.132423

    E1

    -0.590451

    0.022280

    0.053915

    -0.071205

    -0.130851

    0.156583

    E2

    -0.684578

    0.233624

    -0.088497

    -0.045561

    -0.116716

    0.115065

    E3

    0.556774

    -0.000895

    0.103390

    0.241180

    0.179396

    0.267291

    E4

    0.658395

    -0.136788

    0.113798

    -0.107808

    0.241143

    0.158513

    E5

    0.507535

    0.034490

    0.309813

    0.200821

    0.078804

    0.008747

    N1

    0.068011

    0.805806

    -0.051264

    -0.074977

    -0.174849

    -0.096266

    N2

    0.022958

    0.789832

    -0.037477

    0.006726

    -0.141134

    -0.139823

    N3

    -0.065687

    0.725081

    -0.059039

    -0.010664

    -0.019184

    0.062495

    N4

    -0.345072

    0.578319

    -0.162174

    0.062916

    0.000403

    0.147551

    N5

    -0.161675

    0.523097

    -0.025305

    -0.161892

    0.090125

    0.120049

    O1

    0.225339

    -0.020004

    0.133201

    0.479477

    0.005178

    0.218690

    O2

    -0.001982

    0.156230

    -0.086047

    -0.496640

    0.043989

    0.134693

    O3

    0.325954

    0.011851

    0.093880

    0.566128

    0.076642

    0.210777

    O4

    -0.177746

    0.207281

    -0.005671

    0.349227

    0.133656

    0.178068

    O5

    -0.014221

    0.063234

    -0.047059

    -0.576743

    -0.057561

    0.135936

    因子1对E1, E2, E3, E4和E5(外推)具有较高的因子负载

    因子2对N1, N2, N3, N4和N5具有较高的因子负荷(神经病)

    因子3对C1, C2, C3, C4和C5具有很高的因子负荷(尽责程度)

    因子4对O1, O2, O3, O4和O5(Opennness)具有高因子负载

    因子5对A1, A2, A3, A4和A5具有较高的因子负载(令人满意)

    因子6没有任何变量的高价, 也不容易解释。如果仅考虑五个因素, 那将是一件好事。

    让我们对5个因素进行因素分析。

    # Create factor analysis object and perform factor analysis using 5 factors

    fa = FactorAnalyzer()

    fa.analyze(df, 5, rotation="varimax")

    fa.loadings

    因子1

    因素2

    因素3

    因素4

    因素5

    A1

    0.040465

    0.111126

    0.022798

    -0.077931

    -0.428166

    A2

    0.213716

    0.029588

    0.139037

    0.062139

    0.626946

    A3

    0.317848

    0.009357

    0.109331

    0.056196

    0.650743

    A4

    0.204566

    -0.066476

    0.230584

    -0.112700

    0.435624

    A5

    0.393034

    -0.122113

    0.087869

    0.066708

    0.537087

    C1

    0.070184

    0.010416

    0.545824

    0.209584

    0.038878

    C2

    0.033270

    0.089574

    0.648731

    0.115434

    0.102782

    C3

    0.023907

    -0.030855

    0.557036

    -0.005183

    0.111578

    C4

    -0.064984

    0.240410

    -0.633806

    -0.107535

    -0.037498

    C5

    -0.176395

    0.290318

    -0.562467

    0.036822

    -0.047525

    E1

    -0.574835

    0.042819

    0.033144

    -0.058795

    -0.104813

    E2

    -0.678731

    0.244743

    -0.102483

    -0.042010

    -0.112517

    E3

    0.536816

    0.024180

    0.083010

    0.280877

    0.257906

    E4

    0.646833

    -0.115614

    0.102023

    -0.073422

    0.306101

    E5

    0.504069

    0.036145

    0.312899

    0.213739

    0.090354

    N1

    0.078923

    0.786807

    -0.045997

    -0.084704

    -0.216363

    N2

    0.027301

    0.754109

    -0.030568

    -0.010304

    -0.193744

    N3

    -0.061430

    0.731721

    -0.067084

    -0.004217

    -0.027712

    N4

    -0.345388

    0.590602

    -0.178902

    0.075225

    0.005886

    N5

    -0.161291

    0.537858

    -0.037309

    -0.149769

    0.100931

    O1

    0.213005

    -0.002224

    0.115080

    0.504907

    0.061550

    O2

    0.004560

    0.175788

    -0.099729

    -0.468925

    0.081809

    O3

    0.310956

    0.026736

    0.076873

    0.596007

    0.126889

    O4

    -0.191196

    0.220582

    -0.021906

    0.369012

    0.155475

    O5

    -0.005347

    0.085401

    -0.062730

    -0.533778

    -0.010384

    # Get variance of each factors

    fa.get_factor_variance()

    因子1

    因素2

    因素3

    因素4

    因素5

    SS负荷

    2.473090

    2.709633

    2.041106

    1.522153

    1.844498

    比例变量

    0.098924

    0.108385

    0.081644

    0.060886

    0.073780

    Cumulative Var

    0.098924

    0.207309

    0.288953

    0.349839

    0.423619

    5个因素解释了总计42%的累积方差。

    因素分析的利弊

    因子分析探索大型数据集并找到相互关联的关联。它可以将观察到的变量减少为几个未观察到的变量, 或者识别相互关联的变量组, 这有助于市场研究人员压缩市场状况, 并找到消费者品味, 偏好和文化影响力之间的隐藏关系。而且, 它有助于改进问卷以供将来进行调查。因素使数据解释更加自然。

    因子分析的结果是有争议的。它的解释可能是有争议的, 因为可以对相同的数据因素进行多种解释。之后, 因素识别和因素命名需要领域知识。

    总结

    恭喜, 你已完成本教程的结尾!

    在本教程中, 你学习了什么是因子分析。不同类型的因素分析, 因素分析如何工作, 基本因素分析术语, 选择因素数量, 主成分分析和因素分析的比较, 使用python FactorAnalyzer软件包在python中的实现以及因素分析的利弊。

    我期待听到任何反馈或问题。你可以通过发表评论来提出问题, 我会尽力回答。

    如果你想了解有关Python中因素的更多信息, 请参加srcmini的Python无监督学习课程。

    展开全文
  • python因子分析Factor Analysis (FA) is an exploratory data analysis method used to search influential underlying factors or latent variables from a set of observed variables. It helps in data ...

    python因子分析

    Factor Analysis (FA) is an exploratory data analysis method used to search influential underlying factors or latent variables from a set of observed variables. It helps in data interpretations by reducing the number of variables. It extracts maximum common variance from all variables and puts them into a common score.

    因子分析(FA)是一种探索性数据分析方法,用于从一组观察到的变量中搜索有影响力的潜在因子或潜在变量。 通过减少变量数量,它有助于数据解释。 它从所有变量中提取最大共同方差,并将它们放入一个共同得分。

    Factor analysis is widely utilised in market research, advertising, psychology, finance, and operation research. Market researchers use factor analysis to identify price-sensitive customers, identify brand features that influence consumer choice, and helps in understanding channel selection criteria for the distribution channel.

    因子分析广泛应用于市场研究,广告,心理学,金融和运营研究。 市场研究人员使用因素分析来识别价格敏感的客户,识别影响消费者选择的品牌特征,并帮助理解分销渠道的渠道选择标准。

    In this tutorial, you are going to cover the following topics:

    在本教程中,您将涵盖以下主题:

    • Factor Analysis

      因子分析
    • Types of Factor Analysis

      因子分析的类型
    • Determine Number of Factors

      确定因素数
    • Factor Analysis Vs. Principle Component Analysis

      因子分析与 主成分分析
    • Factor Analysis in Python

      Python中的因素分析
    • Adequacy Test

      充足性测试
    • Interpreting the results

      解释结果
    • Pros and Cons of Factor Analysis

      因素分析的利弊
    • Conclusion

      结论

    For more such tutorials, projects, and courses visit DataCamp:

    有关更多此类教程,项目和课程,请访问DataCamp

    因子分析 (Factor Analysis)

    Factor analysis is a linear statistical model. It is used to explain the variance among the observed variable and condense a set of the observed variable into the unobserved variable called factors. Observed variables are modeled as a linear combination of factors and error terms (Source). Factor or latent variable is associated with multiple observed variables, who have common patterns of responses. Each factor explains a particular amount of variance in the observed variables. It helps in data interpretations by reducing the number of variables.

    因子分析是线性统计模型。 它用于解释观察变量之间的方差,并将一组观察变量浓缩为称为因子的未观察变量。 观察变量被建模为因子和误差项的线性组合( Source )。 因子或潜在变量与具有共同响应模式的多个观察变量相关。 每个因素都说明了观察变量中的特定方差量。 通过减少变量数量,它有助于数据解释。

    Factor analysis is a method for investigating whether a number of variables of interest X1, X2,……., Xl, are linearly related to a smaller number of unobservable factors F1, F2,..……, Fk.

    因子分析是一种研究感兴趣的变量X1,X2,……,X1是否与较少数量的不可观察因子F1,F2,……,Fk线性相关的方法。

    Image for post

    Source: This image is recreated from an image that I found in factor analysis notes. The image gives a full view of factor analysis.

    来源:此图像是根据我在因子分析说明中找到的图像重新创建的。 该图提供了因素分析的完整视图。

    Assumptions:

    假设:

    1. There are no outliers in data.

      数据中没有异常值。
    2. The sample size should be greater than the factor.

      样本数量应大于因子。
    3. There should not be perfect multicollinearity.

      不应有完美的多重共线性。
    4. There should not be homoscedasticity between the variables.

      变量之间不应有同调性。

    因子分析的类型 (Types of Factor Analysis)

    • Exploratory Factor Analysis: It is the most popular factor analysis approach among social and management researchers. Its basic assumption is that any observed variable is directly associated with any factor.

      探索性因素分析:它是社会和管理研究人员中最流行的因素分析方法。 它的基本假设是,任何观察到的变量都与任何因素直接相关。
    • Confirmatory Factor Analysis (CFA): Its basic assumption is that each factor is associated with a particular set of observed variables. CFA confirms what is expected on the basis.

      验证性因素分析(CFA):其基本假设是每个因素都与一组特定的观察变量相关联。 CFA确认在此基础上的期望。

    因子分析如何工作? (How does factor analysis work?)

    The primary objective of factor analysis is to reduce the number of observed variables and find unobservable variables. These unobserved variables help the market researcher to conclude the survey. This conversion of the observed variables to unobserved variables can be achieved in two steps:

    因子分析的主要目的是减少观察变量的数量并发现不可观察的变量。 这些未观察到的变量有助于市场研究人员完成调查。 观察变量到未观察变量的这种转换可以通过两个步骤实现:

    • Factor Extraction: In this step, the number of factors and approach for extraction selected using variance partitioning methods such as principal components analysis and common factor analysis.

      因子提取:在此步骤中,使用方差划分方法(例如主成分分析和公共因子分析)选择因子的数量和提取方法。

    • Factor Rotation: In this step, rotation tries to convert factors into uncorrelated factors — the main goal of this step to improve the overall interpretability. There are lots of rotation methods that are available such as the Varimax rotation method, Quartimax rotation method, and Promax rotation method.

      因子轮换:在此步骤中,轮换尝试将因子转换为不相关的因子-此步骤的主要目标是提高整体的可解释性。 有许多可用的旋转方法,例如Varimax旋转方法,Quartimax旋转方法和Promax旋转方法。

    术语 (Terminology)

    What is a factor?

    是什么因素?

    A factor is a latent variable that describes the association among the number of observed variables. The maximum number of factors is equal to a number of observed variables. Every factor explains a certain variance in observed variables. The factors with the lowest amount of variance were dropped. Factors are also known as latent variables or hidden variables or unobserved variables or Hypothetical variables.

    因子是一个潜在变量,它描述了观察到的变量数量之间的关联。 因素的最大数量等于观察到的变量的数量。 每个因素都说明观测变量存在一定差异。 方差量最低的因素被删除。 因子也称为潜在变量或隐藏变量或未观察到的变量或假设变量。

    What are the factor loadings?

    什么是因子负载?

    The factor loading is a matrix that shows the relationship of each variable to the underlying factor. It shows the correlation coefficient for observed variables and factors. It shows the variance explained by the observed variables.

    因子加载是一个矩阵,显示每个变量与基础因子之间的关系。 它显示了观测变量和因子的相关系数。 它显示了观察到的变量解释的方差。

    What is Eigenvalues?

    什么是特征值?

    Eigenvalues represent variance explained each factor from the total variance. It is also known as characteristic roots.

    特征值代表方差,由总方差解释每个因素。 它也被称为特征根。

    What are Communalities?

    什么是社区?

    Commonalities are the sum of the squared loadings for each variable. It represents the common variance. It ranges from 0–1 and value close to 1 represents more variance.

    共同点是每个变量的平方加载总和。 它代表共同方差。 它的范围是0到1,接近1的值表示更多的方差。

    Image for post

    What is Factor Rotation?

    什么是因子旋转?

    Rotation is a tool for better interpretation of factor analysis. Rotation can be orthogonal or oblique. It re-distributed the commonalities with a clear pattern of loadings.

    轮换是一种更好地解释因子分析的工具。 旋转可以是正交或倾斜的。 它以清晰的负载模式重新分配了共性。

    选择因素数 (Choosing the Number of Factors)

    Kaiser criterion is an analytical approach, which is based on the more significant proportion of variance explained by a factor that will be selected. The eigenvalue is a good criterion for determining the number of factors. Generally, an eigenvalue greater than 1 will be considered as the selection criteria for the feature.

    凯撒(Kaiser)准则是一种分析方法,它基于差异的较大比例(由将要选择的因素解释)。 特征值是确定因子数量的良好标准。 通常,将大于1的特征值视为特征的选择标准。

    The graphical approach is based on the visual representation of factors’ eigenvalues also called scree plots. This scree plot helps us to determine the number of factors where the curve makes an elbow.

    图形化方法基于因子特征值的可视表示,也称为碎石图。 此卵石图有助于我们确定曲线成为弯头的因素的数量。

    Image for post

    Source

    资源

    因子分析与 主成分分析 (Factor Analysis Vs. Principle Component Analysis)

    • PCA components explain the maximum amount of variance while factor analysis explains the covariance in data.

      PCA组件说明最大方差,而因子分析说明数据中的协方差。
    • PCA components are fully orthogonal to each other whereas factor analysis does not require factors to be orthogonal.

      PCA组件彼此完全正交,而因子分析不需要因子正交。
    • PCA component is a linear combination of the observed variable while in FA, the observed variables are linear combinations of the unobserved variable or factor.

      PCA分量是观察变量的线性组合,而在FA中,观察变量是未观察变量或因子的线性组合。
    • PCA components are uninterpretable. In FA, underlying factors are labelable and interpretable.

      PCA组件无法解释。 在FA中,潜在因素是可标记和可解释的。
    • PCA is a kind of dimensionality reduction method whereas factor analysis is the latent variable method.

      PCA是一种降维方法,而因子分析是潜在变量方法。
    • PCA is a type of factor analysis. PCA is observational whereas FA is a modeling technique.

      PCA是一种因素分析。 PCA是观察性的,而FA是一种建模技术。
    Image for post

    Source

    资源

    使用factor_analyzer软件包在Python中进行因子分析 (Factor Analysis in Python using factor_analyzer package)

    导入所需的库 (Import Required Libraries)

    # Import required libraries
    import pandas as pd
    from sklearn.datasets import load_iris
    from factor_analyzer import FactorAnalyzer
    import matplotlib.pyplot as plt

    加载数据中 (Loading Data)

    Let’s perform factor analysis on BFI (dataset based on personality assessment project), which were collected using a 6 point response scale: 1 Very Inaccurate, 2 Moderately Inaccurate, 3 Slightly Inaccurate 4 Slightly Accurate, 5 Moderately Accurate, and 6 Very Accurate. You can also download this dataset from the following the link: https://vincentarelbundock.github.io/Rdatasets/datasets.html

    让我们对BFI(基于人格评估项目的数据集)进行因素分析,这些因素是使用6点回应量表收集的:1个非常不准确,2个中等不准确,3个轻微不准确4个稍微准确,5个中等准确和6个非常准确。 您也可以从以下链接下载此数据集: https : //vincentarelbundock.github.io/Rdatasets/datasets.html

    df= pd.read_csv("bfi.csv")

    预处理数据 (Preprocess Data)

    df.columnsOutput:Index(['A1', 'A2', 'A3', 'A4', 'A5', 'C1', 'C2', 'C3', 'C4', 'C5', 'E1', 'E2','E3', 'E4', 'E5', 'N1', 'N2', 'N3', 'N4', 'N5', 'O1', 'O2', 'O3', 'O4','O5', 'gender', 'education', 'age'],dtype='object')# Dropping unnecessary columns
    df.drop(['gender', 'education', 'age'],axis=1,inplace=True)# Dropping missing values rows
    df.dropna(inplace=True)df.info()Output:<class 'pandas.core.frame.DataFrame'>
    Int64Index: 2436 entries, 0 to 2799
    Data columns (total 25 columns):
    A1 2436 non-null float64
    A2 2436 non-null float64
    A3 2436 non-null float64
    A4 2436 non-null float64
    A5 2436 non-null float64
    C1 2436 non-null float64
    C2 2436 non-null float64
    C3 2436 non-null float64
    C4 2436 non-null float64
    C5 2436 non-null float64
    E1 2436 non-null float64
    E2 2436 non-null float64
    E3 2436 non-null float64
    E4 2436 non-null float64
    E5 2436 non-null float64
    N1 2436 non-null float64
    N2 2436 non-null float64
    N3 2436 non-null float64
    N4 2436 non-null float64
    N5 2436 non-null float64
    O1 2436 non-null float64
    O2 2436 non-null int64
    O3 2436 non-null float64
    O4 2436 non-null float64
    O5 2436 non-null float64
    dtypes: float64(24), int64(1)
    memory usage: 494.8 KBdf.head()Output:
    Image for post

    充足性测试 (Adequacy Test)

    Before you perform factor analysis, you need to evaluate the “factorability” of our dataset. Factorability means “can we found the factors in the dataset?”. There are two methods to check the factorability or sampling adequacy:

    在执行因子分析之前,您需要评估我们数据集的“可分解性”。 可分解性意味着“我们可以在数据集中找到这些因素吗?”。 有两种方法可以检查可分解性或抽样是否足够:

    • Bartlett’s Test

      巴特利特测试
    • Kaiser-Meyer-Olkin Test

      Kaiser-Meyer-Olkin检验

    Bartlett’s test of sphericity checks whether or not the observed variables intercorrelate at all using the observed correlation matrix against the identity matrix. If the test found statistically insignificant, you should not employ a factor analysis.

    Bartlett的球形度检验使用观察到的相关矩阵和恒等矩阵来检验观察到的变量是否相互关联。 如果测试发现统计上不重要,则不应使用因子分析。

    from factor_analyzer.factor_analyzer import calculate_bartlett_sphericity
    chi_square_value,p_value=calculate_bartlett_sphericity(df)
    chi_square_value, p_valueOutput:(18146.065577234807, 0.0)

    In Bartlett’s test, the p-value is 0. The test was statistically significant, indicating that the observed correlation matrix is not an identity matrix.

    在Bartlett检验中,p值为0。该检验具有统计学意义,表明观察到的相关矩阵不是恒等矩阵。

    Kaiser-Meyer-Olkin (KMO) Test measures the suitability of data for factor analysis. It determines the adequacy for each observed variable and for the complete model. KMO estimates the proportion of variance among all the observed variables. Lower proportion id more suitable for factor analysis. KMO values range between 0 and 1. The value of KMO less than 0.6 is considered inadequate.

    Kaiser-Meyer-Olkin(KMO)测试测量数据是否适合进行因子分析。 它确定每个观察变量和完整模型的充分性。 KMO估计所有观测变量之间的方差比例。 较低的比例ID更适合因子分析。 KMO值在0到1之间。小于0.6的KMO值被认为是不合适的。

    from factor_analyzer.factor_analyzer import calculate_kmo
    kmo_all,kmo_model=calculate_kmo(df)kmo_modelOutput:0.8486452309468382

    The overall KMO for our data is 0.84, which is excellent. This value indicates that you can proceed with your planned factor analysis.

    我们的数据的总体KMO为0.84,非常好。 该值表示您可以继续进行计划的因素分析。

    选择因素数 (Choosing the Number of Factors)

    For choosing the number of factors, you can use the Kaiser criterion and scree plot. Both are based on eigenvalues.

    要选择因子数量,可以使用Kaiser准则和卵石图。 两者均基于特征值。

    # Create factor analysis object and perform factor analysis
    fa = FactorAnalyzer()
    fa.analyze(df, 25, rotation=None)
    # Check Eigenvalues
    ev, v = fa.get_eigenvalues()
    ev
    Image for post

    Here, you can see only for 6-factors eigenvalues are greater than one. It means we need to choose only 6 factors (or unobserved variables).

    在这里,您只能看到6因子特征值大于1。 这意味着我们只需要选择6个因素(或未观察到的变量)。

    # Create scree plot using matplotlib
    plt.scatter(range(1,df.shape[1]+1),ev)
    plt.plot(range(1,df.shape[1]+1),ev)
    plt.title('Scree Plot')
    plt.xlabel('Factors')
    plt.ylabel('Eigenvalue')
    plt.grid()
    plt.show()
    Image for post

    The scree plot method draws a straight line for each factor and its eigenvalues. Number eigenvalues greater than one considered as the number of factors.

    卵石图方法为每个因子及其特征值绘制一条直线。 大于1的特征值数被视为因子数。

    Here, you can see only for 6-factors eigenvalues are greater than one. It means we need to choose only 6 factors (or unobserved variables).

    在这里,您只能看到6因子特征值大于1。 这意味着我们只需要选择6个因素(或未观察到的变量)。

    执行因素分析 (Performing Factor Analysis)

    # Create factor analysis object and perform factor analysis
    fa = FactorAnalyzer()
    fa.analyze(df, 6, rotation="varimax")fa.loadings
    Image for post
    • Factor 1 has high factor loadings for E1,E2,E3,E4, and E5 (Extraversion)

      因子1具有E1,E2,E3,E4和E5(外推)的高因子负载
    • Factor 2 has high factor loadings for N1, N2, N3, N4, and N5 (Neuroticism)

      因子2对N1,N2,N3,N4和N5具有较高的因子负荷(神经病)
    • Factor 3 has high factor loadings for C1, C2, C3, C4, and C5 (Conscientiousness)

      因子3对C1,C2,C3,C4和C5具有较高的因子负荷(尽责程度)
    • Factor 4 has a high factor loadings for O1, O2, O3, O4, and O5 (Openness)

      因子4对O1,O2,O3,O4和O5(开放度)的因子负载较高
    • Factor 5 has high factor loadings for A1, A2, A3, A4, and A5 (Agreeableness)

      因子5对A1,A2,A3,A4和A5具有较高的因子负载(令人满意)
    • Factor 6 has none of the high loadings for any variable and is not easily interpretable. It's good if we take only five factors.

      因子6没有任何变量的高负荷,也不容易解释。 如果我们仅考虑五个因素,那就太好了。

    Let’s perform a factor analysis for 5 factors.

    让我们对5个因素进行因素分析。

    # Create factor analysis object and perform factor analysis using 5 factors
    fa = FactorAnalyzer()
    fa.analyze(df, 5, rotation="varimax")
    fa.loadings
    Image for post
    # Get variance of each factors
    fa.get_factor_variance()
    Image for post

    Total 42% cumulative Variance explained by the 5 factors.

    5个因素解释了总计42%的累积方差。

    因素分析的利弊 (Pros and Cons of Factor Analysis)

    Factor analysis explores large datasets and finds interlinked associations. It reduces the observed variables into a few unobserved variables or identifies the groups of inter-related variables, which help the market researchers to compress the market situations and find the hidden relationship among consumer taste, preference, and cultural influence. Also, It helps in improving the questionnaire for future surveys. Factors make for more natural data interpretation.

    因子分析探索大型数据集并找到相互关联的关联。 它可以将观察到的变量简化为几个未观察到的变量,或者识别相互关联的变量组,这有助于市场研究人员压缩市场状况,并找到消费者品味,偏好和文化影响力之间的隐藏关系。 而且,它有助于改进问卷以供将来进行调查。 因素使数据解释更加自然。

    The results of the factor analysis are controversial. Its interpretations can be debatable because more than one interpretation can be made of the same data factors. After factor identification and naming of factors requires domain knowledge.

    因子分析的结果是有争议的。 它的解释可能是有争议的,因为可以对相同的数据因素进行多种解释。 之后,因素识别和因素命名需要领域知识。

    结论 (Conclusion)

    Congratulations, you have made it to the end of this tutorial!

    恭喜,您已完成本教程的结尾!

    In this tutorial, you have learned what factor analysis is. The different types of factor analysis, how does factor analysis work, basic factor analysis terminology, choosing the number of factors, comparison of principal component analysis and factor analysis, implementation in Python using Python FactorAnalyzer package, and pros and cons of factor analysis.

    在本教程中,您学习了什么是因子分析。 不同类型的因素分析,因素分析如何工作,基本因素分析术语,选择因素的数量,主成分分析和因素分析的比较,使用Python FactorAnalyzer软件包在Python中的实现以及因素分析的利弊。

    I look forward to hearing any feedback or questions. you can ask the question by leaving a comment and I will try my best to answer it.

    我期待听到任何反馈或问题。 您可以通过发表评论来提问,我会尽力回答。

    翻译自: https://medium.com/ai-in-plain-english/introduction-to-factor-analysis-in-python-6a12193b046b

    python因子分析

    展开全文
  • 介绍主成分分析在统计中的地位不言自明,而因子分析像一个孪生兄弟一样,常常和主成分分析密不可分,本帖将用最简单的叙述,越过证明,只从基本的步骤来学习一下如何用python因子分析因子分析研究相关阵或协方差...

    一.介绍

    主成分分析在统计中的地位不言自明,而因子分析像一个孪生兄弟一样,常常和主成分分析密不可分,本帖将用最简单的叙述,越过证明,只从基本的步骤来学习一下如何用python做因子分析。

    因子分析研究相关阵或协方差阵的内部依赖关系,它将多个变量综合为少数几个因子,以再现原始变量和因子之间的关系。

    举个例子,在资产配置时,我们常常遇到相关性比较高的资产,会带来极大的风险,我们可以把影响风险的变量分解到几个正交的因子上,以此为标准配置资产,以避免风险聚集。

    二.正交因子模型

    183104bsjlss3i4fig8j4i.jpg

    183105czlf545z2jwffjic.jpg

    三.参数估计方法

    183156o8q185r76y8r8cq1.jpg

    183157zlyuzpxwylyxyw0o.jpg

    四.例子

    以上三种方法中,主成分法应用较广泛,下面举个简单的例子来计算一下因子载荷阵等:

    import numpy as np

    import pandas as pd

    from math import *

    我随便取了以下5只基金:

    universe=['150008','150012','512300','512330','513100']

    再取它们从20160401到20160701的日收益率作为样本矩阵X

    #取日收益率,以ticker名为列名

    X = pd.DataFrame()

    for i in universe:

    data = DataAPI.MktFunddGet(ticker=i,beginDate=u"20160401",endDate=u"20160701",field=u"preClosePrice,closePrice",pandas="1")

    X[i] = data['closePrice']/data['preClosePrice']-1

    X.head() #看看日收益率的前5行

    183409vt6t055dba54w646.jpg

    X.shape

    (62, 5)

    183453mblwxoknklvkktcn.jpg

    183536vvk9fihbv0s49854.jpg

    183634py160zquu0o001r8.jpg

    183707aogesblueuotfuuh.jpg

    183824u5qt0w403bqcb4b4.jpg

    183825v10kk9uy75gixn7g.jpg

    183825qam3834x8fmazla8.jpg

    183826rhh66ysk6kef6rhh.jpg

    链接https://uqer.io/community/share/5796d82e228e5ba29205fbd2

    展开全文
  • 工作狗表示,建模的目的是要卖钱的,也就是要嵌入到公司开发的产品上去,用 Python因子分析(factor analysis),总比找SPSS的接口更容易让大家接受。 算法核心 因子分析法(factor analysis)的核心是对若干...

    为什么?

    SPSS 那么简单还免费,为什么还要用 Python 做因子分析(factor analysis)呢?工作狗表示,建模的目的是要卖钱的,也就是要嵌入到公司开发的产品上去,用 Python 写因子分析(factor analysis),总比找SPSS的接口更容易让大家接受。

    算法核心

    因子分析法(factor analysis)的核心是对若干综合指标进行因子分析并提取公共因子,再以每个因子的方差贡献率作为权数与该因子的得分乘数之和构造得分函数。

    Python代码

    先把该装上的模块都装上哈,比如:factor_analyzer

    安装方法:

    1. 系统解释器:    pip install factor_analyzer;
    2. conda-jupyter:conda install -c desilinguist factor_analyzer;

     

    第一步:看原数据

    总觉得看到原数据是个什么样子,心里才有点谱,所以基本每一篇博客都要先展示一下原数据。

    import pandas as pd
    import numpy as np
    from pandas import DataFrame,Series
    from factor_analyzer import FactorAnalyzer
    
    datafile = u'D:\\pythondata\\textdata.xlsx'
    data = pd.read_excel(datafile)
    data.head()
     指标1指标2指标3指标4指标5指标6指标7指标8指标9指标10
    00.0037900.0037900.0049350.00760.400.00600.40000.00601.1538NaN
    1NaNNaN0.465854NaNNaNNaN0.09090.14271.1579NaN
    20.2948890.1246830.1447930.07350.250.07350.20000.06311.08000.4444
    30.6681220.6681220.6681220.80100.500.80100.50000.80101.03130.3636
    40.3045090.1886220.1886220.20260.400.20260.40000.20261.06000.5556

    有一些空值,用0填充

    data = data.fillna(0)#用0填充空值

    这一步对应到 SPSS ,就是导入数据了,放一张 SPSS 的页面,下面每一步都会这样一一对应的讲解,希望熟悉 SPSS 的可以对上号,更快的学习用 Python 做因子分析。 

     

     第二步:数据清洗

    这里的原数据是用 mysql 清洗好的数据输出的指标值,所以这里不用清洗。清洗数据是一件繁重复杂的事情,有兴趣的可以单独去搜相关的文章学习。

     

    第三步:建模

    fa = FactorAnalyzer()
    fa.analyze(data, 5, rotation=None)#固定公共因子个数为5个
    print("公因子方差:\n", fa.get_communalities())#公因子方差
    print("\n成分矩阵:\n", fa.loadings)#成分矩阵
    var = fa.get_factor_variance()#给出贡献率
    print("\n解释的总方差(即贡献率):\n", var)

    输出结果:

    有人要问了,怎么python输出的结果和SPSS不一样呢?原因有二:

    1. SPSS默认用的提取方法是主成分分析,即PCA中的principal 函数,而模块factor_analyzer中用的提取方法是fa函数,具体是个什么区别我还没开始研究,等有时间研究研究再跟大家共享吧,懂的大神也欢迎指教;
    2. 第二个原因就是,SPSS选择了最大平衡法旋转,而python的代码中,了解的人会发现 rotation=None,没有旋转;

     

    第四步:输出因子得分

    因子分析关键的地方就是要输出公共因子的得分,这样才能计算综合得分。在SPSS中,只要勾选了【得分】中的【显示因子得分系数矩阵】,就会自动输出公共因子的得分,如下图所示。

     在python的factor_analyzer模块中也有这样的函数可以实现这样的功能

    fa_score = fa.get_scores(data)#因子得分
    fa_score.head()

     

    第五步:输出综合得分

     因子分析法综合得分的计算方式:

    score=( fac1 * fac1贡献率 +  fac2 * fac2贡献率 + ...... +  fac5 * fac5贡献率) / 所有因子的累计贡献率

    #将各因子乘上他们的贡献率除以总的贡献率,得到因子得分中间值
    a = (fa.get_scores(data)*var.values[1])/var.values[-1][-1]
    
    #将各因子得分中间值相加,得到综合得分
    a['score'] = a.apply(lambda x: x.sum(), axis=1)
    a.head()

    计算逻辑类似SPSS中的:

    结果:

     

    文章里也提到了python运行因子分析和SPSS的不同之处,待我研究清楚了再更新哈,想了解的伙伴可以关注一下。

    链接:下载永久免费版SPSS的链接--欢迎一起学习

    链接:因子分析法原理的链接 -- 欢迎一起学习

    链接:factor-analyzer因子分析模块的官方文档

     


     

     

     

     

     

    展开全文
  • 因子分析进行数据预处理,进行因子分析介绍
  • 因子分析预处理,因子分析应用,Python源码
  • 因素Anova分析 Python实现

    千次阅读 2019-07-19 10:44:51
    因素方差分析常用于判断在多个分组中某个指标是否具有显著差异,下面以射击比赛为例,三位选手分别成绩如下: Pat - 5, 4, 4, 3, 9, 4 Jack - 4, 8, 7, 5, 1, 5 Alex - 9, 9, 8, 10, 4, 10 基于上述数据,我们希望...
  • 在实际应用中,一个实验的指标往往受到多个因素的影响。...同时对因素A和因素B进行分析,就称为双因素方差分析。abca1b120a1b222a1b324a1b416a1b526a2b112a2b210a2b314a2b44a2b522a3b120a3b220a3b318a3b4...
  • 因子分析是一种统计方法,可用于描述观察到的相关变量之间的变异性,即潜在的未观察到的变量数量可能更少(称为因子)。例如,六个观察变量的变化可能主要反映了两个未观察(基础)变量的变化。因子分析搜索这种联合...
  • python实现因子分析

    千次阅读 2020-04-24 14:48:19
    本文从4个维度选取9个主要财务指标对7家公司进行因子分析,主要采用因子分析对目前公司进行综合排名,进而对公司的授信额度进行考核。 注:本文是针对指定业务进行分析因子分析过程有部分删改,请注意结合其他参考...
  • 大家好,我是小z数据分析中,主成分分析(PCA)是被大家熟知的数据降维方法。而因子分析和主成分分析是非常相似的两种方法,他们都属于多元统计分析里的降维方法。但因子分析最大的优点就是:对新的...
  • sklearn因子分析python

    万次阅读 2017-12-07 21:43:51
    因子分析 因子分析(Factor Analysis)是指研究从变量群中提取共性因子的统计技术,这里的共性因子指的是不同变量之间内在的隐藏因子。例如,一个学生的英语、数据、语文成绩都很好,那么潜在的共性因子可能是智力...
  • fanalysis是用于三项BSD许可下分发的用于因子分析Python模块。 借助此fanalysis软件包,您可以执行以下操作: 简单对应分析 多重对应分析 主成分分析 这些统计方法可以通过两种方式使用: 作为描述性方法(...
  • 试验为: - 对照组:清水 - 实验组: 某肥料四个浓度梯度,分别是A,B,C,D,施肥一段时间之后测量树高(要控制其他变量保持一致,比如施肥之前的树高要基本保持一致,生长势基本保持一致等等)做方差分析的时候数据...
  • python——因子分析

    千次阅读 2019-05-06 16:17:00
    因子分析Python做的一个典型例子 一、实验目的 采用合适的数据分析方法对下面的题进行解答 二、实验要求 采用因子分析方法,根据48位应聘者的15项指标得分,选出6名最优秀的应聘者。 三、代码 import ...
  • 因子分析是一种统计方法,可用于描述观察到的相关变量之间的变异性,即潜在的未观察到的变量数量可能更少(称为因子)。例如,六个观察变量的变化可能主要反映了两个未观察(基础)变量的变化。因子分析搜索这种联合...
  • 方差分析(Analysis of Variance,简称ANOVA),又称“变异数分析”或“F检验”,用于两个及两个以上样本均数差别的显著性检验。双因素方差分析即影响试验的因素有两个,且分为无交互作用和有交互作用两种情况。
  • 因子分析python上的实现

    千次阅读 2020-03-24 14:19:09
    因子分析(Factor Analysis)是指研究从变量群中提取共性因子的统计技术,这里的共性因子指的是不同变量之间内在的隐藏因子。例如,一个学生的数学、物理、化学成绩都很好,那么潜在的共性因子可能是智力水平高。...
  • 聚类、因子分析-python

    千次阅读 2019-09-25 18:43:01
    近几年人工智能的兴起,导致大量人工智能企业的诞生或崛起,故本文从4个维度选取15个主要财务指标对159家人工智能股票进行聚类分析因子分析,主要将公司分成三大类和采用因子分析对目前公司进行综合排名,并对排名...
  • Toby老师教授学员搭建如何用python编程实现因子分析和主成分分析,课程有实战项目,附python代码。课程另一个亮点是把因子分析,主成分分析和机器学习建模结合,使模型维度降低,运行速度更快,数据存储降低,模型...
  • 使用matlab以及python实现因子分析,并包含适合因子分析的数据。 资源可利用价值极高,本人耗费巨大精力收集数据/敲代码
  • python进行因子分析

    千次阅读 2020-03-24 21:23:16
    近几年人工智能的兴起,导致大量人工智能企业的诞生或崛起,故本文从4个维度选取15个主要财务指标对159家人工智能股票进行聚类分析因子分析,主要将公司分成三大类和采用因子分析对目前公司进行综合排名,并对排名...
  • python数据分析的相关分析因子分析-第五次笔记 –*相关分析 –*因子分析 相关分析 *相关分析的含义:是研究现象之间是否存在某种依存关系,并对具体有依存关系的现象探讨其相关方向以及相关程度,是研究...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 58,356
精华内容 23,342
关键字:

因子分析python

python 订阅