精华内容
下载资源
问答
  • 利用KNIMI做客户流失预测

    利用KNIMI做客户流失预测

    老帅

    20150801

    http://blog.csdn.net/shuaihj

    一、测试数据

    中国移动客服数据


    需要测试数据,请留下邮箱

    二、统计已流失客户

    1.读取移动客服数据(客户流失.xlsx)

    2.统计已流失客户

    参数设置

    统计结果


    3.数据流

    三、贝叶斯预测客户流失

    1.字符类型转换

    将“流失”列转换为字符串类型

    2.划分训练集和测试集

    取30%作为训练数据,剩余70%作为测试数据,我们将预测这70%客户的流失率;

    设置“流失”数据为统计样本

    3. 贝叶斯训练

    指定“分类列”、“默认概率”、“每个属性的最大标称值数量”

    训练结果

    4.贝叶斯预测

    对70%测试数据进行预测,结果如下:

    5.模型评估

    根据“真实流失”和“预测流失”数据评估模型

    6.数据流

    四、决策树预测客户流失

    1.决策树训练

    参数设置

    训练结果

    2.决策树预测

    对70%测试数据进行预测,结果如下:

    3.模型评估

    根据“真实流失”和“预测流失”数据评估模型

    4.数据流

    五、最近邻预测客户流失

    1.最近邻预测

    参数设置

    2.模型评估

    根据“真实流失”和“预测流失”数据评估模型

    3.数据流

    展开全文
  • 客户流失预测

    2020-08-19 15:23:52
    根据五月数据,对六月客户是否流失做一个预测 五月数据 部分操作举例 五月数据九十万条,74个特征 数据筛选 导入数据,查看缺失值 data5.isnull().sum() 删除其中一列对结果影响并不大的四行缺失值 用众数填充另一...

    根据五月数据,对六月客户是否流失做一个预测

    五月数据 部分操作举例

    五月数据九十万条,74个特征

    数据筛选

    导入数据,查看缺失值

    data5.isnull().sum()
    

    删除其中一列对结果影响并不大的四行缺失值
    用众数填充另一列的缺失值

    data5=data5.dropna(subset=["ZHU_OFFER_ID"])
    #宽带接入方式CONSOLIDATE_CONNET_MODE
    import numpy as np
    from scipy.stats import mode
    print("# Print mode(list):", mode(data5['CONSOLIDATE_CONNET_MODE']))
    print("# CONSOLIDATE_CONNET_MODE中最常见的成员为:{},出现了{}次。".format(mode(data5['CONSOLIDATE_CONNET_MODE'])[0][0], mode(data5['CONSOLIDATE_CONNET_MODE'])[1][0]))
    #把缺失的4730个数据填充为“FTTH接入”
    data5['CONSOLIDATE_CONNET_MODE'] = data5['CONSOLIDATE_CONNET_MODE'].fillna('FTTH接入')
    

    在这里插入图片描述

    #Print mode(list): ModeResult(mode=array([‘FTTH接入’], dtype=object), count=array([852397]))
    #CONSOLIDATE_CONNET_MODE中最常见的成员为:FTTH接入,出现了852397次。

    查看热力图

    plt.figure(figsize=(30, 30), dpi=120)
    sns.heatmap(data5.corr())
    plt.savefig('res.png')
    

    在这里插入图片描述
    对某些列做直方图、箱线图分析,判断是否为可用特征
    (其实是带有人为主观的去判断,不是很准确吧)
    举例:

    #是否二路宽带
    sns.countplot(x='IS_SECOND_KD',hue='IF_FALG',data=data5)
    

    在这里插入图片描述

    #宽带速率
    sns.boxplot(y='CONSOLIDATE_SPEND', x='IF_FALG', data=data5,order=[1,0])
    plt.ylim(0,700)
    

    在这里插入图片描述
    根据热力图进行分析,哪些数据可能会对结果有影响,将相关性太高太低的部分进行散点图绘制,找出某些特征中间的关联,仅保留个别特征。
    绘制散点图,找出关系
    在这里插入图片描述

    数据处理

    删除某些行数过小不会对结果造成太大影响的行

    data5.drop(data5[data5['CONSOLIDATE_CONNET_MODE'] == "PON专线"].index, inplace=True)
    data5.drop(data5[data5['CONSOLIDATE_CONNET_MODE'] == "EOC接入"].index, inplace=True)
    

    独热编码

    data5 = data5.join(pd.get_dummies(data5.CONSOLIDATE_CONNET_MODE))
    data5 = data5.join(pd.get_dummies(data5.BILLING_MODE_ID))
    data5 = data5.join(pd.get_dummies(data5.STATE_NAME))
    data5 = data5.join(pd.get_dummies(data5.COUNTRY_FLAG))
    

    分箱处理

    ONLINE_LEN=list(data5['ONLINE_LEN'])
    ONLINE_LEN_cats=pd.qcut(ONLINE_LEN,3,duplicates="drop")
    ONLINE_LEN_dummies=pd.get_dummies(ONLINE_LEN_cats)
    ONLINE_LEN_dummies
    
    data5["ONLINE_LEN_(3.999, 25.0]"]=ONLINE_LEN_dummies.values[:,0]
    data5["ONLINE_LEN_(25.0, 53.0]"]=ONLINE_LEN_dummies.values[:,1]
    data5["ONLINE_LEN_(53.0, 782.0]"]=ONLINE_LEN_dummies.values[:,2]
    

    建模

    将筛选出的最终的特征提取出来,形成一个单独的表格

    from sklearn.naive_bayes import GaussianNB
    
    from sklearn.discriminant_analysis import LinearDiscriminantAnalysis
    
    from sklearn.tree import DecisionTreeClassifier
    from sklearn.linear_model import LogisticRegression as LR
    from sklearn.metrics import recall_score
    from sklearn.metrics import f1_score
    
    X = feature_5.drop(['IF_FALG'],1)
    y = feature_5['IF_FALG']
    

    将五月数据分为训练集、测试集进行检测

    from sklearn.model_selection import train_test_split
    X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.25, random_state=42)
    
    dtc = DecisionTreeClassifier()
    dtc.fit(X,y)
    y_pred_dtc = dtc.predict(X_test)
    print("决策树模型训练集的正确率:%s" % dtc.score(X,y))
    print("决策树模型测试集的正确率:%s" % dtc.score(X_test,y_test))
    
    # pred_array = np.array(dtc.predict_proba(features_test))
    # pred_array
    
    r_dtc = recall_score(y_test, y_pred_dtc, average='binary')
    print("决策树模型的召回率:%s" % r_dtc)
    f1score_dtc = f1_score(y_test, y_pred_dtc, average='binary')
    print("决策树模型的f1值:%s" % f1score_dtc)
    

    结果:
    决策树模型训练集的正确率:0.9854719499671242
    决策树模型测试集的正确率:0.9853323422951915
    决策树模型的召回率:0.9479498152821976
    决策树模型的f1值:0.9395471930683199

    from sklearn.ensemble import RandomForestClassifier     #随机森林
    forest = RandomForestClassifier(n_estimators=1000, random_state=0, n_jobs=-1)
    forest.fit(X_train, y_train)
    
    y_pred_forest = forest.predict(X_test)
    print("随机森林算法训练集评分:%s" % forest.score(X_train,y_train))
    print("随机森林算法测试集评分:%s" % forest.score(X_test,y_test))
    pred_array = np.array(forest.predict_proba(X_test))
    pred_array
    
    #print(accuracy_score(y_test,y_pred_forest),roc_auc_score(y_test,y_pred_forest))
    print("随机森林模型的召回率:%s" % recall_score(y_test,y_pred_forest),"随机森林模型的f1值:%s" % f1_score(y_test,y_pred_forest))
    

    结果:
    随机森林算法训练集评分:0.985750119848529
    随机森林算法测试集评分:0.9821305267602288
    随机森林模型的召回率:0.9377811917041589 随机森林模型的f1值:0.9265798080919424

    六月

    六月份数据太过庞大,因此进行了数据拆分,仅用了60万数据
    选择的特征和五月完全一致,处理方式基本相同
    将六月的处理后的特征提取出来
    进行预测

    X = feature_5.drop(['IF_FALG'],1)
    y = feature_5['IF_FALG']
    X_test_6 = feature_6.drop([ 'BILLING_ARRIVE_FLAG'],1)
    y_test_6 = feature_6['BILLING_ARRIVE_FLAG']
    
    dtc = DecisionTreeClassifier()
    dtc.fit(X,y)
    y_pred_dtc = dtc.predict(X_test_6)
    print("决策树模型训练集的正确率:%s" % dtc.score(X,y))
    print("决策树模型测试集的正确率:%s" % dtc.score(X_test_6,y_test_6))
    
    # pred_array = np.array(dtc.predict_proba(features_test))
    # pred_array
    
    r_dtc = recall_score(y_test_6, y_pred_dtc, average='binary')
    print("决策树模型的召回率:%s" % r_dtc)
    f1score_dtc = f1_score(y_test_6, y_pred_dtc, average='binary')
    print("决策树模型的f1值:%s" % f1score_dtc)
    

    结果:
    决策树模型训练集的正确率:0.9854719499671242
    决策树模型测试集的正确率:0.9870322310729746
    决策树模型的召回率:0.8396955786421841
    决策树模型的f1值:0.641177013190665

    from sklearn.metrics import classification_report
    
    print(classification_report(y_test_6, y_pred_dtc))
    

    在这里插入图片描述

    from sklearn.ensemble import RandomForestClassifier     #随机森林
    forest = RandomForestClassifier(n_estimators=1000, random_state=0, n_jobs=-1)
    forest.fit(X_train, y_train)
    
    y_pred_forest = forest.predict(X_test_6)
    print("随机森林算法训练集评分:%s" % forest.score(X_train,y_train))
    print("随机森林算法测试集评分:%s" % forest.score(X_test_6,y_test_6))
    # pred_array = np.array(forest.predict_proba(X_test_6))
    # pred_array
    
    #print(accuracy_score(y_test_6,y_pred_forest),roc_auc_score(y_test_6,y_pred_forest))
    print("随机森林模型的召回率:%s" % recall_score(y_test_6,y_pred_forest),"随机森林模型的f1值:%s" % f1_score(y_test_6,y_pred_forest))
    

    结果:
    随机森林算法训练集评分:0.985750119848529
    随机森林算法测试集评分:0.9869738927808864
    随机森林模型的召回率:0.852017395506161 随机森林模型的f1值:0.6434925413986587

    print(classification_report(y_test_6, y_pred_forest))
    

    在这里插入图片描述

    查看所选特征的相关性

    #互信息法及特征相关性
    plt.figure(figsize=(50,50))
    sns.heatmap(feature_6.corr(),annot=True,cmap='CMRmap_r')
    

    在这里插入图片描述
    小结:对特征的处理方式问题,导致结果并不是非常的好,加入的人为主观因素过多。特征处理其实还有很多种方法,后面也会再仔细想一想,面对特征时应该要发散思维想到更多直接的处理方式。有些简单粗暴的处理方式可能会更好。还是对业务数据的不熟练。建模也只是那些很普遍的建模方式,并没有根据实际的数据特征去思考最佳的建模方案。

    展开全文
  • 现在银行产品同众化现象普遍存在,客户选择产品和服务的途径越来越多,客户对产品的忠诚度越来越低,所以客户流失已经成为银行业最关注的问题之一。而获得新客的成本远高于维护老客户成本。因此,从海量客户交易数据...

    现在银行产品同众化现象普遍存在,客户选择产品和服务的途径越来越多,客户对产品的忠诚度越来越低,所以客户流失已经成为银行业最关注的问题之一。而获得新客的成本远高于维护老客户成本。因此,从海量客户交易数据中挖掘出对流失有影响的信息,建立高效的客户流失预警体系,提前做好营销挽留,降低流失风险尤为重要。

    这里提到了数据挖掘,那什么是数据挖掘呢?其实就是从大量的数据中去发现有用的信息,根据这些信息来辅助决策。数据挖掘揭示的是未知的、将来的数据关系,主要的作用就是预测,采用计算机技术、统计学、模型算法等。

    模型算法有分类算法、回归算法、聚类算法等,每种算法类型又包含多种不同的算法,例如分类算法,就包含逻辑回归、朴素贝叶斯、决策树等,使用的编程语言有Java语言、Python,大家听了是不是觉得很专业、很复杂?今天给大家推荐一款简单易用的工具——Smartbi Mining,是由Smartbi推出的独立产品,旨在为个人、团队、企业所做的决策提供预测性分析。

    Smartbi Mining具有流程化、可视化的建模界面,内置实用的、经典的统计挖掘算法和深度学习算法,并支持Python扩展算法,基于分布式云计算,可以将模型发送到Smartbi统一平台,与BI平台完美整合。

    简单拖拉拽就可轻松完成预测,实在是太方便。下面我们就看看银行零售客户流失是如何进行预测的吧。

    我们先了解一下数据的流程。数据挖掘有一套标准的流程,可以对数据进行各种科学的处理和预测,从而发现数据本身隐藏的规律。具体流程如下:

    第一步:业务理解。明确目标,明确分析需求。

    第二步:数据准备。收集原始数据、检验数据质量、整合数据、格式化数据。

    第三步:建立模型。选择建模技术、参数调优、生成测试计划、构建模型。

    第四步:评估模型。对模型进行全面的评估,评估结果、重审过程。

    数据准备

    业务理解这里不再多说。数据准备,初步判断客户可能会流失的情况,如银行卡交易量逐月下降等,对跟这些情况有关的数据进行采集、格式化。如下为本次示例中整理的数据表字段。
    在这里插入图片描述

    建立模型

    客户是否流失,是一个分类问题,所以选择分类算法建立模型进行训练。

    1. 选择数据源。本次使用的是已准备好的示例数据源中的“银行零售客户数据”。
      在这里插入图片描述

    2. 数据处理。

    ❶数据字段名不是很清晰,可以通过预处理在”元数据编辑”节点修改。
    在这里插入图片描述

    点击最下方的“运行”按钮,再通过节点右击选择“查看输出”可以运行看一下结果情况。

    在这里插入图片描述
    在这里插入图片描述

    ❷“特征离散”。

    现在开始对数据的处理,如对年龄上总资产数据来说是要进行离散的;就拿年龄来说如果其他特征都相同,年龄20岁还是40岁对预测影响比较大的,而20岁还是21岁影响不大,为了提前减少预测误差,需要对数据按照范围重新划分。

    数据划分使用的是“特征工程下”的“特征离散”。

    这里离散方法为等距离散,离散区间为10,离散特征列后缀名为Buckerizer可更改。

    选择的特征列有:年龄、月均代发、最大代发、AUM月均、AUM月初。
    在这里插入图片描述

    查看一下执行结果:可以看到新增加了5列,即是对原数据进行的离散操作。数据处理到这里就完成了。
    在这里插入图片描述

    1. 算法模型。

    这里需要说明的是,目前算法必须要有特征输入的过程。特征有2种途径,1种是特征选择,1种是卡方特征选择。两种的区别是如果已经知道哪种特效影响比较大,直接选择即可;如果不确定可以将字段列选择后,再设置可能影响的列的数量。

    拖动节点进行特征选择。

    在这里插入图片描述

    “特征选择”,除去离散前的原字段、不必要的字段(如编码等)还有作为预测输出的字段(连续三个月AUM小于1000),所有的字段都可以选择来参与算法预测(此案例中共计16列);“卡方特征选择”,同上选择16列后,比如我们认为有影响的特征只有8个可以设置。

    在这里插入图片描述

    客户是否流失,是一个分类问题,所以选择分类算法建立模型进行训练。

    选择算法节点:分类算法-逻辑回归。

    算法节点需要进行训练和验证的过程,需要先进行数据的拆分,拆分成训练数据集合测试数据集。拆分后可以对逻辑回归算法训练,模型算法训练好之后需要进行校验。

    评估模型

    选择数据预测节点左侧连接训练模型,右侧连接拆分的测试数据集。在通过评估节点进行算法预测的评估。
    在这里插入图片描述

    查看一下评估节点的分析结果,3万条数据中预测错误的仅有4834个。

    在这里插入图片描述
    在这里插入图片描述

    主要看加权F1值(对精确率和召回率综合考评的结果),这里是0.8445还是不错的。
    在这里插入图片描述

    如果不满意预测结果,我们还可以更改模型参数等。当然还可以查看卡方特征选择下的预测情况。这个就是运行,不断调优的过程了。

    在这里插入图片描述

    以上就是银行零售客户流失预测案例分享。

    Smartbi Mining通过提供基于Web的可视化的界面,数据挖掘的每一步流程通过功能点的拖动和参数(属性)配置即可实现。


    (我是分割线)

    Smartbi Mining 数据挖掘包括3个大的模块:
    在这里插入图片描述

    (1)机器学习:主要是建立和管理项目,是数据挖掘的主题功能

    (2)模型管理:模型管理是针对机器学习里面的模型保存功能进行模型管理。模型保存功能是将已经训练好的模型进行保存,下次有相同案例的时候可以直接使用模型,不用重复训练;主要是用于大数据量或者训练时间比较久的模型。

    (3)服务管理:与模型管理功能类似,也是针对已经训练好的模型。不同之处是在模型里以服务的方式进行发布,方便第三方使用。

    现在主要介绍机器学习功能。
    在这里插入图片描述

    点击进入机器学习页面可以看到有两个列表:一个是实验项目一个是案例项目。

    实验项目:展示目前存在的所有项目

    案例项目:系统内置案例,主要用于产品学习。

    比如聚类功能如何在产品上实现,可以查看“深圳企业信息聚类”这个案例。

    点击创建项目可以基于示例模型进行学习修改,如需保存,点击另存为。

    点击机器学习管理界面右上角“创建机器学习项目”,可以通过示例数据源学习数据挖掘的流程和操作(创建文件目录设置名称)。操作界面如下:

    最左侧是节点树:包含了已经开发好的所有节点。中间是主要实现区域,将节点之间拖拽过来即可。右侧是节点的参数配置和属性配置。

    在这里插入图片描述

    展开全文
  • 为什么做客户流失模型分析?1、企业再发展新用户成本很高2、客户的流失会给企业造成很大的损失,一个老客户的价值相当于三个新客户的价值3、客户的流失不仅给企业带来经济上的损失,同时也给企业的名誉和口碑造成...

    为什么做客户流失模型分析?

    1、企业再发展新用户成本很高

    2、客户的流失会给企业造成很大的损失,一个老客户的价值相当于三个新客户的价值

    3、客户的流失不仅给企业带来经济上的损失,同时也给企业的名誉和口碑造成伤害

    三步快速客户流失模型分析!

    1、使用Python分析并处理客户流失数据集

    2、选用逻辑斯蒂回归(logistic regression)简单建模

    3、最后使用拟合模型来进行客户流失预测

    案例参考Clinton W. Brownley《Foundations for Analytics with Python》

    数据地址https://raw.githubusercontent.com/EricChiang/churn/master/data/churn.csv

    处理客户流失数据集

    客户流失数据集是一个记录电信公司现有的和曾经的客户的数据文件,有1个输出变量和20个输入变量。

    输出变量是一个布尔型变量,表示客户是否已经流失。

    输入变量是客户的电话计划和通话行为的特征,包括状态、账户时间、区号、电话号码、是否有国际通话计划、是否有语音信箱、语音信箱消息数量、白天通话时长、白天通话次数、白天通话费用、傍晚通话时长、傍晚通话次数、傍晚通话费用、夜间通话时长、夜间通话次数、夜间通话费用、国际通话时长、国际通话次数、国际通话费用和客户服务通话次数。

    创建一个新列churn01,并使用numpy的where函数根据churn这一列中的值用1或0来填充它。churn这一列中的值不是True就是False,所以如果churn中的值是True,那么churn01中的值就是1,如果churn中的值是False,那么churn01中的值就是 0。

    输出处理好的数据:

    选用逻辑斯蒂回归简单建模

    在这个数据集中,因变量是一个二值变量,表示客户是否已经流失。因变量是一个二值变量,所以需要将预测值限制在0和1之间,逻辑斯蒂回归可以满足这个要求。逻辑斯蒂回归通过使用逻辑函数(或称逻辑斯蒂函数)的反函数估计概率的方式来测量自变量和二值型因变量之间的关系。

    对客户服务通话次数这部分数据进行了摘要分析,先按照一个新变量 total_charges 中的值使用等宽分箱法将数据分成 5 个组,然后为每个分组计算 5 个统计量:总数、最小值、均值、最大值和标准差。创建一个新变量total_charges,表示白天、傍晚、夜间和国际通话费用的总和。

    churn['total_charges'] = churn['day_charge'] + churn['eve_charge'] + \churn['night_charge'] + churn['intl_charge']dependent_variable = churn['churn01']independent_variables = churn[['account_length', 'custserv_calls', 'total_charges']]independent_variables_with_constant = sm.add_constant(independent_variables, prepend=True)logit_model = sm.Logit(dependent_variable, independent_variables_with_constant).fit()print(logit_model.summary2())# print("\nQuantities you can extract from the result:\n%s" % dir(logit_model))print("\nCoefficients:\n%s" % logit_model.params)print("\nCoefficient Std Errors:\n%s" % logit_model.bse)

    建模结果如下:

    new_observations = churn.loc[churn.index.isin(range(16)), independent_variables.columns]new_observations_with_constant = sm.add_constant(new_observations, prepend=True)y_predicted = logit_model.predict(new_observations_with_constant)y_predicted_rounded = [round(score, 2) for score in y_predicted]print(y_predicted_rounded)

    预测结果如下:

    变量 y_predicted中包含着16个预测值。为了使输出更简单易懂,可以将预测值保留两位小数。

    展开全文
  • 现在银行产品同众化现象普遍存在,客户选择产品和服务的途径越来越多,客户对产品的忠诚度越来越低,所以客户流失已经成为银行业最关注的问题之一。而获得新客的成本远高于维护老客户成本。因此,从海量客户交易数据...
  • 业务部门希望数据部门能对流失用户分析,找到流失用户的典型特征,例如:到底流失用户的哪些特征最显著,当客户在哪些特征的什么条件下比较容易发生流失行为,并送到业务部门。 分析: 1.这是关于特征提取的分析...
  • 我们通过客户分群和终生价值的预测得到了我们的最好的客户,对于这部分的客户,我们需要全力的留住他们,那么具体应该怎么呢。 前文回顾: 用机器学习来提升你的用户增长:第一步,了解你的目标 用机器学习来...
  • 关注一下~,更多商业数据分析案例等你来撩前言利用逻辑回归进行客户流失预警建模中涵盖了许多比较细的知识点,思维导图只展示了极小的一部分,相关知识点链接将穿插在文中。(源数据源代码空降文末获取)数据读入数据...
  • 贷中策略除了跟调额、营销相关外,与客户流失相关及营销相关的还有一个客户流失预测模型,是我们全流程中必不可少的一个客群分析。 目前,银行都面临着极大的优质客户流失的危险。这将对银行经营和效益产生极大的...
  • KaramanFollow编译:ronghuaiyang正文共:8484 字 13 图预计阅读时间:25 分钟导读我们通过客户分群和终生价值的预测得到了我们的最好的客户,对于这部分的客户,我们需要全力的留住他们,那么具体应该怎么呢。...
  • 为什么80%的码农都不了架构师?>>> ...
  • 1. 项目背景在电信用户运营中如何有效预测用户流失,了解潜在流失用户的流失概率,对...根据提出的问题可以对用户数据如下分析,本文只进行用户流失预测模型3. 理解数据以下是数据指标的内容和含义4. 数据清洗4....
  • 客户流失率很难预测。在你能一些事情来阻止客户离开之前,你需要知道,谁将离开,什么时候离开,这将在多大程度上影响你的业务。在这篇文章中,我将解释使用生存分析来预测和预防流失的技术。客户会不会流失许多...
  • 航空公司客户流失分析

    千次阅读 2019-07-27 09:47:01
    背景与分析方法 本文是接着航空公司客户价值分析,这是拓展思考的部分,这里简单的将它了一下。...客户流失分析针对老客户进行分析预测,这里的老客户定义为飞行次数大于6次的客户。用航空公司客户信息数据来进行...
  • 业务部门希望数据部门能对流失用户分析,找到流失用户的典型特征.例如 1.流失用户的的哪些特征最显著 2.当客户在哪些特征的什么条件下比较容易发生流失行为 基于此目的,业务部门就能针对这些客户的典型特征做出有...
  • 客户流失率很难预测。在你能一些事情来阻止客户离开之前,你需要知道,谁将离开,什么时候离开,这将在多大程度上影响你的业务。在这篇文章中,我将解释使用生存分析来预测和预防流失的技术。客户会不会流失许多...
  • 一、流失预测意义 每个企业都渴望建立和保持一个忠实的客户群,而事实是由于各方面原因不可避免的会流失一些用户。 如果我们根据用户的活跃度及消费情况,判断用户的流失意向,及时对有流失趋向的用户营销召回,这...
  • 预测客户流失 作者:米格尔·桑塔纳(Miguel Santana) 业务问题: 叙利亚电信是一家电信公司,旨在改善客户流失率。 该公司提供了客户数据,以便更好地了解消费者是否会停止与该公司开展业务。 OSEMN框架将用于...
  • 一、背景和目标 用户运营是CRM运营中重中之重的一项工作,在人工智能时代...本次探索一下利用AI来预测用户流失。 二、数据采集和准备 数据采集分为几个模块:用户基本信息、消费产品偏好、消费渠道偏好、LBS信息...
  • 数据科学 案例5 神经网络之电信客户流失1、导入数据和数据清洗2、神经网络2.1 划分训练集和测试集2.2 极差标准化(神经网络一定要)2.3 调用神经网络包3、预测3.1 预测分类标签3.1 预测概率4、验证4.1 平均精度4.2 ...
  • 客户行为的分析有助于提供企业的市场竞争和利润扩大能力,不管是什么样的企业抓住客户才是最重要的事情,对客户进行分析主要从客户的满意忠诚度,客户的反馈,流失预测,重复消费次数等进行分析,只要能保证客户能...
  • 1用户流失预测分析 简单介绍下使用的基本场景是:业务部门希望数据部门能对流失用户分析,找到流失用户的典型特征。 · 当客户在哪些特征的什么条件下比较容易发生流失行为 · 到底流失客户的哪些特性最显著 · ...
  • 一,做流失预测的用处: •1.管理流失,提升留存/活跃率: ①精确了解客户流失情况 ②分析流失和活跃客户特征 ③预测可能流失客户 ④制定相对应的个别或整体运营策略---尤其针对“高价值又即将流失”的宝贵...
  • 本文聊聊arima模型。ARIMA是一种比较常用的基于历史数据来做预测的时间序列模型。时间序列在商业中有很多应用,比如它可以解释销售中的季节性规律;可以预测新客或流失客户...
  • 31机器学习项目实战-用户流失预警 1.数据简单介绍 挽留一个老客户的费用<扩展一个新用户费用,所以通过预测给部分老用户大礼包让其留下来。 这里使用的数据为一个国外的电信商数据: 这个小项目没特征工程,...
  • 现在,该银行近来一直在经历快速的客户流失。 这意味着客户以异常高的速度离开银行,管理层希望找出问题所在,以及如何才能留住客户。 我使用称为Gretl的软件工具完成了该项目的原型。 但是在这里,我将使用...
  • 基本上所有的机器学习领域都可以看到集成学习的身影,在现实中集成学习也有相当大的作用,它可以用来市场营销模拟的建模,统计客户来源,保留和流失,也可用来预测疾病的风险和病患者的易感性。在现在的各种算法...
  • 基本上所有的机器学习领域都可以看到集成学习的身影,在现实中集成学习也有相当大的作用,它可以用来市场营销模拟的建模,统计客户来源,保留和流失,也可用来预测疾病的风险和病患者的易感性。在现在的各种算法...
  • 用于:客户流失预测、欺诈检测等。 算法思想:近朱者赤近墨者黑!步骤: 1. 算距离、计算新数据和训练数据之间的距离 2. 去排序、对算出来的距离进行排序 3. 找邻居、确定最近的K个训练对象 4. 分类、根据K个...

空空如也

空空如也

1 2 3 4 5
收藏数 93
精华内容 37
关键字:

做客户流失预测