精华内容
下载资源
问答
  • 用户分析(AARRR)

    千次阅读 2018-10-12 14:55:16
    AARRR模型:用户分析模型,反应出不同阶段中用户参与行为的深度和类型,是一个典型的漏斗结构。用户被导入第一层之后,会在接下来的步骤中层层流失,最终实现转化。 AARRR模型描述了用户/客户/访客需经历的五个环节...

    AARRR模型:用户分析模型,反应出不同阶段中用户参与行为的深度和类型,是一个典型的漏斗结构。用户被导入第一层之后,会在接下来的步骤中层层流失,最终实现转化。

    AARRR模型描述了用户/客户/访客需经历的五个环节,以便企业获取价值。价值不仅直接源于客户购买行为(获取营收),还来自客户作为推销者(自传播)和内容产生者(留存率)所带来的营收。

    AARRR模型,对于成熟产品,获取新用户基本没有问题或已经饱和,提高留存和转化率是关键。

    过程 相关数据指标 备注
    获取用户(Acquisition)

    (1)下载量,安装量,激活量

    (2)CAC,用户获取成本

    评估渠道质量:细分渠道统计
    提高活跃度(Activation)

    (1)DAU,日活跃用户

    (2)MAU,月活跃用户

    (指定周期内有启动的用户或满足其他条件)。

    (3)平均使用时长

    (4)每日平均启动次数

    评估渠道质量:细分渠道统计

    Add:一次性启动用户数量(迄今为止只启动过一次的用户的数量)

     

    有助于不断改进应用:细分版本统计

    (1)平均使用时长

    (2)每日平均启动次数

    提高留存率(Retention)

    (1)首日留存率(安装次日,D+1日)

    (2)周留存率(D+7日启动使用这款应用的占D日首次安装使用这款应用的用户总数的百分比)

    条件可以自定义,比如对于微博而言,一个月未登陆可能就属于流失用户,而对于电商网站而言,3个月或半年未购买才被认定为流失用户

    评估渠道质量:细分渠道统计

     

    衡量用户黏性最重要的KPI(关键绩效指标)就是客户留存率。同时,流失率和使用频率也是非常重要的指标。

     

    作用:

    (1)通过留存率等指标监控用户流失情况,并采取相应的手段在用户流失之前,激励这些用户继续使用。

    (2)通过时间维度上的用户留存率,确定流失期、过渡期、稳定期,分析产品的优化方向。

    增加收入(Revenue)

    (1)APA,活跃付费用户数

    (2)ARPU,平均每用户收入

    (3)ARPPU,平均每付费用户收入

    找到一个ARPPU和付费用户比例的平衡点,才能最大化收入。

    (4)每用户利润:LTV – CAC

    (5)用户盈亏平衡时间,收回获取一位用户的成本所需的时间。

     

    LTV:生命周期价值。某个用户在生命周期内为该应用创造的收入总计,可以看成是一个长期累计的ARPU值。

    评估渠道质量:细分渠道统计

     

    提高活跃度、提高留存率是基础。

    传播分享(Refer)

    (1)K因子

    K = (每个用户向他的朋友们发出的邀请的数量) * (接收到邀请的人转化为新用户的转化率)

    当K>1时,用户群就会象滚雪球一样增大。

    如果K<1的话,那么用户群到某个规模时就会停止通过自传播增长。

    能够减少CAC

     

    • AARRR模型在电商营销活动中的应用

    1、获取用户

    (1)锁定站内资源

    a. 根据成交目标及转化率,反推所需要的流量缺口,并结合每个资源位的ROI进行综合评估,确定活动的资源位及排期。

    b. 与其他同期活动合作互推

    (2)异业合作

    整合一切可利用的资源,优势互补,将营销活动渗透到站外的用户群。

    (3)老用户,邀请新用户获得奖励

    2、提示活跃度

    (1)促销+噱头

    新用户专属福利,优惠券,限时低价,秒杀

    (2)精准推荐

    猜你喜欢,购买了该产品的用户还买了

    3、提升用户留存

    用户留存主要考察回访率。做出一定的动作来增加回访的机会。

    大型促销活动基本都会划分为三个阶段,预热期,正式期和高潮期。用“促销日历”类型的方式呈现给用户,并设置预约按钮,让用户定期回流。

    4、增加收入

    (1)优惠券:精准发放,根据用户购买属性圈定偏好品类,定向发放优惠券;券的使用门槛需要比客单价高一点点,这样既可以提升优惠券的使用率,也可以提升客单价。

    (2)满减策略:增加参与活动的品类;设置阶梯式满减

    (3)货品策略:一档营销活动是由引流款、爆款和常规款组成的。

    (4)前置加车策略:引导用户加车,一方面是为了促成转化,另一方面,购物车里的东西代表用户的购买意愿非常强烈,加车后可以精准地针对这部分商品做精细化运营,打破用户购买决策的最后一道防线。

    5、传播分享

    因为用户多是分享在社交媒体,熟人之间的信任关系会让活动获取更多的新用户,如老带新、团长免单等。为了在引导用户传播的同时提升被传方的转化率,应当考虑双方均获得奖励。

     

    展开全文
  • 银行流失用户分析及预测模型

    万次阅读 多人点赞 2018-08-24 22:20:08
    0.引言-银行流失用户分析 银行客户流失是指银行的客户终止在该行的所有业务,并销号。但在实际运营中,对于具体业务部门,银行客户流失可以定位为特定的业务终止行为。 商业银行的客户流失较为严重,流失率可达20%...

    自学的一个银行流失客户预警的小项目

    0.引言-银行流失用户分析

    银行客户流失是指银行的客户终止在该行的所有业务,并销号。但在实际运营中,对于具体业务部门,银行客户流失可以定位为特定的业务终止行为。

    商业银行的客户流失较为严重,流失率可达20%。而获得新客的成本是维护老客户的5倍。因此,从海量客户交易数据中挖掘出对流失有影响的信息,建立高效的客户流失预警体系尤为重要。

    客户流失的主要原因有:价格流失、产品流失、服务流失、市场流失、促销流失、技术流失、政治流失。有些时候表面上是价格导致的客户流失,但实际上多重因素共同作用导致了客户的流失。比如说,不现实的利润目标、价格结构的不合理、业务流程过于复杂、组织结构的不合理等等。

    维护客户关系的基本方法:追踪制度,产品跟进,扩大销售,维护访问,机制维护。

    因此建立量化模型,合理预测客群的流失风险是很有必要的。比如:常用的风险因子,客户持有的产品数量、种类,客户的年龄、性别,地理区域的影响,产品类别的影响,交易的时间间隔,促销的手段等等。根据这些因素及客户流失的历史数据对现有客户进行流失预测,针对不同的客群提供不同的维护手段,从而降低客户的流失率。

    1. 数据初探索

    1.1银行客户数据变量含义统计:

    从业务水平上判定用户是否为流失客户

    CUST_ID

    用户ID

    OPEN_ACC_DUR

    开户时长

    AGE

    年龄

    GENDER_CD

    性别

    HASNT_HOME_ADDRESS_INF

    家庭住址

    HASNT_MOBILE_TEL_NUM_INF

    电话信息

    LOCAL_CUR_SAV_SLOPE

    本币活期储蓄波动率

    LOCAL_CUR_MON_AVG_BAL

    本币活期月均余额

    LOCAL_CUR_MON_AVG_BAL_PROP

    本币活期月均月占比

    LOCAL_CUR_ACCT(account)_NUM

    本币活期帐户数

    LOCAL_OVEONEYR_FF_MON_AVG_BAL

    本币一年以上整整季日均余额

    LOCAL_FIX_MON_AVG_BAL

    本币定期月均余额

    LOCAL_FIX_MON_AVG_BAL_PROP

    本币定期月均余额比例

    LOCAL_BELONEYR_FF_SLOPE

    本币一年以下整整波动率

    LOCAL_BELONEYR_FF_MON_AVG_BAL

    本币一年以下整整季日均余额

    LOCAL_OVEONEYR_FF_SLOPE

    本币一年以上整整波动率

    LOCAL_SAV_SLOPE

    本币存款波动率

    LOCAL_SAV_CUR_ALL_BAL

    本币活期存款总余额

    LOCAL_SAV_MON_AVG_BAL

    本币存款月均余额

    SAV_SLOPE

    存款波动率

    SAV_CUR_ALL_BAL

    活期存款总余额

    SAV_MON_AVG_BAL

    存款月均余额

    FR_SAV_CUR_ALL_BAL

     

    ASSET_CUR_ALL_BAL

    活期资产总余额

    ASSET_MON_AVG_BAL

    资产月均余额

    LOCAL_CUR_TRANS_TX_AMT

    本币活期转账交易笔数

    LOCAL_CUR_TRANS_TX_NUM

    本币活期转账交易总数

    LOCAL_CUR_LASTSAV_TX_AMT

    本币活期续存交易金额

    LOCAL_CUR_LASTSAV_TX_NUM

    本币活期续存交易笔数

    LOCAL_CUR_WITHDRAW_TX_AMT

    本币活期存款金额

    LOCAL_CUR_WITHDRAW_TX_NUM

    本币活期存款笔数

    LOCAL_FIX_OPEN_ACC_TX_NUM        

    本币定期开户交易笔数

    LOCAL_FIX_OPEN_ACC_TX_AMT

    本币定期开户交易金额

    LOCAL_FIX_WITHDRAW_TX_NUM      

    本币定期存款交易笔数

    LOCAL_FIX_WITHDRAW_TX_AMT       

    本币定期存款交易金额

    LOCAL_FIX_CLOSE_ACC_TX_NUM     

    本币定期销户笔数

    LOCAL_FIX_CLOSE_ACC_TX_AMT      

    本币定期销户总金额

    L6M_INDFINA_ALL_TX_NUM

    最近六个月个人理财总交易数目

    L6M_INDFINA_ALL_TX_AMT

    最近六个月个人理财总交易金额

    POS_CONSUME_TX_AMT

    客户POS财务类交易总金额

    POS_CONSUME_TX_NUM

    客户POS交易总数目

    ATM_ACCT_TX_NUM

    ATM交易总数目

    ATM_ACCT_TX_AMT

    AMT交易总金额

    ATM_NOT_ACCT_TX_NUM     

    ATM非财务类交易数目

    ATM_ALL_TX_NUM  

    ATM总交易数目

    COUNTER_NOT_ACCT_TX_NUM  

    柜面非财务交易数目

    COUNTER_ACCT_TX_AMT     

    柜面财务交易总金额

    COUNTER_ACCT_TX_NUM     

    柜面财务交易总数目

    COUNTER_ALL_TX_NUM

    柜面总交易数目

    NAT_DEBT_OPEN_ACC_DUR 

    国债开户时长

    FINA_OPEN_ACC_DUR     

    委托理财开户时长

    FUND_OPEN_ACC_DUR   

    代理基金开户时长

    TELEBANK_ALL_TX_NUM     

    手机银行交易总数

    CHURN_CUST_IND

    流失客户

    1.2数据统计性初探

    1.2.1单因子分析

    #导包(基于python3):
    import pandas as pd
    import numbers
    import numpy as np
    import matplotlib.pyplot as plt
    import random
    from statsmodels.formula.api import ols
    from statsmodels.stats.anova import anova_lm#方差分析应用
    from scipy.stats import chisquare
    #读取数据:
    bankChurn = pd.read_csv(r'/path/bankChurn.csv', header = 0)
    externalData = pd.read_csv(r'/path/ExternalData.csv',header = 0)
    
    #基于CUST_ID变量字段,连接两个表
    AllData = pd.merge(bankChurn, externalData, on ='CUST_ID')
    
    #构建数值型统计探索函数,其主要功能为作图描述各个变量的分布特性,确定离群值,函数输入参数如下:
    def NumVarTracker(df, col, Target, filepath,):
        ‘‘‘
        :param df: the dataset containing numerical independent variable and dependent       variable样本集
        :param col: independent variable with numerical type变量
        :param target: dependent variable, class of 0-1目标
        :param filepath: the location where we save the histogram图片存储路径
        :param truncation: indication whether we need to do some truncation for outliers判断是否需要剔除离群值
        :return: the descriptive statistics
        ’’’
    
        #数据初步筛除空值(空值具有自己不与自己相等的属性)
        # extract target variable and specific indepedent variable
        validDf = df.loc[df[col] == df[col]][[col,target]]
    	
        #统计非空值占比:
        validRcd = validDf.shape[0]*1.0/df.shape[0]
        validRcdFmt = "%.2f%%"%(validRcd*100)
    
        #数值型数据统计性描述:
        descStats = validDf[col].describe()
        mu = "%.2e" % descStats['mean']
        std = "%.2e" % descStats['std']
        maxVal = "%.2e" % descStats['max']
        minVal = "%.2e" % descStats['min']
    
        #各变量用户流失分布情况:
        x = validDf.loc[validDf[target]==1][col]
        y = validDf.loc[validDf[target]==0][col]
        xweights = 100.0 * np.ones_like(x) / x.size
        yweights = 100.0 * np.ones_like(y) / y.size
    
        #判断是否需要剔除离群值(离群值基于0.95分位点进行剔除):
        if truncation == True:
            pcnt95 = np.percentile(validDf[col],95)
            x = x.map(lambda x: min(x,pcnt95))
            y = y.map(lambda x: min(x,pcnt95))
    
        #数据可视化探索数据:
        fig, ax = plt.subplots()
        ax.hist(x, weights=xweights, alpha=0.5,label='Attrition')#直方图
        ax.hist(y, weights=yweights, alpha=0.5,label='Retained')#直方图
        titleText = 'Histogram of '+ col +'\n'+'valid 
        pcnt ='+validRcdFmt+', Mean ='+mu+ ',  Std='+std+'\n max='+maxVal+', min='+minVal	
        #变量指标
        ax.set(title = titleText, ylabel = '% of Dataset in Bin')
        ax.margins(0.05)
        ax.set_ylim(bottom=0)
        plt.legend(loc='upper right')
        figSavePath = filepath+str(col)+'.png'
        plt.savefig(figSavePath)
        plt.close(1)#画图后图片不打开
    

     

    可视化初步探索:

    可视化图表判断某变量下,流失客户与非流失客户的分布情况,以ASSET_MON_AVG_BAL资产月均余额为例,该变量为行尾变量:

    图1. 客户ASSET_MON_AVG_BAL变量下客户流失情况分布

    可以看出,资产水平较低的客户流失率明显高于高资产水平客户的流失率。同时在图表上方可以看到该特征数据样本的缺失率,均值与标准差。

    图2. 客户Age变量下客户流失情况分布

    由图2,可以看出,低年龄客户的用户流失率更高。

    这种分布类型的特征样本其方差过大,使得数据学习容易发生过拟合:

    图3.本币活期转账交易金额变量下的客户流失情况分析

    2)字符型变量数据

    #数据与变量输入:
    def CharVarPerf(df,col,target,filepath):
        '''
    :param df: the dataset containing numerical independent variable and dependent variable
        :param col: independent variable with numerical type
        :param target: dependent variable, class of 0-1
        :param filepath: the location where we save the histogram
        :return: the descriptive statistics
    '''
    #初步筛除空值:
    validDf = df.loc[df[col] == df[col]][[col, target]]
    validRcd = validDf.shape[0]*1.0/df.shape[0]
    recdNum = validDf.shape[0]
    validRcdFmt = "%.2f%%"%(validRcd*100)
    
    #统计类别变量的各个值的分布:
    freqDict = {}
    churnRateDict = {}
    #for each category in the categorical variable, we count the percentage and churn rate(每个值的比例与对应的流失比例)
    for v in set(validDf[col]):
    #统计不同值的个数/collections的Counter函数可计算变量与变量的个数
    vDf = validDf.loc[validDf[col] == v]
    freqDict[v] = vDf.shape[0]*1.0/recdNum #Dataframe
    churnRateDict[v] = sum(vDf[target])*1.0/vDf.shape[0]
    descStats=pd.DataFrame({'percent':freqDict,'churnrate':churn RateDict})
    fig = plt.figure()  # Create matplotlib figure
    ax = fig.add_subplot(111)  # Create matplotlib axes子图
    ax2 = ax.twinx()  # Create another axes that shares the same x-axis as ax.
    plt.title('The percentage and churn rate for '+col+'\n valid pcnt ='+validRcdFmt)
    descStats['churn rate'].plot(kind='line', color='red', ax=ax)
    descStats.percent.plot(kind='bar', color='blue', ax=ax2, width=0.2,position = 1)
    ax.set_ylabel('churn rate')
    ax2.set_ylabel('percentage')
    figSavePath = filepath+str(col)+'.png'
    plt.savefig(figSavePath)
    plt.close(1)
    

    数据可视化结果讨论(举几个变量的例子):

    图5 客户买车比例与流失比例

    对于新买车的用户的流失比例较低,而大多数的客户未向银行透露自己是否买车,而这部分客户流失比例较高。

    图6 性别与流失客户比例的关系

    对于性别变量来说,男性客户2的用户流失比例小于男性客户1,而未知性别的客户对银行的信任度较低,其流失率也较高。

    2.方差检验

    利用方差检验方法,来探究类别变量对于结果是否有较为显著的影响。

            例如:检验ASSET_MON_AVG_BAL与CHURN_CUST_IND之间的差异性

    anova_results=anova_lm(ols('ASSET_MON_AVG_BAL~CHURN_CUST_IND',AllData).fit())

    print(anova_results)

    PR值越小(越接近于0),两组样本之间的差异性越小

     

    1.2.2 多因子分析

    随机抽取8个变量探究变量两两间的关系

    图4.随机抽取8个变量,探究两两之间关系

    由图4可以看出,该图体现了两两变量之间的关系,及两个变量对预测结果的影响情况。本项目变量较多,且变量之间的关系较为复杂,有些变量对预测结果的可解释性影响较大。具体的特征工程还需要进一步的研究与讨论。如果两指标之间有较强的正相关或负相关的关系,则适当的删除冗余特征。

    2. 数据预处理及指标去重

    2.1数据预处理

            对于某些算法,例如lightgbm、xgboost算法,可以将数据空值作为类别或值进行预测,但有些算法无法根据空值进行训练,因此还需要进一步处理,对于缺失比例不大的数据可以应用均值或中值进行填充,如果数据缺失比例较大,应用回归填充或将空值作为一个统一的数值(结合具体的业务)进行填充。类别型变量预处理,则可根据最频繁模式与随机模型进行填补。其中较为特别的是将日期转化为开户持续时长duration:

    import time

    import datetime

    #基准值获取,base为参考基准值

    base2 = time.strptime(base,'%Y/%m/%d')

    base3 = datetime.datetime(base2[0],base2[1],base2[2])

    base4 = time.strptime(str(dateORI),'%m/%d/%Y')#日期字段匹配

    date2 = datetime.datetime(base4[0],base4[1],base4[2])

    daysGap = (date2-base3).days#得当前日期值与初始值之间的差值

     

    2.2指标去重

    1.指标合并

            将本币活期类与定期类指标相加,可以得到总指标(比如将本币活期余额与本币定期余额相加,得到的本币总余额):

    modelData['TOTAL_LOCAL_MON_AVG_BAL'] = modelData['LOCAL_CUR_MON_AVG_BAL','LOCAL_FIX_MON_AVG_BAL'].apply(sum, axis = 1)

           

    2.比例计算

            由月均余额各类指标与年度指标相除,得到各个比例指标(Ratio)

    3. 模型与参数调节

    选择用GBDT进行预测,将所有特征样本输入训练模型会造成非常严重的过拟合,因此需要进行特征选择,

     

    3.1特征选择(和降维的区别是什么???)

    1.方差过滤法

            首先查看所有特征样本的方差:

            由于我想保留OPEN_ACC_DUR字段,因此设置方差过滤阈值为(阈值设定方法较为主观,可以基于具体的统计特征筛选方差/有些金额分布过于悬殊的值,可以设定阈值将其划分为几个等级):100

           

    from sklearn.feature_selection import VarianceThreshold
    varianceThreshold = VarianceThreshold(threshold = 100)
    varianceThreshold.fit_transform(modelData[allFeatures])
    NumV=varianceThreshold.get_support()#大于阈值threshold的特征位置为True,否则为False
    
    SeleFeatures = []#基于方差筛选特征
    for i in range(len(NumV)):
        if NumV[i] == False:
            SeleFeatures.append(allFeatures[i])
    

    2.相关系数法(皮尔逊)

            先计算各个特征对目标值的相关系数,选择更加相关的特征。

    selectKBest = SelectKBest(f_regression,k=15)#找出与客户流失水平相关系数最大的15个特征找出来
    selectKBest.fit_transform(modelData[SeleFeatures],modelData['CHURN_CUST_IND'])#在前十五范围内为True,不在为False
    NumV2 = selectKBest.get_support()
    print(NumV2)
    SeleFeatures2 = []
    for i in range(len(NumV2)):
        if NumV2[i] == True:
            SeleFeatures2.append(SeleFeatures[i])
    print(len(SeleFeatures2))
    print(SeleFeatures2)
    

     

    3.卡方检验

    检验变量对结果影响的显著性与否

    检验性别是否对客户流失具有显著影响。

    探究所筛选出的15个变量是否对客户流失具有显著影响

    卡方检验值越大,拒绝假设的可能性越大

     

    3.2模型选择

            GBDT的介绍:梯度提升决策树

            采用逻辑回归决策树CART Tree进行分类,应用梯度提升方法求解模型参数。

    1. 逻辑回归

    假设有一个二分类问题,输出为y∈{0,1},而线性回归模型产生的预测值为z=wTx+bz=wTx+b是实数值,我们希望有一个理想的阶跃函数来帮我们实现z值到0/1值的转化:

    然而该函数不连续,我们希望有一个单调可微的函数来供我们使用,于是便找到了Sigmoid function来替代。

     

     

    有了Sigmoid fuction之后,由于其取值在[0,1],我们就可以将其视为类11的后验概率估计p(y=1|x)。说白了,就是如果有了一个测试点x,那么就可以用Sigmoid fuctionSigmoid fuction算出来的结果来当做该点x属于类别1的概率大小。于是,非常自然地,我们把Sigmoid fuction计算得到的值大于等于0.5的归为类别1,小于0.5的归为类别0。

    2)梯度下降法

    为确定逻辑回归中z的各参数,需要确定损失函数,使得损失函数最小的各w值。

            损失函数定义(由误差平方和结合最大似然估计法求得)为:(损失函数的选取各不相同)

            而利用梯度下降法,不断迭代求得最低点的wT,此时的wT即为使得损失函数最小的权重值。

            将样本输入即可得出判断目标结果所属的分类结果。

    3.3参数调节

    n_estimators:分类树的个数

    learning rate:每个弱分类器的权重缩减系数v,也称之为步长。

    Subsample:(不放回)抽样率,推荐在[0.5,0.8]之间,默认为1.0

    init:即初始化的弱学习器,多用于对数据有先验知识,且在之前做过一定的拟合的时候

    loss:算法的损失函数

    max_features:划分时考虑的最大特征数

    max_depth:决策树最大深度

    min_samples_split:内部节点再划分所需的最小样本数,默认为2,样本量如果较大,则可以扩大该数。

    min_simples_leaf: 叶子节点最少样本数

    min_weight_fraction_leaf:叶子节点最小的样本权重

    max_leaf_nodes:最大叶子节点数,通过限制最大叶子节点数,可以防止过拟合

    min_impurity_split:节点划分最小不纯度

     

    X_train,X_test,y_train,y_test = train_test_split(modelData[allFeatures2],modelData['CHURN_CUST_IND'],test_size = 0.3,random_state=9)
    gbm0 = GradientBoostingClassifier(max_depth=1,random_state = 1)
    gbm0.fit(X_train,y_train)
    y_pred = gbm0.predict(X_test)
    y_predprob = gbm0.predict_proba(X_test)[:,1]
    
    #参数调节过程:
    ### tunning max_features
    param_test4 = {'max_features':range(5,31,2)}
    gsearch4 = GridSearchCV(estimator = GradientBoostingClassifier(learning_rate=0.1, n_estimators=70,max_depth=9, min_samples_leaf =70,min_samples_split =500, subsample=0.8, random_state=10), param_grid = param_test4, scoring='roc_auc',iid=False, cv=5)
    gsearch4.fit(X_train,y_train)
    gsearch4.grid_scores_, gsearch4.best_params_, gsearch4.best_score_
    
    ## tunning subsample
    param_test5 = {'subsample':[0.6,0.7,0.75,0.8,0.85,0.9]}
    gsearch5 = GridSearchCV(estimator = GradientBoostingClassifier(learning_rate=0.1, n_estimators=70,max_depth=9, min_samples_leaf =70, min_samples_split =500, max_features=28, random_state=10), param_grid = param_test5, scoring='roc_auc',iid=False, cv=5)
    gsearch5.fit(X_train,y_train)
    gsearch5.grid_scores_, gsearch5.best_params_, gsearch5.best_score_
    
    # tunning the learning rate
    gbm2 = GridSearchCV(estimator = GradientBoostingClassifier(learning_rate=0.05, n_estimators=70,max_depth=9, min_samples_leaf =70, min_samples_split =1000, max_features=28, random_state=10,subsample=0.8), param_grid = param_test5, scoring='roc_auc',iid=False, cv=5)
    gbm2.fit(X_train,y_train)
    

     

    针对具体的业务问题,关键在于迭代更新方案(不断优化泛化性能),发现数据的新的特性,最终设计出合适于具体业务的模型。

    展开全文
  • 用户研究是用户中心的设计流程中的第一步。...本篇重点围绕七大用户分析方法论/模型,展开分享几个比较常见的用户运营实际案例。 六大用户分析方法论 1、行为事件分析 2、点击分析模型 3、用户行为路...

     

    用户研究是用户中心的设计流程中的第一步。它是一种理解用户,将他们的目标、需求与商业宗旨相匹配的理想方法,能够帮助企业定义产品的目标用户群。在用户研究过程中,数据的使用及挖掘是非常重要的。那么,有哪些通用的用户分析方法?如何分析你的用户?本篇重点围绕七大用户分析方法论/模型,展开分享几个比较常见的用户运营实际案例。

    六大用户分析方法论

    1、行为事件分析

    2、点击分析模型

    3、用户行为路径分析

    4、用户健康度分析

    5、漏斗模型分析

    6、用户画像分析

    下面一一解析每种方法论的定义及实战案例

    先从最基础的行为事件分析法开始

    01

    行为事件分析

    行为事件分析法主要用于研究某行为事件的发生对企业组织价值的影响以及影响程度。企业借此来追踪或记录用户行为及业务过程,如用户注册、浏览商品详情页、成功下单、退款等,通过研究与事件发生关联的所有因素来挖掘用户行为事件背后的原因、交互影响等。

    行为事件分析法一般经过三大环节:事件定义、多维度下钻分析、解释与结论。

    1、事件定义

    事件定义包括定义所关注的事件及事件窗口的长度,这也是事件分析法最为核心和关键的步骤。事件的定义遵循5W原则:Who、When、Where、What、How。

    5W事件定义方式:

     某X平台的所有注册用户在X月X日使用优惠券下单购买的单数是多少?这是一个完整的时间定义,一般数据人员需要记录的对应字段有:时间、商品名称、商品是否使用优惠券、父单数、购买数量、购买金额等。

    5W

    (Where)某X平台

    (Who)所有注册用户

    (When)在X月X日

    (How)使用优惠券

    (What)下单购买的单数

    在大厂混的我们都多少接触过各种数据报表,Path口径、Session口径等各种口径,我们所熟悉的字段“访问次数”、“浏览深度”、“使用时长”、“停留时长”、“跳出率”、“页面退出率”等指标,都需引入 Session 才能分析。因此,创建和管理 Session 是事件定义的关键步骤。

    这里需要了解“Session”的概念,Session一般翻译为时域。在计算机专业术语中,Session是指一个终端用户与交互系统进行通信的时间间隔,通常指从注册进入系统到注销退出系统之间所经过的时间。具体到Web中的Session指的就是用户在浏览某个网站时,从进入网站到关闭浏览器所经过的这段时间,也就是用户浏览这个网站所花费的时间。因此从上述的定义中我们可以看到,Session实际上是一个特定的时间概念。

    2、多维度下钻分析

    最为高效的行为事件分析要支持任意下钻分析和精细化条件筛选。当行为事件分析合理配置追踪事件和属性,可以激发出事件分析的强大潜能,为企业回答关于变化趋势、维度对比等等各种细分问题。“筛选条件”例如:“地理位置”、“时间”、“广告系列媒介”、“操作系统”、“渠道来源”等。当进行细分筛查时,才可以更好地精细化定位问题来源。

    3、解释与结论

    解释与结论即所谓的出分析报告阶段。对分析结果进行合理的理论解释,判断数据分析结果是否与预期相符,如果相悖,则应该针对不足的部分进行再分析与实证。

    行为事件分析案例解说

    运营A在日常运营某平台频道的过程中发现,某天的UV值突然翻倍异常标高,需要快速定位:是异常流量还是虚假流量?我们可以先按照5W法则拆解事件,可以发现实际上我们是要找出HOW,也就是为什么流量飙升的理由。

    (Where)某平台

    (Who)某频道

    (When)某天

    (How)???

    (What)UV值异常翻倍

    紧接着,通过多维度“筛选条件”进行下钻分析:选择“流量入口来源”、“时间点”、“地理位置”、“操作系统”等。当进行细分筛查时,运营A发现:早上10点钟时,微信渠道侧的流量飙高并且是由于公众号推送场景带来的流量,确认公众号确实为早上10点推动并且当天的推送质量很高,用户点击数较往常更高,基本判断UV的飙高是异常值,不是虚假流量,并且是由于该事件带来。

    02

    点击分析模型

    点击分析模型在各行业内数据分析应用较为广泛,是重要的数据分析模型之一。其中点击图是点击分析方法的效果呈现,在用户行为分析领域,点击分析包括元素被点击的次数、占比、发生点击的用户列表、按钮的当前与历史内容等因素。

    点击分析方法主要解决的问题主要有三点:

    1、精准评估用户与产品交互背后的深层关系;

    2、实现产品的跳转路径分析,完成产品页面之间的深层次的关系需求挖掘;

    3、与其他分析模型配合,全面视角探索数据价值,深度感知用户体验,实现科学决策。

    点击分析模型主要用于什么分析?

    1、官网

    2、活动页面

    3、产品频道/首页

    4、详情页

    点击分析通用的两种形式包括:可视化与固定埋点,可视化多用热力图进行呈现,运营可以根据点击密度判断用户的浏览喜好。

    1.jpg

    热力图形式 

    图片来源:百度

    2.jpg

    固定埋点形式 

    图片来源:天猫超市(数据虚构)

    下面对比热力图与固定埋点形式的差异化

     

    数据形式 热力图 固定埋点

    用户
    友好性

    操作简单,可视化直观地将流量数据分布通过不同颜色区块呈现,可快速判断点击分布

    操作繁琐,需要导出报表后进行加工分析,无法可视化取数

    入手
    难度

    简单入手,无须报告数据分析,无需任何页面分析经验

    入手稍难,需要对埋点、对数据统计维度有一定数据分析经验

    灵活性

    灵活性强,可对页面任意位置进行数据监测

    灵活性弱,无法对页面任意位置进行数据监测;若页面更改埋点需同步更改

    长期
    取数

    无法进行长期数据固定对比,形成报表性差,无法对页面定向区域进行定期取数分析

    可长期取数形成报表,可对页面定向区域进行定期取数分析

    热力图VS固定埋点

    点击分析模型案例解说

    以上图天猫超市为案例,开发可对每一个前端模块进行埋点,然后上报数据,运营可在数据报表处下载对应数据,数据可包括:PV、UV、下单、GMV等,可针对不同指标进行分析。

    假设上图中个人护理icon点击UV占比为67%,是频道内所有icon中最高的一个,那么对于猫超这么一个老用户居多的业务场景来说,老用户对在超市中购买“个人护理”有很强烈的诉求与黏性,可以重点挖掘业务价值。再比如,假设banner模块的日均UV为1w,我们假定这个值是偏低的,并且banner在页面首页的使用面积占比又超过UV及订单的贡献占比,此时可以考虑两种方案:压缩banner尺寸或者提升banner点击率。

    从长期监控数据上看,点击分析可以观察页面某位置(业务)的改变对于用户的价值,一般而言,点击UV越高,说明用户的黏性越大。当然点击率还跟所处位置有关,同一页面高度,根据用户视觉习惯,一般左边点击优于右边。

    03

    用户行为路径分析

    用户路径的定义,就是用户在APP或网站中的访问行为路径。对于一个指定的页面(URL),用户是从哪些场景来到这个页面(来源)?进入这个页面后又去往哪些场景(去向)?用户浏览路径是否是按照运营设计的路径前进还是偏移?用户行为路径分析就是解决以上问题的分析方法:指导运营明确用户现存路径,优化用户行为沿着最优访问路径前进,结合业务场景需求进行前端布局调整。

    以电商为例,买家从登录网站/APP到支付成功需要经过首页浏览、搜索商品、加入购物车、提交订单、支付订单等一系列过程。一个新用户和一个老用户在进行购买流程的时候,他们的浏览路径是否有区别?新用户倾向什么路径?老用户倾向什么路径?与其他分析模型配合进行深入分析后,可以快速找到用户动机,从而引领用户走向最优路径或者期望中的路径。

    3.jpg

    电商平台店铺用户行为路径图

    用户路径分析案例解说

    假设上图中,用户进入店铺页中选择以下路径:

    1、约40%的客户会点击Banner活动页;

    2、约30%的客户会直接进行商品搜索;

    3、约10%的用户会浏览商品详情页;

    4、约5%的客户啥都不干直接退出店铺;

    假设以上四种路径中,第三种直接浏览商品详情页的用户下单比例最高,超过90% ,与其形成鲜明对比的是,尽管第一种“点击Banner活动页”的用户占比高达40%,但是仅5%的用户下单了,说明Banner的内容布局和利益点有着比较糟糕的用户体验,则将此作为首选优化与改进的方向。

    改进方式:

    1、优化内容质量:素材图片、利益点、承接页动线、承接页商品让利程度等;

    2、压缩banner模块实际面积:比如淘宝的banner基本为千人千面或者商家直通车购买,展示总量大,比较难控制所有内容质量,因此选择更小的尺寸高度来分散用户点击占比,为其它首屏优质业务提供更多的流量;相对的,天猫的banner活动一般为类目排期活动,较少商家购买(能花得起这个钱的商家一般也是KA,不会把内容质量搞的很糟糕),因此天猫的banner高度较淘宝会更醒目;

    04

    用户健康度分析

    用户健康度是基于用户行为数据综合考虑的核心指标,体现产品的运营情况,为产品的发展进行预警。包括三大类型指标:产品基础指标、流量质量指标、产品营收指标。它们三者构成了评价产品健康度的体系,它们也各有侧重点。

    1、产品基础指标,主要评价产品本身的运行状态:PV、UV、新用户数;

    2、流量质量指标,主要评价用户流量的质量高低:跳出率、人均浏览次数、人均停留时间、用户留存率、用户回访率;

    3、产品营收指标,主要评价产品的盈利能力与可持续性:用户支付金额(GMV)、客单价(ARPU)、订单转化率;

    1、产品基础指标

    UV:独立访客数(unique visitor),指通过互联网访问、浏览这个网页的自然人。但对于UV的定义有一个时间限制,一般是1天之内,访问你的产品的独立访客数,如果一个用户一天内多次访问也只计算为1个访客。UV是衡量产品量级的最重要指标。

    PV:页面浏览量(Page View),用户每1次对网站中的每个网页访问均被记录1次。用户对同一页面的多次访问,访问量累计。因此一般PV值大于UV值。

    新用户数:对于电商来说,新用户一般定义为未注册或者已注册,但还未进行首单支付的用户。一个新用户到老用户的转变过程可以用四象空间来划分:次数、金额、时间、品类;

    2、流量质量指标

    跳出率:跳出率(Bounce Rate)也被称为蹦失率:浏览单页即退出的次数/访问次数=single access/entry visits。浏览单页即退出的次数——简单说就是进入某个页面后没有点击任何页面就离开。一般用来来衡量用户访问质量,高跳出率通常表示内容对用户不具针对性(吸引);

    4.jpg

    A页面的跳失率=(5/10) *100%

    A页面的退出率= (5+2/10+2 )*100%

    人均停留时间:是指用户浏览某一页面时所花费的平均时长,平均停留时间越长,说明网站或页面对用户的吸引力越强,能带给用户的有用信息越多。

    用户留存率:留存指的就是“有多少用户留下来了”。用户在某段时间内开始使用应用的用户,经过一段时间后,仍然继续使用的用户,被认作是留存用户。

    留存率=新增用户中登录用户数/新增用户数

    (一般统计周期为天)

    留存率反映的实际上是用户的一个留存漏斗,即新用户转化为活跃用户、稳定用户、忠诚用户的过程,宏观观察用户的生命进程情况,通过用户的后期留存情况就能从一个层面把握渠道质量,比如,付费,粘性,价值量,CAC成本。

    用户回访率:用户在某段时间内开始使用应用,经过一段时间后,继续登陆使用的用户,被认作是回访用户。比如用户在使用该App之后的N天/周/月之后,再次使用该App的比例,叫做N天/周/月回访率。留存与回访这两者的区别就是:前者是新增多少用户,留下来多少;后者是在某时间段内,用户再次使用、访问app、软件的数量。

    3、产品营收指标

    客单价(ARPU):客单价=支付有效金额/支付用户数,客单价反应平均一个用户支付的金额,金额越高,为企业带来的利润也越多,因此提升客单价是一个很好几刺激毛利润的方法,比如我们常见的促销手段:买2件减10元,买2件送赠品等;

    转化率:订单转化率=有效订单用户数/UV。转化率是做成交营收的一个关键因素,转化越高表示越多用户在目标页面下单。

    用户支付金额(GMV):支付金额即产品某段时间的流水。产品的营收做得好与不好,主要就是看支付流水。盈利模式如何,有没有稳定的创收能力,是对一个产品终极的考验(战略烧钱和圈用户的先不算在内)

    产品营收指标有一个恒等式:

    销售额=访客数×成交转化率×客单价

    销售额=曝光次数×点击率×成交转化率×客单价;

    这是电商入门基础中的战斗机

    05

    漏斗模型分析

    定义:漏斗模型分析,本质是分解和量化,也就是说从一个事件环节的最开始(获取用户)到最终转化成购买这整个流程中的一个个子环节,相邻环节的转化率表现力,就是指用数据指标来量化每一个步骤的表现。所以整个漏斗模型就是先将整个事件流程拆分成一个个步骤,然后用转化率来衡量每一个步骤的表现,最后通过异常的数据指标找出有问题的环节,从而解决问题,优化该步骤,最终达到提升整体购买转化率的目的。

    流量漏斗模型在产品运用中的一个经典运用是AARRR模型,来自增长黑客Growth hacker一书中(这本书特别值得一看),AARRR模型是结合产品本身的特点以及产品的生命周期位置,来关注不同的数据指标,最终制定不同的运营策略。

    《增长黑客》增长黑客是介于技术和市场之间的新型团队角色,主要依靠技术和数据的力量来达成各种营销目标,而非传统意义上靠砸钱来获取用户的市场推广角色。他们能从单线思维者时常忽略的角度和难以企及的高度通盘考虑影响产品发展的因素,提出基于产品本身的改造和开发策略,以切实的依据、低廉的成本、可控的风险来达成用户增长、活跃度上升、收入额增加等商业目的。简单来说,就是低成本甚至零成本地让产品获得有效增长。增长黑客的核心是:自传播/病毒传播。

    5.jpg

    AARRR的说明:

    获取Acquisition:用户如何发现并来到你的产品?(浏览层)

    激活Activation:用户的第一次使用体验如何?(点击/参与)

    留存Retention:用户是否还会回到产品?(回访/留存)

    收入Retention:产品怎样通过用户赚钱?(付费)

    传播Retention:用户是否愿意告诉其他用户?(忠实/传播用户)

    漏斗模型在实际的运营中很常见,我们可以抽象出决定漏斗形态的三个元素:时间、节点、流量。

    1、时间:转化周期,即为完成每一层漏斗所需时间的集合。通常来讲,一个漏斗的转化周期越短越好。

    2、节点:每一层漏斗,就是一个节点。而对于节点来说,最核心的指标就是转化率,转化率 = 通过该层到达下一次层的流量/到达该层的流量。

    3、流量:每个环节的数值大小,也就是人群数。

    流量漏斗模型案例解说

    以电商实际运营过程中的具体案例说明流量漏斗模型的运用,假设(数据均虚拟)我们做了一场营销活动,活动页面的流量漏斗模型如下图:用户的流量路径如下:点击主会场页面→进入商品详情页→下单购买→发货(上账);

    电商主会场流量漏斗数据

    6.jpg

    对比正常卖场流量漏斗平均图可以看出,用户在“活动页面→进入商品详情页”这个步骤中,跳转率只有40%,假设远低于平均值45%,可以思考下用户进入主会场后为什么不点击商品呢?一般而言,跳转率低下主要由以下几个原因:

    1、页面开发问题bug:手机机型适配问题、无法点击、页面空窗、链接错误等;

    2、内容与引流用户不匹配:引流用户对商品/内容不感兴趣、BI推荐不准确等 ;

    3、页面运营问题:利益点对应商品承接、商品让利不够、文案内容与承接落地页面不符;

    一个个去排除问题后,我们可以初步将问题点锁定,针对性解决。简单总结,漏斗模型适合运用于监控不同的产品环节数据指标,并找出对应的问题。

    06

    用户画像分析

    用户画像的正式名称是User Profile,是指根据用户的属性、用户偏好、生活习惯、用户行为等信息而抽象出来的标签化用户模型。通俗说就是给用户打标签,而标签是通过对用户信息分析而来的高度精炼的特征标识。通过打标签可以利用一些高度概括、容易理解的特征来描述用户,可以让人更容易理解用户,并且可以方便计算机处理。在产品早期和发展期,会较多地借助用户画像,帮助产品运营理解用户的需求,想象用户使用的场景,产品设计从为所有人做产品,变成为带有某些标签的3-5个人群做产品,间接降低复杂度。

    用户画像的数据内容包含但不局限于:

    1、人口属性:包括性别、年龄等人的基本信息;

    2、兴趣特征:浏览内容、收藏内容、阅读咨询、购买物品偏好等;

    3、位置特征:用户所处城市、所处居住区域、用户移动轨迹等;

    4、设备属性:使用的终端特征等;

    5、行为数据:访问时间、浏览路径等用户在网站的行为日志数据;

    6、社交数据:用户社交相关数据;

    用户画像主要运用常场景如下图

    7.jpg

    图片来源:CSND 博客

    用户画像运用场景三维空间图,X轴代表业务场景维度;Y轴代表用户标签维度;Z轴代表服务层次维度。首先用户画像业务场景可以分为用户细分、产品优化、渠道拓展、运用提升、风险控制等。基于每一个业务场景,都有不同的用户标签定义,比如用户细分场景业务中,主要是用户的基本属性,包括性别、年龄、地域等。而风险控制业务场景中,主要是用户风险控制标签,包括黄牛标签、异常评分标签等。首先对用户群进行用户标签处理,根据不同的标签进行个性化推荐,再到到运营层面进行决策运营。环环相扣,所以用户画像的核心是标签的建立。

    用户画像分析案例解说

    「她是一位住在北京的80后的女性白领,起居时间规律,喜欢运动,家有幼儿,关注时尚爱兰蔻……」这段话语用来描述的是某个用户,并不是一类用户。我们谈的用户画像User Profile,本质是对任何一个用户都能用标签和数据描述。

    8.jpg

    因此,我们将此类用户标签化为:作息规律、注重品质、生活健康、尝试新鲜、小资;当然这种标签没办法精细化指导运营工作,对于用户运营而言,比较经典的用户画像指导运营的模型是RFM模型。

    展开全文
  • 回流用户分析实战

    千次阅读 2016-12-05 17:48:11
    回流用户定义:  使用友盟的通用定义:用户已经记录7日以及7日以上未有登录(即先认定这部分用户已经流失,当然你也可以自己来定义),而在今天有登录,那在...一、回流用户构成分析 1.1 为什么要熟悉构成 先熟
    回流用户定义:
        使用友盟的通用定义:用户已经记录7日以及7日以上未有登录(即先认定这部分用户已经流失,当然你也可以自己来定义),而在今天有登录,那在今天这部分用户称之为回流用户。
        用户回流可以分为自主回流与人工回流,自主回流指玩家自己回流了,而人工回流则是人为参与导致的,这里的回流用户大部分为自主回流。

    一、回流用户构成分析

    1.1 为什么要熟悉构成
    先熟悉一下回流用户的构成,以便于从各方面了解回归用户是怎么样的,对用户有一个大概的认识。

    1.1.1 新鲜度

    9周以后指:已注册9周以上用户
    4周以后指:已注册9周~4周的用户,以此类推

    从*月份整月的数据来看:
    回归用户主要由:注册9周以上的用户,注册5~8周的用户构成
    并且可以从上月份的数据来看,此占比会越来越大,也就是说回归用户中9周以后的老用户会越来越多,整体的用户会趋近于越来越‘老’。
    以上数据基于此游戏是一个比较成熟的群体,如果其他的游戏,回归用户的新鲜度也可能不一样。

    1.1.2 付费用户占比
    回归用户中付过费的玩家占据18.74%,整体来说用户可利用价值比较大,并且可以说质量也应该会比较高。

    1.1.3 数量级别


    整体盘子比较成熟,占比在日活跃用户的6%左右,整体来说是还是挺多的。在国庆等假期中会上升,并且有假日越长,则回流用户越多的表现。
    这个特点可以灵活的运用到活动中去。


    1.1.4 回归后的首日活跃ARPU
    付费相对较活跃人群而言较弱,但是考虑到玩家的新鲜度以及留存来讲,这个问题相对重要性不为重要。


    1.1.5 次日留存
    回归用户次日留存,只有注册用户留存的0.57倍
    整体来说,对于一个用户群体趋近如此成熟,且质量相对来说比较好的群体,这样的留存是让人感到忧虑

    分析得出主要问题:
    留存(主要点):主要问题,只有注册用户次日留存的0.57倍
    付费(次要点):从玩家新鲜度构成以及玩家参与牌局数来讲,这个问题并不是主要问题,可以延后考虑。

    OK,那么我们现在重点要找寻玩家流失的原因。

    二、流失的原因

    1、使用漏斗模型进行多层次流失分析

    得出流失原因:局数转化(主要
    如下图所示,玩家在第一局的游戏流失非常严重,占据了所有流失玩家中的16.5%。
    并且在前面10局的流失占据了所有流失的80%,前面的局数不管输还是赢,流失率都非常高,提高玩家继续进行打牌为我们主要目标,这里的流失率曲线同比注册用户还要高。

    排除版本等原因影响后,发现:
    在这里,玩家并不是缺乏金币而流失,他们就是不想继续玩了,也就是说游戏对他们的吸引度非常的弱,可能是因为版本的更新速度太慢或者游戏本身就让他们失望了,这是我们不曾想到的,也是游戏中的一个重要的问题。

    (横坐标为局数,竖坐标为占流失人数的百分比)


    2、微转化(触发型的流失点)
    首场胜率的流失(次要):
    第一局胜利的玩家比第一局输的玩家留存率有提高5个点。
    第二局胜利的玩家比第二局输的玩家留存率有提高3个点。
    相对而言,这里的流失点暂时不足为虑,为次要目标。

    PS:在这里因为之前对流失点分析已经比较熟悉,所以能很用以前的一些代码再跑一次即可跑到很多点,如果是第一次进行微转化的分析,可以参考
    菜鸟学分析-流失点分析-微转化

    展开全文
  • 大数据下,用户分析的核心是什么? ——解决实际问题 确定用户分析目的,具体是为了降低成本?增加收入?优化用户体验?提升营销效果?用户针对性管理? 确定目的后开始选择合适的数据,然后搭建模型,最后...
  • 基于友盟的用户分析模块的设计

    千次阅读 2015-05-20 17:06:19
    移动应用开发中基本都要用到用户分析,大部分的应用选择的友盟统计,我们也不例(其实不是没有内部的统计,是实在是人手不足,做的没人家好用啊).这篇文章题主就来分享下自己是如何封装的统计模块.业务需求业务需求经过...
  • 系统的用户分析方法及分析内容

    千次阅读 2017-10-29 09:30:22
    我们构建一个系统,首要需要了解哪些用户使用这个系统。但怎么研究这些用户,研究什么内容,则是我们必须掌握的知识点。
  • 宽带离网用户分析(1) 任务介绍

    千次阅读 2015-08-02 20:37:28
    宽带离网用户分析任务介绍 接下来把几个研究生阶段的项目中所用到的关键技术分别做介绍,一来对这些项目的技术做个整理,理清思路,二来也为接下来的应聘做准备。这里先介绍研一做的第一个项目——宽带离网用户分析...
  • 10分钟,快速搞懂RFM用户分析模型

    千次阅读 2019-12-17 22:17:11
    RFM客户价值模型是一种有着几十年发展和应用的业务分析模型。通过一个客户的近期购买行为(R)、购买的总体频率(F)以及消费总金额(M)三项指标来描述该客户的价值状况,依据这三项指标划分为6...
  • 宽带离网用户分析之Lasso和Group LassoLasso Lasso,全称为(The Least Absolute Shrinkage and Selectionator operator),是Tibshirani[1]在1996年提出的稀疏特征选择方法。  minβ||Y−Xβ||22+λ||β||1\min_{\...
  • 基于Spark的用户分析系统

    千次阅读 2015-07-30 18:58:36
    我们可以通过用户的行为分析用户的偏好,给用户打上各种各样的标签,比如性别、地域、使用设备、兴趣爱好等,进而找到一群用户的整体偏好,这样可以对用户或内容进行精准营销。实际应用中,我们需要搭建一个系统,...
  • 大数据实战:知乎百万用户分析

    万次阅读 2018-04-18 12:11:30
    这次我将利用知乎用户的数据,从数据分析的角度,以用户、区域、行业、专业、大学、喜欢数、粉丝数和性别为交叉对比展开分析,因为我迫切想知道,那些大 V 从哪来,做了什么事,是个什么背景等等像打了马赛克一样的...
  • MobclickAgent——友盟用户分析工具

    万次阅读 2012-08-07 20:52:14
    Android 统计分析 SDK使用指南 ...7.使用用户反馈收集 8.设置数据发送策略 9.使用在线配置功能 1.建立App,下载SDKTop 登录你的帐号后,看到友盟的管理后台,点击"+添加新应用",进入新应用信息填写的
  • 淘宝电商中注重爆款,所以以爆款为对象的用户分析也是商家关心的点。线下商铺也是有引流的爆款的,对爆款的分析也是一个重要维度(留存转化、带单、回购等) ———————————— 一、大促分析 1. 客群沉淀...
  • // If registration is disabled - Redirect to login page. if (JComponentHelper::getParams('com_users')->get('allowUserRegistration') == 0) { $this->...view=login', false)); return false;...}
  • 小红书是一款内容电商类产品,产品目前主要有笔记内容和电商两个模块,内容是基于UGC的生活笔记,电商部分以自营为主,第三方入驻商家为辅。...三、用户分析1. 用户画像小红书的用户以女性居多,男女比例3:7左右。...
  • 用户增长分析——用户分群分析

    千次阅读 2019-07-16 10:19:18
    导语在产品的增长分析当中,想关注符合某些条件的一部分用户,不仅想知道这些人的整体行为(访问次数,访问时长等),还希望知道其中差异较大的细分群体。用户分群方法,能帮助我们对差异较大的群体分别进行深入分析...
  • 用户画像分析

    千次阅读 2018-03-09 14:41:12
    用户画像是建立在一系列真是数据之上的目标用户模型,即用户属性值不同将用户分布展示2、功能介绍1)分析内容 可进行用户画像分析的属性:用户属性中的枚举类型属性我们会分析您上传的用户属性值,若不同的属性值个...
  • 最近有些忙,但是看到了很好的分析模型也要跟大家分享的,这篇博客有些粗糙,主要是po上一些链接供大家学习,有时间的话,我也会写出自己关于用户行为分析的理解的。 下面是关于用户行为分析常见的分析维度,有助于...
  • 数据分析用户行为分析

    万次阅读 2018-04-17 19:57:58
     用户行为分析定义:对用户购物路径日志信息进行统计、分析,从中发现用户访问网站的规律,并将这些规律与网络营销策略等相结合,从而发现目前网络营销活动中可能存在的问题,并为进一步修正或重新制定网络营销策略...
  • 用户留存分析

    千次阅读 2018-09-25 20:58:30
    用户行为领域,通过数据分析方法的科学应用,经过理论推导,能够相对完整地揭示用户行为的内在规律。基于此帮助企业实现多维交叉分析,帮助企业建立快速反应、适应变化的敏捷商业智能决策。结合近期的思考与学习,...
  • 洋葱文化(onion-cul,com),小红书kol资源一站式投放平台一、小红书爆品打造策略1、用户分析 小红书这个平台,接近两个多亿用户,百分之九十的用户为一、二线城市高消费女性为主,其中在消费升级的情况下,从用户对...
  • 网站用户行为分析架构指导

    千次阅读 2014-08-14 17:12:19
    2.用户分析的关注点是什么? 3.用户分析的市场价值是什么? 本文结合研究院用户行为实验室在现网运营的门户网站中的实践经验,提炼一些主题应用与大家分享和探讨网站用户行为分析的魅力! 一、网站用户行为分析...
  • 用户流失分析

    万次阅读 2018-04-17 10:21:13
    用户流失预警模型的建立小白学数据分析-----&gt;流失分析设计用户的召回与促活:多案例深度解析用户的流失与激活转赞自知乎作者:王玮链接:https://www.zhihu.com/question/26225801/answer/33133761来源:知乎...
  • 数据分析-淘宝用户行为分析

    千次阅读 2019-10-02 12:04:43
    一、项目背景和目的 ...userId=1,通过此项目学习电商数据分析的指标与数据分析的基本方法。 二、分析维度 根据现有数据及分析目的,从四个维度进行分析: ...以PV、UV、平均访问量、跳失率等指标,分析用户最活跃的...
  • 大数据背景下互联网用户行为分析

    千次阅读 2016-12-01 13:41:58
    一、用户行为分析概念: 是指在获得网站访问量基本数据的情况下,对有关数据进行统计、分析,从中...二、用户分析的主要意义: 1、把握网站整体布局颜色等。 2、分析用户行为数据进行网站调整。 3、掌握大多数网站用
  • 电商用户行为数据分析

    万次阅读 多人点赞 2019-05-15 20:00:54
    本文针对淘宝app的运营数据,以行业常见指标对用户行为进行分析,包括 一、提出问题 1.电商常用分析体系 2.电商常用分析指标 3.本次分析的业务问题以及分析逻辑 本次想通过对淘宝用户行为数据的分析,解决...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 165,293
精华内容 66,117
关键字:

用户分析