精华内容
下载资源
问答
  •  并没有所谓的界面,只是一个小巧的输入法,本人觉得简单实用,没有其他输入法花里胡哨的设置,皮肤,个人中心,工具箱等根本用不到的功能。总而言之,简单实用! 二、记住用户的选择 ·可以记住之前打过的词语,...

    我现在使用的是window 10 自己自带的输入法

    一、用户界面

      并没有所谓的界面,只是一个小巧的输入法,本人觉得简单实用,没有其他输入法花里胡哨的设置,皮肤,个人中心,工具箱等根本用不到的功能。总而言之,简单实用!

    二、记住用户的选择

    ·可以记住之前打过的词语,姓名,地名之类的。

    三、短期刺激和长期的好处和坏处

      万年没有更新,本人觉得挺好

      好处:可以记住自己长打的字,会越用越顺手

      坏处:有时候在打字,偶尔会出现变成英文输入的情况

    四、不要让用户犯简单的错误

      有模糊音设置,自己分不清前后鼻音,输入法会自动矫正,提高输入效率。

    转载于:https://www.cnblogs.com/wf1647790534/p/6847276.html

    展开全文
  • 今天晚上,笔者接到客户的一个需要,那就是:多分类结果的每个类别进行指标评价,也就是需要输出每个类型的精确率(precision),召回率(recall)以及F1值(F1-score)。 对于这个需求,我们可以用sklearn来解决...
  •   今天晚上,笔者接到客户的一个需要,那就是:多分类结果的每个类别进行指标评价,也就是需要输出每个类型的精确率(precision),召回率(recall)以及F1值(F1-score)。   对于这个需求,我们可以用...

      今天晚上,笔者接到客户的一个需要,那就是:对多分类结果的每个类别进行指标评价,也就是需要输出每个类型的精确率(precision),召回率(recall)以及F1值(F1-score)。
      对于这个需求,我们可以用sklearn来解决,方法并没有难,笔者在此仅做记录,供自己以后以及读者参考。
      我们模拟的数据如下:

    y_true = ['北京', '上海', '成都', '成都', '上海', '北京', '上海', '成都', '北京', '上海']
    y_pred = ['北京', '上海', '成都', '上海', '成都', '成都', '上海', '成都', '北京', '上海']
    

    其中y_true为真实数据,y_pred为多分类后的模拟数据。使用sklearn.metrics中的classification_report即可实现对多分类的每个类别进行指标评价。
      示例的Python代码如下:

    # -*- coding: utf-8 -*-
    from sklearn.metrics import classification_report
    
    y_true = ['北京', '上海', '成都', '成都', '上海', '北京', '上海', '成都', '北京', '上海']
    y_pred = ['北京', '上海', '成都', '上海', '成都', '成都', '上海', '成都', '北京', '上海']
    
    t = classification_report(y_true, y_pred, target_names=['北京', '上海', '成都'])
    
    print(t)
    

    输出结果如下:

                  precision    recall  f1-score   support
    
              北京       0.75      0.75      0.75         4
              上海       1.00      0.67      0.80         3
              成都       0.50      0.67      0.57         3
    
        accuracy                           0.70        10
       macro avg       0.75      0.69      0.71        10
    weighted avg       0.75      0.70      0.71        10
    

    需要注意的是,输出的结果数据类型为str,如果需要使用该输出结果,则可将该方法中的output_dict参数设置为True,此时输出的结果如下:

    {‘北京’: {‘precision’: 0.75, ‘recall’: 0.75, ‘f1-score’: 0.75, ‘support’: 4},
    ‘上海’: {‘precision’: 1.0, ‘recall’: 0.6666666666666666, ‘f1-score’: 0.8, ‘support’: 3},
    ‘成都’: {‘precision’: 0.5, ‘recall’: 0.6666666666666666, ‘f1-score’: 0.5714285714285715, ‘support’: 3},
    ‘accuracy’: 0.7,
    ‘macro avg’: {‘precision’: 0.75, ‘recall’: 0.6944444444444443, ‘f1-score’: 0.7071428571428572, ‘support’: 10},
    ‘weighted avg’: {‘precision’: 0.75, ‘recall’: 0.7, ‘f1-score’: 0.7114285714285715, ‘support’: 10}}

      使用confusion_matrix方法可以输出该多分类问题的混淆矩阵,代码如下:

    from sklearn.metrics import confusion_matrix
    y_true = ['北京', '上海', '成都', '成都', '上海', '北京', '上海', '成都', '北京', '上海']
    y_pred = ['北京', '上海', '成都', '上海', '成都', '成都', '上海', '成都', '北京', '上海']
    print(confusion_matrix(y_true, y_pred, labels = ['北京', '上海', '成都']))
    

    输出结果如下:

    [[2 0 1]
     [0 3 1]
     [0 1 2]]
    

      为了将该混淆矩阵绘制成图片,可使用如下的Python代码:

    # -*- coding: utf-8 -*-
    # author: Jclian91
    # place: Daxing Beijing
    # time: 2019-11-14 21:52
    
    from sklearn.metrics import confusion_matrix
    import matplotlib.pyplot as plt
    import matplotlib as mpl
    
    # 支持中文字体显示, 使用于Mac系统
    zhfont=mpl.font_manager.FontProperties(fname="/Library/Fonts/Songti.ttc")
    
    y_true = ['北京', '上海', '成都', '成都', '上海', '北京', '上海', '成都', '北京', '上海']
    y_pred = ['北京', '上海', '成都', '上海', '成都', '成都', '上海', '成都', '北京', '上海']
    
    
    classes = ['北京', '上海', '成都']
    confusion = confusion_matrix(y_true, y_pred)
    
    # 绘制热度图
    plt.imshow(confusion, cmap=plt.cm.Greens)
    indices = range(len(confusion))
    plt.xticks(indices, classes, fontproperties=zhfont)
    plt.yticks(indices, classes, fontproperties=zhfont)
    plt.colorbar()
    plt.xlabel('y_pred')
    plt.ylabel('y_true')
    
    # 显示数据
    for first_index in range(len(confusion)):
        for second_index in range(len(confusion[first_index])):
            plt.text(first_index, second_index, confusion[first_index][second_index])
    
    # 显示图片
    plt.show()
    

    生成的混淆矩阵图片如下:

    生成的混淆矩阵图
      本次分享到此结束,感谢大家阅读,也感谢在北京大兴待的这段日子,当然还会再待一阵子~

    展开全文
  • 今天晚上,笔者接到客户的一个需要,那就是:多分类结果的每个类别进行指标评价,也就是需要输出每个类型的精确率(precision),召回率(recall)以及F1值(F1-score)。对于这个需求,我们可以用sklearn来解决,方法并...

    今天晚上,笔者接到客户的一个需要,那就是:对多分类结果的每个类别进行指标评价,也就是需要输出每个类型的精确率(precision),召回率(recall)以及F1值(F1-score)。

    对于这个需求,我们可以用sklearn来解决,方法并没有难,笔者在此仅做记录,供自己以后以及读者参考。

    我们模拟的数据如下:

    y_true = ['北京', '上海', '成都', '成都', '上海', '北京', '上海', '成都', '北京', '上海']

    y_pred = ['北京', '上海', '成都', '上海', '成都', '成都', '上海', '成都', '北京', '上海']

    其中y_true为真实数据,y_pred为多分类后的模拟数据。使用sklearn.metrics中的classification_report即可实现对多分类的每个类别进行指标评价。

    示例的Python代码如下:

    # -*- coding: utf-8 -*-

    from sklearn.metrics import classification_report

    y_true = ['北京', '上海', '成都', '成都', '上海', '北京', '上海', '成都', '北京', '上海']

    y_pred = ['北京', '上海', '成都', '上海', '成都', '成都', '上海', '成都', '北京', '上海']

    t = classification_report(y_true, y_pred, target_names=['北京', '上海', '成都'])

    print(t)

    输出结果如下:

    precision recall f1-score support

    北京 0.75 0.75 0.75 4

    上海 1.00 0.67 0.80 3

    成都 0.50 0.67 0.57 3

    accuracy 0.70 10

    macro avg 0.75 0.69 0.71 10

    weighted avg 0.75 0.70 0.71 10

    需要注意的是,输出的结果数据类型为str,如果需要使用该输出结果,则可将该方法中的output_dict参数设置为True,此时输出的结果如下:

    {‘北京': {‘precision': 0.75, ‘recall': 0.75, ‘f1-score': 0.75, ‘support': 4},

    ‘上海': {‘precision': 1.0, ‘recall': 0.6666666666666666, ‘f1-score': 0.8, ‘support': 3},

    ‘成都': {‘precision': 0.5, ‘recall': 0.6666666666666666, ‘f1-score': 0.5714285714285715, ‘support': 3},

    ‘accuracy': 0.7,

    ‘macro avg': {‘precision': 0.75, ‘recall': 0.6944444444444443, ‘f1-score': 0.7071428571428572, ‘support': 10},

    ‘weighted avg': {‘precision': 0.75, ‘recall': 0.7, ‘f1-score': 0.7114285714285715, ‘support': 10}}

    使用confusion_matrix方法可以输出该多分类问题的混淆矩阵,代码如下:

    from sklearn.metrics import confusion_matrix

    y_true = ['北京', '上海', '成都', '成都', '上海', '北京', '上海', '成都', '北京', '上海']

    y_pred = ['北京', '上海', '成都', '上海', '成都', '成都', '上海', '成都', '北京', '上海']

    print(confusion_matrix(y_true, y_pred, labels = ['北京', '上海', '成都']))

    输出结果如下:

    [[2 0 1]

    [0 3 1]

    [0 1 2]]

    为了将该混淆矩阵绘制成图片,可使用如下的Python代码:

    # -*- coding: utf-8 -*-

    # author: Jclian91

    # place: Daxing Beijing

    # time: 2019-11-14 21:52

    from sklearn.metrics import confusion_matrix

    import matplotlib.pyplot as plt

    import matplotlib as mpl

    # 支持中文字体显示, 使用于Mac系统

    zhfont=mpl.font_manager.FontProperties(fname="/Library/Fonts/Songti.ttc")

    y_true = ['北京', '上海', '成都', '成都', '上海', '北京', '上海', '成都', '北京', '上海']

    y_pred = ['北京', '上海', '成都', '上海', '成都', '成都', '上海', '成都', '北京', '上海']

    classes = ['北京', '上海', '成都']

    confusion = confusion_matrix(y_true, y_pred)

    # 绘制热度图

    plt.imshow(confusion, cmap=plt.cm.Greens)

    indices = range(len(confusion))

    plt.xticks(indices, classes, fontproperties=zhfont)

    plt.yticks(indices, classes, fontproperties=zhfont)

    plt.colorbar()

    plt.xlabel('y_pred')

    plt.ylabel('y_true')

    # 显示数据

    for first_index in range(len(confusion)):

    for second_index in range(len(confusion[first_index])):

    plt.text(first_index, second_index, confusion[first_index][second_index])

    # 显示图片

    plt.show()

    生成的混淆矩阵图片如下:

    补充知识:python Sklearn实现xgboost的二分类和多分类

    二分类:

    train2.txt的格式如下:

    import numpy as np

    import pandas as pd

    import sklearn

    from sklearn.cross_validation import train_test_split,cross_val_score

    from xgboost.sklearn import XGBClassifier

    from sklearn.metrics import precision_score,roc_auc_score

    min_max_scaler = sklearn.preprocessing.MinMaxScaler(feature_range=(-1,1))

    resultX = []

    resultY = []

    with open("./train_data/train2.txt",'r') as rf:

    train_lines = rf.readlines()

    for train_line in train_lines:

    train_line_temp = train_line.split(",")

    train_line_temp = map(float, train_line_temp)

    line_x = train_line_temp[1:-1]

    line_y = train_line_temp[-1]

    resultX.append(line_x)

    resultY.append(line_y)

    X = np.array(resultX)

    Y = np.array(resultY)

    X = min_max_scaler.fit_transform(X)

    X_train,X_test, Y_train, Y_test = train_test_split(X,Y,test_size=0.3)

    xgbc = XGBClassifier()

    xgbc.fit(X_train,Y_train)

    pre_test = xgbc.predict(X_test)

    auc_score = roc_auc_score(Y_test,pre_test)

    pre_score = precision_score(Y_test,pre_test)

    print("xgb_auc_score:",auc_score)

    print("xgb_pre_score:",pre_score)

    多分类:有19种分类其中正常0,异常1~18种。数据格式如下:

    # -*- coding:utf-8 -*-

    from sklearn import datasets

    from sklearn.multiclass import OneVsRestClassifier

    from sklearn.svm import LinearSVC

    from sklearn.cross_validation import train_test_split,cross_val_score

    from sklearn.svm import SVC

    from sklearn.linear_model import LogisticRegression

    from xgboost.sklearn import XGBClassifier

    import sklearn

    import numpy as np

    from sklearn.preprocessing import OneHotEncoder

    from sklearn.metrics import precision_score,roc_auc_score

    min_max_scaler = sklearn.preprocessing.MinMaxScaler(feature_range=(-1,1))

    resultX = []

    resultY = []

    with open("../train_data/train_multi_class.txt",'r') as rf:

    train_lines = rf.readlines()

    for train_line in train_lines:

    train_line_temp = train_line.split(",")

    train_line_temp = map(float, train_line_temp) # 转化为浮点数

    line_x = train_line_temp[1:-1]

    line_y = train_line_temp[-1]

    resultX.append(line_x)

    resultY.append(line_y)

    X = np.array(resultX)

    Y = np.array(resultY)

    #fit_transform(partData)对部分数据先拟合fit,找到该part的整体指标,如均值、方差、最大值最小值等等(根据具体转换的目的),然后对该partData进行转换transform,从而实现数据的标准化、归一化等等。。

    X = min_max_scaler.fit_transform(X)

    #通过OneHotEncoder函数将Y值离散化成19维,例如3离散成000000···100

    Y = OneHotEncoder(sparse = False).fit_transform(Y.reshape(-1,1))

    X_train,X_test, Y_train, Y_test = train_test_split(X,Y,test_size=0.2)

    model = OneVsRestClassifier(XGBClassifier(),n_jobs=2)

    clf = model.fit(X_train, Y_train)

    pre_Y = clf.predict(X_test)

    test_auc2 = roc_auc_score(Y_test,pre_Y)#验证集上的auc值

    print ("xgb_muliclass_auc:",test_auc2)

    以上这篇使用sklearn对多分类的每个类别进行指标评价操作就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持脚本之家。

    展开全文
  • 在网站:... 看到这么段话: 整体感觉:资料收藏大师是最棒的!..NoteExpress是最专业的!.............collector是值得关注的!...、PKM软件的基础原理 ... 一直以来,自己对国内外的和PKM能挂上边的软件,进行了...
    在网站:http://kongxin.uubox.net/browse.u/PKM/
    看到这么一段话:
    整体感觉:资料收藏大师是最棒的!..NoteExpress是最专业的!..针式PKM是理论功底最强的!.知识树是融合思维导图思想的!....collector是值得关注的!

    发表以下感想:
    一、PKM软件的基础原理

      一直以来,自己对国内外的和PKM能挂上边的软件,进行了密切跟踪,发现大部份软件是基于内置网页编辑器的原理开发的,和Office文档基本上是没有关系的,最多只能作为附件;如mybase、NoteExpress、资料收藏大师、PKM 2等等,网文快捕、友益文书就不用说了。目前,只发现“ Word文档-资料管理系统”一个软件也是基于Office文档的。

    二、PKM软件的核心特征

      我想,能称得上PKM软件,至少应具备四点:
        1、有完善的“知识分类体系”功能,包括统计、任意显示顺序、穿透显示等Windows资源管理器没有提供的功能
        2、快速搜索:必须是基于索引的搜索,而不是文本扫描。最好能集成Google等桌面搜索软件
        3、支持任意格式的文件:对Office文件能直接编辑、索引,而不仅仅是HTML格式的文件
        4、自动备份:如果没有安全感,没有保证,那一切白搭;因为,那些都是自己的“心血”结晶!

     按照这些指标,细细分析,目前专业的PKM软件,真的只有“针式PKM”。用针式PKM用户“骠骑无病”的话说:
      “PKM对消费者来说有点陌生。大家习惯于用totalcommander管理文件,用网文快捕之类的收集网页,用mybase之类的管理信息。针式PKM有远胜过它们的地方,但是知识管理目前大家没有这个概念
    p>

    三、个人知识管理=?文件管理吗?

      针对这个问题,应该说,文件管理就是一种个人知识管理,用Window资源管理器完全可以将PKM做得很好,但使用专业的PKM软件能省时省心,更容易养成良好的个人知识管理习惯等。因为专业PKM软件是根据PKM的特点,结合许多人的实践经验开发出来的;拿针式PKM来说,至少有150个以上的用户提交过建议和反馈,如骠骑无病、我爱粟裕、平常人、闲等等,前后用了6年多的时间研发,目前的版本为V5.45。

      从另一个角度说,个人可随时调阅的未内化的知识的主要载体是文件,而企业则更多的是结构化的数据;书也是载体,但对个人而言其“管理的意义”不大,对图书馆量大的情况下才是必要的;即个人主要的知识来源是Office文档、网页和PDF文档等。

      所以,专业PKM软件,就是要管好这些东西。

     综上可见,专业的PKM软件是要提供依据个人知识管理特点,来协助个人更省时省心管理文件、更容易养成知识管理习惯的软件工具;并在此基础上提供学习等其它辅助功能

    四。为什么不用mybase?

      最主要的因素不是其搜索不快、不能紧密结合Office文档等,而是没有简体中文版。原因就像大多数人选择简体版的XP,而不是英文版的;

    反过来说,软件开发商不出简体版的,说明它不在乎简体中文的用户群。强烈要求有官方的简体版,因为针式PKM也从中吸取很多经验,因为

    PKM对个人都有用,而每个人的个性化要求又不同。在PKM这个大市场中,有更多的软件竞争,才能开发出更好的软件!

     希望符合上述要求的专业PKM软件越来越多!也希望此文对想进入PKM软件开发市场的作者有所启发。

    您认为呢?

    PKM软件工具链接:

    转载于:https://www.cnblogs.com/pinpkm/archive/2008/05/25/1207070.html

    展开全文
  • 实体产品的检验体系,已经非常成熟了,每行业自己都会设计并推行产品质量标准体系。而网络服务产品,也越来越重视产品质量了。国外网络服务的产品,叫做可用性评测。许多大型网站的UED部门都会有这样的小组。...
  • 现在大家网购占大多数,很少会去实体店购买,所以现在网购显然已经成为了人们选择... 相信不少的买家们开始都是被商品的标题和主图所吸引进去的吧,然后在商品进行浏览后就会去翻看商品的详情页,如果觉得自...
  • 1.笔试、面试去评价一个人肯定是不够准确的,了解一个人最准确的方式就是“路遥知马力,日久见人心”。通过一、二个小时内的做题、交流,只是没有其他办法下进行的无奈之举,所以通过了面试不代表有多成功,没通过也...
  • 而有很多拼多多商家反馈自己店铺的真真实实的评价,却是老被平台过滤掉,100多订单的评价,有时候只显示十几条有效评价,不知道是怎么回事,那到底是什么原因呢?、拼多多商品评价被过滤怎么回事(原因如下)1.淘系...
  • 1.用户界面:(1)搜狗输入法的界面虽然简洁单调,但是显而易见,非常直观,别看它只显现一个条形小框,但是用户可根据自己的需求进行设置,可以字体颜色,图标,语言的切换,标点符号,键盘以及皮肤进行用户...
  • 今天,我结合自己的养殖经历,针对朋友提出的问题,进行一个简要回答。 1、准备好花盆。 大家可以根据自己的爱好,选择合适的花盆,当然,多肉植物使用的花盆,尽量小一点。多肉植物不像别的花卉绿植,根深叶茂。多...
  • 大体功能框架已经成熟,页面设计比较美观,各个食堂,分窗口展示特色菜品比较详细,比较细心分为两种模式,一个是商家一个是学生。 建议:图片应该做到一一对应,希望加入根据不同特点进行分类以满足更多用户,希望...
  • 看到我想要包含在此资源中的内容吗? 给我发一条消息。 经常问的问题 问:我可以将您的代码用于Aywas上... 答:可以,但是有时该代码将无法在另一个帐户上使用(特别是如果您具有共享帐户代码)。 这是因为除非您超级幸
  • 笔试、面试去评价一个人肯定是不够准确的,了解一个人最准确的方式就是“路遥知马力,日久见人心”。通过一、二个小时内的做题、交流,只是没有其他办法下进行的无奈之举,所以通过了面试不代表有多成功,没通过也不...
  • 这篇博客主要介绍自己写的一个rgbd的前端里程计,并用TUM的数据集(包括ROS和非ROS的接口)进行测试。代码在这里 原理 前端里程计主要借助opencv的pnp算法实现,具体的思路是每一帧提取特征,然后根据深度图计算出...
  • 单独评价与比较评价

    2020-02-08 13:52:35
    当相亲者和朋友一样漂亮时,这时候选择单独评价,也就是一个人去相亲更有优势,因为相亲对象会相亲者和朋友进行比较,没有绝对对方比相亲者有太突出的地方,甚至朋友还更胜一筹的部分还会被扩大,但一旦单独见面,...
  • 学校评价系统

    2013-05-21 16:03:17
    包括上课,师德,以及其他方面的行为要做客观工作的调查评价,这样的调查评价者主要是来自于本校的学生和教职工,由他们对自己评价对象在学期结束之前就给定的评价内容和评价选项进行问卷打分。主要实现:学生对...
  • 课程学习评价系统

    2020-08-26 16:36:57
    asp.net课程学习评价系统的毕业设计 摘要 基于JSP的高校学生评价分析...本系统采用B/S模式,提供了评价分析学生的各个功能,为学校提供一个进行综合评价的便利平台。 课题目标 本选题的目标是利用 Microsoft Visual S
  • 输入法评价

    2018-01-01 10:10:00
    搜狗输入法有很多好看的界面,用户可以选择,另外用户可以自定义皮肤,根据自己的喜好进行选择。 2.记住用户的选择 打开输入法,都是默认为中文,从别的输入法切换到搜狗时会自动为中文输入...
  • 最近一段时间,陆陆续续... 写简历期间,发现就是把一个时间段的个人情况进行一次全面系统的总检查、总评价、总分析、总研究,分析成绩、不足、经验等。  总结是应用写作的一种,是已经做过的工作进行归纳、整理。
  • 初入职场时,我们会公司进行比较,在众多优秀公司面前,我们会面试多家,最后选择自己心仪的公司,不是每人都能遇到好运气,有一些人为了等到自己心仪的公司,却错过了其他公司,错失良机,是职场员工犯得大忌。...
  • pandas 进行快速、全面、高提炼度和高对比度的数据分析互联网购物现在已经是非常普遍的购物方式,在互联网上购买商品并且使用之后,很多人都会回过头来对自己购买的商品进行一些评价,以此来表达自己对于该商品使用...
  • 这6个维度是作者自己的总结,这六个维度也只是和功能测试有关,至于系统的性能、可靠性、可用性如何度量 首先,我们要明确一个概念,就是“严重bug”。这6个维度,有很多都和严重bug有关。严重bug指的是项目中,...
  • 酒店评价方案

    2014-12-10 12:24:38
    其实我觉得,现在酒店跟客户的交流还是没多少...我想说的是,现在的酒店是否应该存在一种评价系统,由客户自己对酒店服务设备等进行一个评价,当然,想得到正当的评价必须得以鼓励性措施,这个由酒店自已考虑. 客户酒店
  • 今年2月份我对自己参与的项目进行了个人总结,但这项目陆续地进行,直到现在的8月份、9月份。出于习惯,继续写总结。 这是篇牢骚文章,作为步入中年的人,似乎不应该如此。但我觉得自己还年经,有些事,凭已之...
  • 美学评价算法总结

    千次阅读 热门讨论 2017-08-14 14:34:35
    单击一个按钮之后,前端能将当前所有的图片按照图片的“好看”程度进行排名,这样顾客在选择所需要的图片的时候可以首先用算法将好看一点的图片选出来,再自己筛选,美学评价算法相当于完成一个预筛选的过程。...
  • 包括上课,师德,以及其他方面的行为要做客观工作的调查评价,这样的调查评价者主要是来自于本校的学生和教职工,由他们对自己评价对象在学期结束之前就给定的评价内容和评价选项进行问卷打分。主要实现:学生对...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 881
精华内容 352
关键字:

对自己进行一个评价