精华内容
下载资源
问答
  • 汉字3000常用字

    2012-03-14 16:25:22
    汉字3000常用字 的一是在不了有和人这中大为上个国我以要他时来用们生到作地于
  • 3000常用中文字

    2019-01-09 15:48:07
    3000常用中文汉字,用于训练ocr或则需要使用的地方均可以,按照笔画排序
  • 现代汉语常用汉字3000整理过的一行一个汉字,可用于批量导入数据库,或是伪原创生成姓名,一行一个,方便实用,评论姓名生成等
  • 填充缺失值应该是最常用且有效的处理方式了,下面介绍四种处理缺失值的常用Tips。 我自己构建了一个简易的含有缺失值的DataFrame,所有操作都基于这个数据集进行。 1、删除缺失值 删除虽说是一个可行的方式,但肯定...

    不论是自己爬虫获取的还是从公开数据源上获取的数据集,都不能保证数据集是完全准确的,难免会有一些缺失值。而以这样数据集为基础进行建模或者数据分析时,缺失值会对结果产生一定的影响,所以提前处理缺失值是十分必要的。

    对于缺失值的处理大致可分为以下三方面:

    • 不处理

    • 删除含有缺失值的样本

    • 填充缺失值

    不处理应该是效果最差的了,删除虽然可以有效处理缺失值,但是会损伤数据集,好不容易统计的数据因为一个特征的缺失说删就删实在说不过去。填充缺失值应该是最常用且有效的处理方式了,下面介绍四种处理缺失值的常用Tips。

    我自己构建了一个简易的含有缺失值的DataFrame,所有操作都基于这个数据集进行。

    1、删除缺失值

    删除虽说是一个可行的方式,但肯定是不能随便删除的,比如一个样本中仅有一个特征的值缺失,这样的情况下填充取得的效果一定会优于删除,所以在删除缺失值时,我们需要一个衡量的标准。

    删除的方式无非有两种,一是删除缺失值所在行,也就是含有缺失值的样本;二就是删除缺失值所在列,也就是含有缺失值的特征,下面以后者为例。

    首先需要确定的是删除的标准是什么?比如一个特征的缺失值所占比例已经超过了50%,如果选择填充的话,就表明该特征超五成的值都是自己猜测填入的,导致误差可能比删除这个特征还要大。

    def find_missing(data):
        #统计缺失值个数
        missing_num = data.isna().sum(axis=0).sort_values(ascending=False)
        missing_prop = missing_num/float(len(data)) #计算缺失值比例
        drop_index = missing_prop[missing_prop>0.5].index.tolist() #过滤要删除特征名
        return drop_index
    
    

    在确定了这个标准之后,就可以利用一个自定义函数,将我们期望实现的功能封装至函数中。比如上面这个函数,先确定每个特征的缺失值个数并降序排列,然后计算缺失值比例,最后利用布尔索引得到需要删除的特征名。

    data2 = data.copy()
    data2.drop(find_missing(data2),axis = 1)
    
    

    在数据集上应用这个函数,可以看到缺失值占比超50%的特征C被删除了。

    这个衡量标准自己可以依据情况设定,然后删除样本的方式可以类比上述删除特征的方式。

    2、pandas填充

    pandas中的fillna()应该是最常用的一种填充缺失值方法,可以指定填充指定列或者整个数据集。

    data['A'].fillna(value = data['A'].mean(),limit=1)
    
    

    比如上面这句代码,就是只填充特征A一列,填充的选择可以利用平均数、中位数、众数等等,limit是限制要填充的个数,如果有两个缺失值,但是参数limit=1的话,按顺序填充第一个。

    value参数也允许传入字典格式,键为要填充的特征名,值为要填充的缺失值。

    values = {'A':4,'B':3,'C':4}
    data.fillna(value=values)
    
    

    填充之后结果如下:

    fillna()方法固然简单,但前提是含有缺失值的特征比较少,如果很多的话,代码就会很冗杂,客观性也比较差。

    3、sklearn填充

    第二种填充方式是利用sklearn中自带的API进行填充。

    from sklearn.impute import SimpleImputer
    data1 = data.copy()
    #得到含有缺失值的特征
    miss_index = data1.isna().any()[data1.isna().any().values == True].index.tolist()
    print(miss_index)
    '''
    ['A', 'B', 'C']
    '''
    
    

    首先利用布尔索引得到数据集含有缺失值的特征,后续操作只针对含有缺失值的特征。

    miss_list = []
    for i in miss_index:
        #将一维数组转化为二维
        miss_list.append(data1[i].values.reshape(-1,1))
    for i in range(len(miss_list)):
        #利用众数进行填充
        imp_most = SimpleImputer(strategy='most_frequent')
        imp_most = imp_most.fit_transform(miss_list[i])
        data1.loc[:,miss_index[i]] = imp_most
    
    

    最需要注意的一点是SimpleImputer传入的参数至少要是二维,如果将直接索引出的一列特征传入的话,是会发生报错的,所以必须利用reshape()将一维转化为二维。之后的操作就是先实例化、然后训练模型,最后用填充后的数据覆盖之前的数据。

    参数strategy共有四个选项可填:

    • 1、mean:平均数

    • 2、median:中位数

    • 3、most_frequent:众数

    • 4、constant:如果参数指定这个,将会选择另一个参数fill_value中的值作为填充值。

    SimpleImputer优于fillna()之处在于前者可以一行语句指定填充值的形式,而利用fillna()需要多行重复语句才能实现,或者需要提前计算某列的平均值、中位数或者众数。

    4、利用算法填充

    我们都知道一般的算法建模是通过n个特征来预测标签变量,也就是说特征与标签标量之间存在某种关系,那么通过标签变量与(n-1)个特征是否能预测出剩下的一个特征呢?答案肯定是可以的。

    实际上标签变量和特征之间可以相互转化,所以利用这种方法就可以填补特征矩阵中含有缺失值的特征,尤其适用于一个特征缺失值很多,其余特征数据很完整,特别标签变量那一列的数据要完整。

    但是往往一个特征矩阵中很多特征都含有缺失值,对于这种情况,可以从特征缺失值最少的一个开始,因为缺失值越少的特征需要的信息也就越少。

    当预测一个特征时,其余特征的缺失值都需要用0暂时填补,每当预测完一列特征,就用预测出的结果代替原数据集对应的特征,然后预测下一特征,直至最后一个含有缺失值的特征,此时特征矩阵中应该没有需要利用0填补的缺失值了,表示数据集已经完整。

    以随机森林算法为例,实现上面表述填充缺失值的过程。

    data3 = data.copy()
    #获取含有缺失值的特征
    miss_index = data3.isna().any()[data3.isna().any().values == True].index.tolist()
    #按照缺失值多少,由小至大排序,并返回索引
    sort_miss_index = np.argsort(data3[miss_index].isna().sum(axis = 0)).values
    sort_miss_index
    '''
    array([1, 0, 2], dtype=int64)
    '''
    
    

    第一步就是通过布尔索引得到含有缺失值的特征,并且根据缺失值的多少进行由小到大排序,这里选择利用argsort,因为返回的排序是特征在特征矩阵中的索引。

    for i in sort_miss_index:
        data3_list =  data3.columns.tolist() #特征名
        data3_copy = data3.copy() 
        fillc = data3_copy.iloc[:,i] #需要填充缺失值的一列  
        # 从特征矩阵中删除这列,因为要根据已有信息预测这列
        df = data3_copy.drop(data3_list[i],axis = 1) 
        #将已有信息的缺失值暂用0填补
        df_0 = SimpleImputer(missing_values=np.nan,strategy='constant',fill_value=0).fit_transform(df)
        
        Ytrain = fillc[fillc.notnull()]#训练集标签为填充列含有数据的一部分
        Ytest = fillc[fillc.isnull()]#测试集标签为填充列含有缺失值的一部分
        
        Xtrain = df_0[Ytrain.index,:]#通过索引获取Xtrain和Xtest
        Xtest = df_0[Ytest.index,:]
        
        rfc = RandomForestRegressor(n_estimators = 100)#实例化
        rfc = rfc.fit(Xtrain,Ytrain)  # 导入训练集进行训练
        Ypredict = rfc.predict(Xtest) # 将Xtest传入predict方法中,得到预测结果
        #获取原填充列中缺失值的索引
        the_index = data3[data3.iloc[:,i].isnull()==True].index.tolist()
        data3.iloc[the_index,i] = Ypredict# 将预测好的特征填充至原始特征矩阵中
    
    

    这部分代码主要的思想就是,先将需预测的一列特征暂定为标签,然后预测列中含有数据的一部分作为训练集,含有缺失值的一部分作为测试集,通过随机森林在训练集上建模,利用模型在测试集的基础上得到缺失值那部分的数据,最后填充值原特征矩阵中。

    最后预测出的结果如下:

    可以看到原特征矩阵中缺失值的一部分被填充好了,这种利用算法填充缺失值的方法应该是精度最高的,因为缺失值是在原有数据的基础上预测出的,而不是随意猜测的,但缺点就是没有前几种便利,当特征或缺失值较多时会比较耗时。

    说在最后

    缺失值处理是特征工程至关重要的一步,而特征工程和数据本身往往决定着一个模型的上限,所以数据集中的缺失值在一个项目中值得我们花些时间去处理,而不是用自己的幸运数字随意填充,一句话总结就是"你不要你觉得,而是模型觉得"。

    推荐阅读(点击标题可跳转阅读)同济版《线性代数》引发激烈争议!
    介绍一款分享真实互联网薪资的小程序
    21张让你代码能力突飞猛进的速查表(神经网络、机器学习、可视化等)
    
    
    
    
    转了吗                                                              赞了吗在看吗
    
    展开全文
  • 填充缺失值应该是最常用且有效的处理方式了,下面介绍四种处理缺失值的常用Tips。 我自己构建了一个简易的含有缺失值的DataFrame,所有操作都基于这个数据集进行。 1、删除缺失值 删除虽说是一个可行的方式,但肯定...

    不论是自己爬虫获取的还是从公开数据源上获取的数据集,都不能保证数据集是完全准确的,难免会有一些缺失值。而以这样数据集为基础进行建模或者数据分析时,缺失值会对结果产生一定的影响,所以提前处理缺失值是十分必要的。

    对于缺失值的处理大致可分为以下三方面:

    不处理

    删除含有缺失值的样本

    填充缺失值

    不处理应该是效果最差的了,删除虽然可以有效处理缺失值,但是会损伤数据集,好不容易统计的数据因为一个特征的缺失说删就删实在说不过去。填充缺失值应该是最常用且有效的处理方式了,下面介绍四种处理缺失值的常用Tips。

    我自己构建了一个简易的含有缺失值的DataFrame,所有操作都基于这个数据集进行。

    1、删除缺失值

    删除虽说是一个可行的方式,但肯定是不能随便删除的,比如一个样本中仅有一个特征的值缺失,这样的情况下填充取得的效果一定会优于删除,所以在删除缺失值时,我们需要一个衡量的标准。

    删除的方式无非有两种,一是删除缺失值所在行,也就是含有缺失值的样本;二就是删除缺失值所在列,也就是含有缺失值的特征,下面以后者为例。

    首先需要确定的是删除的标准是什么?比如一个特征的缺失值所占比例已经超过了50%,如果选择填充的话,就表明该特征超五成的值都是自己猜测填入的,导致误差可能比删除这个特征还要大。

    def find_missing(data):

    #统计缺失值个数

    missing_num = data.isna().sum(axis=

    0).sort_values(ascending=

    False)

    missing_prop = missing_num/float(len(data))

    #计算缺失值比例

    drop_index = missing_prop[missing_prop>

    0.5].index.tolist()

    #过滤要删除特征名

    return drop_index

    在确定了这个标准之后,就可以利用一个自定义函数,将我们期望实现的功能封装至函数中。比如上面这个函数,先确定每个特征的缺失值个数并降序排列,然后计算缺失值比例,最后利用布尔索引得到需要删除的特征名。

    data2 = data.copy()

    data2.drop(find_missing(data2),axis =

    1)

    在数据集上应用这个函数,可以看到缺失值占比超50%的特征C被删除了。

    这个衡量标准自己可以依据情况设定,然后删除样本的方式可以类比上述删除特征的方式。

    2、pandas填充

    pandas中的fillna()应该是最常用的一种填充缺失值方法,可以指定填充指定列或者整个数据集。

    data[

    'A'].fillna(value = data[

    'A'].mean(),limit=

    1)

    比如上面这句代码,就是只填充特征A一列,填充的选择可以利用平均数、中位数、众数等等,limit是限制要填充的个数,如果有两个缺失值,但是参数limit=1的话,按顺序填充第一个。

    value参数也允许传入字典格式,键为要填充的特征名,值为要填充的缺失值。

    values = {

    'A':

    4,

    'B':

    3,

    'C':

    4}

    data.fillna(value=values)

    填充之后结果如下:

    fillna()方法固然简单,但前提是含有缺失值的特征比较少,如果很多的话,代码就会很冗杂,客观性也比较差。

    3、sklearn填充

    第二种填充方式是利用sklearn中自带的API进行填充。

    from sklearn.impute

    import SimpleImputer

    data1 = data.copy()

    #得到含有缺失值的特征

    miss_index = data1.isna().any()[data1.isna().any().values ==

    True].index.tolist()

    print(miss_index)

    '''

    ['A', 'B', 'C']

    '''

    首先利用布尔索引得到数据集含有缺失值的特征,后续操作只针对含有缺失值的特征。

    miss_list = []

    for i

    in miss_index:

    #将一维数组转化为二维

    miss_list.append(data1[i].values.reshape(

    -1,

    1))

    for i

    in range(len(miss_list)):

    #利用众数进行填充

    imp_most = SimpleImputer(strategy=

    'most_frequent')

    imp_most = imp_most.fit_transform(miss_list[i])

    data1.loc[:,miss_index[i]] = imp_most

    最需要注意的一点是SimpleImputer传入的参数至少要是二维,如果将直接索引出的一列特征传入的话,是会发生报错的,所以必须利用reshape()将一维转化为二维。之后的操作就是先实例化、然后训练模型,最后用填充后的数据覆盖之前的数据。

    参数strategy共有四个选项可填:

    1、mean:平均数

    2、median:中位数

    3、most_frequent:众数

    4、constant:如果参数指定这个,将会选择另一个参数fill_value中的值作为填充值。

    SimpleImputer优于fillna()之处在于前者可以一行语句指定填充值的形式,而利用fillna()需要多行重复语句才能实现,或者需要提前计算某列的平均值、中位数或者众数。

    4、利用算法填充

    我们都知道一般的算法建模是通过n个特征来预测标签变量,也就是说特征与标签标量之间存在某种关系,那么通过标签变量与(n-1)个特征是否能预测出剩下的一个特征呢?答案肯定是可以的。

    实际上标签变量和特征之间可以相互转化,所以利用这种方法就可以填补特征矩阵中含有缺失值的特征,尤其适用于一个特征缺失值很多,其余特征数据很完整,特别标签变量那一列的数据要完整。

    但是往往一个特征矩阵中很多特征都含有缺失值,对于这种情况,可以从特征缺失值最少的一个开始,因为缺失值越少的特征需要的信息也就越少。

    当预测一个特征时,其余特征的缺失值都需要用0暂时填补,每当预测完一列特征,就用预测出的结果代替原数据集对应的特征,然后预测下一特征,直至最后一个含有缺失值的特征,此时特征矩阵中应该没有需要利用0填补的缺失值了,表示数据集已经完整。

    以随机森林算法为例,实现上面表述填充缺失值的过程。

    data3 = data.copy()

    #获取含有缺失值的特征

    miss_index = data3.isna().any()[data3.isna().any().values ==

    True].index.tolist()

    #按照缺失值多少,由小至大排序,并返回索引

    sort_miss_index = np.argsort(data3[miss_index].isna().sum(axis =

    0)).values

    sort_miss_index

    '''

    array([1, 0, 2], dtype=int64)

    '''

    第一步就是通过布尔索引得到含有缺失值的特征,并且根据缺失值的多少进行由小到大排序,这里选择利用argsort,因为返回的排序是特征在特征矩阵中的索引。

    for i

    in sort_miss_index:

    data3_list =  data3.columns.tolist()

    #特征名

    data3_copy = data3.copy()

    fillc = data3_copy.iloc[:,i]

    #需要填充缺失值的一列

    # 从特征矩阵中删除这列,因为要根据已有信息预测这列

    df = data3_copy.drop(data3_list[i],axis =

    1)

    #将已有信息的缺失值暂用0填补

    df_0 = SimpleImputer(missing_values=np.nan,strategy=

    'constant',fill_value=

    0).fit_transform(df)

    Ytrain = fillc[fillc.notnull()]

    #训练集标签为填充列含有数据的一部分

    Ytest = fillc[fillc.isnull()]

    #测试集标签为填充列含有缺失值的一部分

    Xtrain = df_0[Ytrain.index,:]

    #通过索引获取Xtrain和Xtest

    Xtest = df_0[Ytest.index,:]

    rfc = RandomForestRegressor(n_estimators =

    100)

    #实例化

    rfc = rfc.fit(Xtrain,Ytrain)

    # 导入训练集进行训练

    Ypredict = rfc.predict(Xtest)

    # 将Xtest传入predict方法中,得到预测结果

    #获取原填充列中缺失值的索引

    the_index = data3[data3.iloc[:,i].isnull()==

    True].index.tolist()

    data3.iloc[the_index,i] = Ypredict

    # 将预测好的特征填充至原始特征矩阵中

    这部分代码主要的思想就是,先将需预测的一列特征暂定为标签,然后预测列中含有数据的一部分作为训练集,含有缺失值的一部分作为测试集,通过随机森林在训练集上建模,利用模型在测试集的基础上得到缺失值那部分的数据,最后填充值原特征矩阵中。

    最后预测出的结果如下:

    可以看到原特征矩阵中缺失值的一部分被填充好了,这种利用算法填充缺失值的方法应该是精度最高的,因为缺失值是在原有数据的基础上预测出的,而不是随意猜测的,但缺点就是没有前几种便利,当特征或缺失值较多时会比较耗时。

    说在最后

    缺失值处理是特征工程至关重要的一步,而特征工程和数据本身往往决定着一个模型的上限,所以数据集中的缺失值在一个项目中值得我们花些时间去处理,而不是用自己的幸运数字随意填充,一句话总结就是"你不要你觉得,而是模型觉得"。

    展开全文
  • Sheet1人教版一年级语文上册生字表生字表1要求:会认、会读、会写400汉语拼音bàmāwǒ3爸妈我3dàmǐtǔdìmǎ4大米土地马8huāɡēd&ig
  • 真的是数不胜数从各种字体公司拔地而起的那一刻,他们公司的法务部门也同时开始运作设计一套字体的成本是巨大的十几个设计师,耗时一年的时间,成本几十万甚至几百万上下做一套常用字差不多是3000多个,这可是这些...

    字体侵权的事情每年都有,真的是数不胜数

    从各种字体公司拔地而起的那一刻,他们公司的法务部门也同时开始运作

    设计一套字体的成本是巨大的

    十几个设计师,耗时一年的时间,成本几十万甚至几百万上下

    做一套常用字差不多是3000多个,这可是这些设计师这一年的心血

    所以,相对于字体的版权费用也是非常的高

    一套字体一年的使用几万块钱还是有的

    甚至你一家公司需要使用好几套字体

    对于大部分的公司来说,都无法承担这样的费用

    所以,在设计师用到字体的时候,是对设计师经验上一个极大的考验

    没有经验,使用了未授权字体,如果被查到了,那么律师函就直接发到家门口了

    小到几千几万,大到几千万,一年不计胜数的企业被字体公司起诉

    这就说到字体公司的法务部门,拿着高额的提成,在各种网站或者第三方平台上寻找违规企业

    我个人是很羡慕这种职业的,收入真的很高

    被起诉是一件很恐怖的事情,小到被上司劈头盖脸的一顿骂

    遇到一些企业呢,甚至有可能赔偿损失,甚至于开除

    这已经司空见惯了,之前帮一个企业做品牌的时候,遇到他们的一个设计师

    在包装上使用了方正字体,然后就收到了起诉,因为只有几个字,而且权重不高

    只出了几千元的罚款,后来员工也比较不好意思,就离职了。

    讲一个2019年发生的比较严重的字体侵权,也就是今年

    d3d6715d39588706c68880ef65d845a9.png

    这个事情呢,是同时的盗版PS跟微软雅黑的侵权处理,算是比较严重了

    微软雅黑呢,是一款微软委托方正集团设计的字体,所以版权是在方正手里的

    事情的严重你们也看到了,裁了8个主管,42个人,这是个什么概念呢

    我预计千万资产的企业也不过就八个主管,这一解雇就等于放弃了一个千万资产的公司

    这个盗版软件侵权的事情,我们下一次更新再给大家了解

    接下来我说一下什么时候容易被发现字体侵权

    你在某第三方知名平台上上传的一些产品,是否包含了侵权字体?

    他们先搜寻的就是各大第三方网站,越出名他们就查的越严格

    e7babbf10126ab594033c65a4c038f5c.png

    其次呢会从你公司的各个设计上面审查

    比如你的包装上,你的网站上,你的推广上面

    总之来说,你的公司知名度越高,越会被这些字体公司盯上

    基本上像那些也没有什么知名度,活下去都难的公司也很少想跟你交集

    因为麻烦也没啥利益

    下面给大家介绍一下大部分的字体公司中有哪些是免费的,是比较常用的,好好记录哦

    一. 思源类字体。可以免费商用的有:思源黑体,思源宋体,思源柔黑体

    二. 方正类字体. 可以免费商用的有:方正仿宋(简,繁),方正黑体(简,繁),方正楷体(简繁),方正书宋(简,繁)

    三. 站酷类字体. 可以免费商用的有:站酷庆科黄油体,站酷快乐体,站酷高端黑,站酷文艺体,站酷小薇LOGO,站酷酷黑

    四.这个我希望你们划一个重点,华康字体!不是免费的,但是在阿里巴巴的旗下使用是没有问题的!记住了啊,是在阿里巴巴旗下平台!这个字体在电商行业是非常常见的

    六. 文泉驿字体,可以免费商用的字体有:文泉驿等宽微米黑, 文泉驿微米黑,文泉驿等宽正黑,文泉驿正黑。

    基本上所有的需求这几款字体就都能满足了

    字体的使用要好好地注意,这也是一个非常严重的事情!!切记

    展开全文
  • 今天妙妙给大家分享的是3000识字测试表,PDF格式:孩子识字量少,会让孩子在同学间产生自卑感,也会使得孩子读不懂题目,会影响孩子的理解能力。无法自主阅读丰富的书籍,尤其是小学一、二、三年级的孩子更加偏重于...

    8b11b69b17ed8530cefc5f68c3676d14.png

    和孩子一起“玩”出对科学的热爱

    Hello,奇妙俱乐部的大朋友小朋友们~

    欢迎来到奇妙实验室!

    68dad934450f3aaf4334a478f0e1f9d0.png

    无需分享、转发就能领取,领取方式看文末(注意:是公众号后台回复关键词,关键词在文末)。

    今天妙妙给大家分享的是3000识字测试表,PDF格式:

    00898c893d616ce9ac4e1a03a8702f0b.png

    孩子识字量少,会让孩子在同学间产生自卑感,也会使得孩子读不懂题目,会影响孩子的理解能力。

    无法自主阅读丰富的书籍,尤其是小学一、二、三年级的孩子更加偏重于习惯的培养,阅读习惯没有养成,会影响孩子的一生。

    小学毕业要求认识常用汉字3000个左右,其中2500个会写。
    中学毕业要求认识常用汉字3500个左右。

    一、第一学段(1~2年级):

    认识常用汉字1600个左右,其中800个左右会写。

    二、第二学段(3~4年级):

    累计认识常用汉字2500个左右,其中1600个左右会写。

    三、第三学段(5~6年级):

    累计认识常用汉字3000个左右,其中2500个左右会写。

    四、第四学段(7~9年级):

    累计认识常用汉字3500个左右。三千字可以覆盖小学阶段了,让娃在低龄的时候就储备足够的识字量,为以后的自主阅读打下坚实的基础。

    PDF版本:

    208acfe30df7ba9b417e1025d9b2cd5a.png

    有拼音注音。

    给孩子测试、巩固、学习都可以。

    快为孩子领取一份吧!

    领取方式

    公众号对话框回复关键字“3000”,无需转发文章,直接领取!

    143fd9b8691347033a36a481e1dd538c.png

    扫码添加妙妙微信

    获取更多福利

    往期福利回顾福利免费领|夏季学习打印包第一周:【动物园主题】2-10岁分级材料

    福利免费领|夏季学习打印包第二周:【超级英雄主题】2-10岁分级材料

    福利免费领|夏季学习打印包【第三、四周:探险者、昆虫主题】2-10岁分级材料

    福利免费领|夏季学习打印包第五周:【小怪兽主题】2-10岁分级材料

    福利免费领|小学1-6年级数学计算专练,口算、分数、小数...PDF格式自行打印福利免费领|全套美国《国家地理儿童百科》72册电子书+MP3音频+电子版练习册、评估手册(入门级+提高级+流利级)福利免费领|Phonics Kids Book自然拼读1-6全套PDF格式教材福利免费领|影响世界的近100部经典名著,中文版有声书MP3格式福利免费领|国学大智慧200+个视频动画:百家姓、三字经、弟子规、论语、千字文福利免费领|小鲁说历史故事100集,给儿童讲伟人故事,说世界历史、中国历史...MP3格式!福利免费领|BBC《Alpha blocks 字母积木》自然拼读动画片4季91集(视频+英文字幕)福利免费领|0-10岁《苏西托曼》经典英文儿童歌曲109首(4张专辑)福利免费领|英文原版《神奇的机器》Amazing Machines系列绘本,7本PDF格式+音频福利免费领|英文版数学启蒙绘本教材Mathstart level123合集63本福利免费领|原版《羊驼拉玛》绘本PDF+视频+音频,儿童行为情绪引导福利免费领|BBC主持人、明星朗读175个英文睡前故事福利免费领|大英儿童百科全书认知系列英文版(pdf+mp3)

    福利免费领|皮特猫Pete the cat系列全集音频、视频、互动材料

    【福利免费领】编程游戏包——走出迷宫,可配合乐高练习使用

    福利免费领!16部豆瓣高分BBC纪录片,孩子的眼界从此不一般

    福利免费领!超全面!The Magic School Bus神奇校车绘本PDF+中英文mp3+动画

    福利免费领!美音拼读训练动画片《单词世界word world》第1-2季

    【福利免费领】洪恩幼儿英语,分年龄段教学,多部全集资源免费领

    【福利免费领】BBC收视率最高动画《查理和罗拉 Charlie and Lola》多版本下载

    持续更新,敬请期待...

    27933f8c41645858cc1daf1b86031e92.png
    展开全文
  • 网上的1.7M的字体会有乱码,此字体无乱码。精简过保留常用字3000多个!
  • 这篇文章主要介绍了最常用的1000个Java类(附代码示例),需要的朋友可以参考下 分析Github 3000个开源项目,粗略统计如下。括号内的数字是使用频率 0-3000. 下面的列表显示不全,完整的请看完整列表。 1.java....
  • 字体反爬

    2020-07-20 20:21:54
    因为创造字体费时费力,并且如果把中国3000常用汉字都实现,那么这个字体将达到几十兆,也会影响网页的加载。一般情况下为了反爬虫,仅会针对0-9以及少数汉字进行自己单独创建,其他的还是使用用户系统中自带的...
  • 数字型:一、整型int作用:年纪,等级,身份证号,qq号等整型数字相关定义:age=10 #本质age=int(10)​数据类型转换:只能将纯数字的字符串转换成int​常用操作+内置的方法:普通加减乘除运算二、浮点型float作用:...
  • 3、3000中文常用字、8000中文常用字,都是文本文件 4、精简ttf文字工具 5、精简版8000字微软雅黑 8000常用字由于个人失误忘记填写了,具体可以参考...
  • 中文字体点阵打印

    千次阅读 2012-06-20 13:35:37
    根据对汉字使用频率的研究,可把汉字分成高频字(约100 个),常用字(约3000 个),次常用字(约4000 个),罕见字(约8000 个)和死字(约45000 个),即正常使用的汉字达15000 个。我国1981 年公布了《通讯用汉字...
  • Bash解析器常用快捷键

    2021-02-16 22:10:23
    Bash解析器常用快捷键 5.1 Tab键 补齐命令 补齐路径 显示当前目录下的所有目录 5.2 清屏 clear作用为清除终端上的显示(类似于DOS的cls清屏功能),也可使用快捷键:Ctrl + L ( “L” 为字母 )。 5.3 中断进程 ctlr+c...
  • Pandas常用函数大合集

    2020-11-02 09:43:00
    来源:机器之心本文约3000字,建议阅读5分钟pandas 是 python 成为出色的编程语言的原因之一。Python 是开源的,它很棒,但是也无法避免开源的一些固有问题:很多包都在做...
  • 常用CPLD芯片有:Xilinx公司的XC9500/XL/XV系列,低功耗的CoolRunner系列;Altera的低成本MAX3000/A系列,高性能MAX7000S/AE/B系列。  下面以Xilinx的XC9500XL系列CPLD为例来说明该类器件的命名规则,如图1所示。...
  • 数字型: 一、整型int  作用:年纪,等级,身份证号,qq号等整型数字相关  定义:age=10 #本质age=int(10) ​ 数据类型转换:只能将纯数字的字符...​ 定义:salary=3000.3 #本质salary=float(3000.3) ​ 数据类型...
  • 数字图书馆

    2011-12-11 15:04:06
    要求内容正确,语言简练,表达清楚,字数不低于3000字。 2论文应包括以下内容 (1)封面(见给定封面格式) (2)摘要,150左右 (3)关键词,3-5个 (4)正文 (5)参考文献 参考文献格式要求:(见...
  • 记录常用的JS/jq备忘

    2017-03-10 16:21:37
    JS数组读取 data = eval('(' + data + ')'); 限制input 只能是数字 并且不能大于多少 3000){this.value=3000}}).call(this)" onblur="this.v();" />
  • 常用CPLD芯片有:Xilinx公司的XC9500/XL/XV系列,低功耗的CoolRunner系列;Altera的低成本MAX3000/A系列,高性能MAX7000S/AE/B系列。  下面以Xilinx的XC9500XL系列CPLD为例来说明该类器件的命名规则,如图1所示。...
  • 常用的1000个Java类(附代码示例)

    千次阅读 2017-10-16 14:57:01
    这篇文章主要介绍了最常用的1000个Java类(附代码示例),需要的朋友可以参考下 分析Github 3000个开源项目,粗略统计如下。括号内的数字是使用频率 0-3000. 下面的列表显示不全,完整的请看完整列表。 1....

空空如也

空空如也

1 2 3 4 5 ... 8
收藏数 151
精华内容 60
关键字:

常用字3000