精华内容
下载资源
问答
  • 这本书介绍了好几种当下流行的Web开发语言,对于稍有编程基础的人,都能很好的了解和学习这本书。很不错!你会在其中找到你钟爱的语言。
  • 题目:Wide & Deep Learning for Recommender Systems 摘要 具有非线性特征变换的广义线性模型被广泛用于稀疏输入的大规模回归和分类问题。通过一系列方法来记忆特征交互效果是有效且可解释的,而泛化则需要...

    题目:Wide & Deep Learning for Recommender Systems

    摘要


    具有非线性特征变换的广义线性模型被广泛用于稀疏输入的大规模回归和分类问题。通过一系列方法来记忆特征交互效果是有效且可解释的,而泛化则需要更多的特征工程工作。用更少特征工程的时候,深度神经网络可以通过低纬度的embedding向量学习到更多隐藏下的特征组合,以此构建一个更好的稀疏模型。然而,带有嵌入向量的深层神经网络可能过于泛化,并在用户与item互动稀疏时对一些相关性较低的item进行高打分。在本文中,我们介绍Wide & Deep联合训练的广泛线性模型和深度神经网络-结合记忆和推广推荐系统的好处。我们在Google Play上生产并评估了该系统,拥有超过十亿活跃用户的商业移动应用商店用户和超过一百万个应用。在线实验结果结果表明,与“仅宽版”和“仅深层”模型相比,Wide&Deep大大增加了应用的购买量。我们还已在TensorFlow中开源了我们的实现。

    CCS概念
    •计算方法论→机器学习; 神经网络; 监督学习; •信息系统→推荐系统;

    1.引言


    推荐系统可以视为搜索排名系统,其中输入查询是一组用户和上下文信息,并且输出是item的排名列表。特定一个查询词,推荐任务是找到相关的数据库中的项目,然后根据某些项目对项目进行排名目标,例如点击或购买。

    与一般搜索排名问题类似,推荐系统中的一项挑战是同时保证学习到过往的经验,并且将这个经验进行泛华到新的时刻中。 记忆可以大致定义为学习频繁出现的item或特征,以及利用历史数据中可用的相关性。另一方面,泛化基于可传递性相关性,并探索过去从未或很少发生过的新功能组合。 基于记忆的推荐结果,通常比较容易将用户和已经有过交互的商品直接相关执行的动作给推荐出来。 与记忆相比,泛化倾向于提高推荐内容的多样性项目。 在本文中,我们重点介绍应用程序推荐Google Play商店出现问题,但该方法应该适用于通用推荐系统。

    对于工业环境中的大规模在线推荐和排名系统,广义线性模型例如逻辑回归,由于逻辑回归简单,可扩展且可解释,因此被广泛使用。模型的输入经常是一些稀疏特征。例如,二进制特征“ user_installed_app = netflix”,如果用户安装了Netflix,那么值为1。模型通过对这些稀疏特征之间的交叉方式,可以更好的记忆下这些特点,例如AND(user_installed_app = netflix,impression_app = pandora”),如果用户已安装Netflix,其值为1,然后再曝光pandora。这说明了特征对的共现与目标相关标签。可以使用以下功能添加泛化功能:较小的粒度,例如AND(user_installed_category = video,impression_category = music),但通常需要手动进行特征工程。跨item转换的局限性在于它们不能推广到训练数据中未出现的查询项特征对。

    基于嵌入的模型,例如分解机[5]或深度神经网络可以通过学习低维数来推广到以前不确定的query-item对特征,对每个query和item特征的密集嵌入向量,减轻了特征工程负担。 但是,当querys和items组成的矩阵很稀疏的情况下,要学习query和item之间的交互关系是很难的,例如具有特定偏好的用户或吸引人的利基产品时。 在这种情况下,大多数查询项对之间应该没有交互,但是密集的嵌入将导致用户和所有预测item直接都是非0的分数,这种情况下可以过度概括,推出一些不相干的Item。 另一方面,具有跨item特征交叉的线性模型可以记住这些具有更少参数的“例外规则”

    在本文中,我们提出了Wide & Deep框架,可以在一个框架中同时实现记忆和泛化通过联合训练线性模型组件和神经网络组件如图1所示。

    该论文的主要贡献包括:

    •Wide & Deep学习框架,用于共同训练带有嵌入的前馈神经网络和具有特征转换的线性模型,以实现通用的具有稀疏数据输入的推荐系统。

    •Wide & deep 在Google Play上生产的深度推荐系统的实现和评估,拥有超过十亿活跃用户的移动应用商店用户和超过一百万个应用。
    •我们将实施的资源与TensorFlow1中的高级API。

    虽然想法很简单,但我们证明了框架大大提高了应用程序的获取率在移动应用商店上,同时满足训练和服务速度要求。

    2.推荐系统概述

    在图2中显示了应用推荐系统的概述。一个查询,可以发生在不同的user和user访问应用商店程序时生成上下文特征。 推荐系统返回应用列表(也称为展示次数),用户可以在其上执行某些操作,例如点击或购买。 这些用户操作,连同查询和反应(曝光 点击 下载)一起记录为学习者的训练数据。

    由于数据库中有超过一百万个应用程序,在服务延迟要求(通常为O(10)毫秒)内,因此难以为每个查询详尽地评分每个应用程序。 因此,接收到查询的第一步是检索。 检索系统返回项目的简短列表最适合使用各种信号查询的查询,通常是机器学习模型和人工定义的结合规则。 减少候选库后,排名系统将所有项目按其得分进行排名。 分数通常是P(y | x),代表用户在特征集x下,对推荐item进行点击/下载的概率,包括用户特征(例如,国家/地区,语言,受众特征),上下文特征(例如设备,日期,星期几)和展示功能(例如,应用年龄,应用的历史统计数据)。 在本文中,我们专注于使用广泛和深度学习框架的排名模型。

    3. WIDE & DEEP 学习

    3.1 The Wide Component

    wide component 是模型的广义线性模型形式y = wT x + b,如图1所示(左)。 y是预测值,x = [x1,x2,...,xd]是d个特征的向量,w =[w1,w2,...,wd]是模型参数,b是偏差。特征集包括原始输入特征 + 已转换的特征。最重要的转变之一是交叉特征,定义为:

    其中cki是一个布尔变量,如果第i个特征是第k个转换φk的一部分,则为1,否则为0。对于二进制特征,请进行交叉转换(例如,当且仅当“ AND(gender = female,language = en)”)为1构成特征(“性别=女性”和“语言= en”)全部为1,否则为0。 这捕获了交互之间的二元特征,并增加了非线性广义线性模型。

    3.2 The Deep Component

    deep component 是前馈神经网络,例如如图1所示(右)。 对于分类特征,原始输入是字符串(例如“ language = en”)。 这些稀疏的高维类别特征是首先转换为低维且密集的实值向量,通常称为嵌入向量。 嵌入的维数通常在O(10)至O(100)。 嵌入向量被随机初始化,然后训练值以最小化最终模型训练中的损失函数来进行优化这些向量。 这些低维密集的嵌入向量馈入隐藏层正向传递中的神经网络 具体来说,每个隐藏层执行以下计算:

    其中l是层号,f是激活函数,通常是线性整流单位(ReLU)。 a(L),b(L)和W(l)是第l层的激活输入,偏差和模型权重。

    3.3联合训练

    wide部分和deep部分相结合,使用其输出对数几率的加权总和作为预测值,然后将其馈送到一个常见的对数损失函数以进行联合训练。注意联合训练和合奏之间有区别。在联合中,单独的模型在不知道每个模型的情况下分别进行训练,并且它们的预测值仅在推断时进行组合,而不是在训练时间。相反,联合训练同时采用以及它们的总和的权重在训练时。对模型有影响大小也是如此:对于联合而言,由于训练是不相交的,因此每个单个模型的大小通常需要更大(例如,更多功能和变化)以实现合理工作合奏的准确性。相比之下,对于联合训练广泛的部分只需要用少量的交叉操作来补充deep层的弱点特征转换,而不是全尺寸的模型。

    Wide & Deep模型的联合训练是通过将输出的梯度反向传播到,wide和deep层。 在实验中,我们使用带有L1正则化的Follow-regularized-leader(FTRL)算法[3]作为模型wide部分的优化程序,而AdaGrad [1]是deep的部分。

    组合模型如图1所示(中心)。对于逻辑回归问题,模型的预测为:

    其中Y是二进制类别标签,σ(·)是S形函数 sigmoid,φ(x)是原始特征集x的交叉变换,b是偏差项。 Wwide是wide层的模型权重向量,并且Wdeep要进到最后一个激活层a(lf)来进行优化。

    4.系统实现

    应用程序推荐管道的实施包括三个阶段:数据生成,模型训练,和模型,如图3所示。

    其余部分不涉及到模型架构,所以忽略,感兴趣的可以直接从论文中阅读

    论文链接:https://arxiv.org/pdf/1606.07792.pdf

    6:相关工作

    将叉积特征变换的宽线性模型与、和、具有密集嵌入的深度神经网络相结合的想法的设计是受先前工作启发的,例如分解机fm[5],它为线性增加了概括通过分解两个变量之间的相互作用建立模型作为两个低维嵌入之间的点积向量。 在本文中,我们通过学习嵌入之间的高度非线性相互作用通过神经网络代替点积

    在语言模型中,使用n-gram特征联合训练递归神经网络(RNNs)和最大熵模型,已提出在输入和输出之间[4]通过学习直接权重以显着降低RNN的复杂度(例如隐藏层的大小)。 在计算机视觉方面,深度残差学习[2]已被用来解决训练深度网络的困难,以及通过跳过一层或多层的连接来提高准确性。 联合训练具有图形模型的神经网络也已被应用根据图像对人体姿势进行估计[6]。 在这项工作中,我们探索了前馈神经网络和线性模型的联合训练,稀疏之间的直接交叉特征部件和输出单元,用于通用推荐以及稀疏输入数据的排序问题。

    在推荐系统文献中,通过结合深度学习来深入协作来探索学习内容信息和协作过滤(CF)评分矩阵[7]。 以前也有关于移动应用推荐系统,例如AppJoy在用户的应用使用记录中使用CF [8]。 与...不同在先前的工作中基于CF或基于内容的方法,我们联合针对用户和印象数据训练了Wide & Deep模型应用推荐系统的数据

     

     

    展开全文
  • 我们评估在Google Play上评估了该方法,在线实验结果显示,相比于单个的wide或者deep模型,WD模型显著的增加了app获取率。我们在tensorflow上开源了该源码。 点评: 提出了一个结合使用了非线性特征的线性模型和一...

    在这里插入图片描述

    摘要

    在这里插入图片描述
    通过将稀疏数据的非线性转化特征应用在广义线性模型中被广泛应用于大规模的回归和分类问题。通过广泛的使用交叉特征转化,使得特征交互的记忆性是有效的,并且具有可解释性,而然不得不做许多的特征工作。相对来说,通过从稀疏数据中学习低纬稠密embedding特征,并应用到深度学习中,只需要少量的特征工程就能对潜在的特征组合具有更好的范化性。 但是当用户项目交互是稀疏和高纬数据的时候,利用了embeddings的深度学习则表现得过于笼统(over-generalize),推荐的都是些相关性很低的items。在这篇文章中,我们提出了一个wide and deep 联合学习模型,去结合推荐系统的memorization和generalization。我们评估在Google Play上评估了该方法,在线实验结果显示,相比于单个的wide或者deep模型,WD模型显著的增加了app获取率。我们在tensorflow上开源了该源码。
    点评: 提出了一个结合使用了非线性特征的线性模型和一个用来embedding特征的深度学习,并且使用联合训练的方法进行优化。思想是,基于交叉特征的线性模型只能从历史出现过的数据中找到非线性(显性的非线性),深度学习可以找到没有出现过的非线性(隐形的非线性)。

    1 介绍

    在这里插入图片描述在这里插入图片描述
    推荐系统可以被看做是一个搜索排序系统,其中输入的query是一系列的用户和文本信息,输出是items的排序列表。给定一个query,推荐的任务就是到数据库中去找出相关的items,然后对这些items根据相关对象,如点击或者购买行为,进行排序。
    在这里插入图片描述
    和传统的搜索排序问题一样,在推荐系统中,一个挑战就是区域同时达到memorization和generalization。Memorization可以被大概定义为学习items或者features之间的相关频率,在历史数据中探索相关性的可行性Generalizaion的话则是基于相关性的传递,去探索一些在过去没有出现过的特征组合。基于memorization的推荐相对来说具有局部性,是在哪些用户和items已经有直接相关联的活动上。相较于memorization,generalization尝试去提高推荐items的多元化。在这篇paper中,我们主要关注Google Play 商店的app推荐问题,但是该方法对推荐系统具有通用性。
    在这里插入图片描述
    在工业中,对于大规模的在线推荐和排序系统,想逻辑回归这样的广义线性模型应用是相当广泛的,简单,伸缩性好,可解释性强。可以喂给它一些one-hot编码的稀疏特征,比如二值特征‘user_installed_app=netfix’表示用户安装了Netflix。Memorization则可以通过对稀疏特征做交叉积转换获得,就是求交叉特征,比如AND操作 (user_installed_app= netflix, impression_app=pandora )这两个特征,当用户安装了Netflix并且之后展示在Pandora上,那么得到特征的值为1,其余为0.这个交叉特征就展示了特征对之间的相关性和目标lable之间的关联。Generalization可以通过增加一些粗粒度的特征实现,如AND(user_installed_category=video, impression_category=music ),但是这写都是需要手工做特征工程实现。交叉积转换的一个限制就是他们不能生成从未在训练数据中出现过的query-item特征对。
    点评: 这里主要是对接下来线性模型需要的特征做了下解释,一个是one-hot,比较稀疏。一个是交叉特征,简单的说就是AND,就是特征之间做笛卡尔积。用于线性模型去寻找显性的非线性。
    在这里插入图片描述
    在这里插入图片描述
    像FM或者DNN,这种基于embedding的模型,是对预先没出现的query-item特征对有一定范化性,通过为每个query和item特征学习一个低纬稠密的embedding向量,而且不需要太多的特征工程。但是如果潜在的query-item矩阵是稀疏,高秩的话,为query和items学习出一个有效的低纬表示往往很困难,比如基于特殊爱好的users,或者一些很少出现的小众items。在这种情况下,大多数的query-item没有交互,但是稠密的embedding还是会对全部的query-item对有非零的输出预测,因此能做出一些过范化和做出一些不太相关的推荐。另一方面,利用交叉积特征的线性模型能用很少的参数记住那些‘exception_rules’。
    点评: 讲了下深度网络需要的特征,embedding特征,就是把稀疏数据映射到稠密的低纬数据。
    在这里插入图片描述
    在这篇paper里,我们提出一个wide&Deep学习框架,以此来同时在一个模型中获得Memorization和generalization,并联合训练之。
    本文的主要贡献:
    1.联合训练使用了embedding的深度网络和使用了交叉特征的线性模型。
    2.WD系统在Google Play上投入使用。
    3.在Tensrolfow开源代码。
    尽管idea简单,但是wd显著的提高了app获取率,且速度也还可以。

    2 推荐系统综述

    在这里插入图片描述在这里插入图片描述
    图2展示了app推荐系统的概括图。
    query:当用户访问app store的时候生成的许多用户和文本特征。 推荐系统返回一个app列表(也被叫做展示(impressions)),然后用户能在这些展示的app上进行确切的操作,比如点击或者购买。这些用户活动,以及queries和impressions都被记录下来作为训练数据。 因为数据库中有过百万的apps,所以对全部的app计算score不合理。因此,收到一个query的第一步是retrieval(检索)。检索系统返回一个items的短列表,这个列表是通过机器学习和人工定义的大量标记找出来的,和query最匹配的一个app列表。然后减少了候选池后,排序系统通过对这些items按score再对其进行排序。而这个scores通常就是给定的特征x下,用户行为y的概率值 P(y|x)。特征x包括一些用户特征(国家,语言。。。),文本特征(设备。使用时长。。。)和展示特征(app历史统计数据。。。)。在本论文中,我们主要关注的是将WD模型用户排序系统。

    3 w&d learning

    在这里插入图片描述
    点评: 公式(1)就是生成交叉特征,cki是一个boolean值变量,当第i个特征是第k个转换ϕk,否则的就是0。对于一个二进制特征,交叉积特征可以简单理解为AND(gender=female,language=en),当且仅当gender=female,language=en时,交叉特征为1,其他都为0。该方法能捕捉出特征间的交互,为模型添加非线性。Deep模块其实就是说输入的类别特征是字符串,得转化下,然后做embedding,模型是一个全连接。
    在这里插入图片描述
    点评:一个是联合训练,就是一起训练,一个是优化器,分别为FTRL和AdaGrad。最后是将两个模型的输出加起来。WdeepWdeep其实就是隐藏层到输出层的权值。

    4 系统

    在这里插入图片描述
    在这里插入图片描述
    app推荐主要由三个阶段组成,data generation,model training,model serving。图3所示。
    数据生成阶段,就是把之前的用户和app展示数据用于生成训练数据。每个样本对应一个展示,标签是app acquisition:如果展示的app被安装了则为1,否则为0。
    Vacabularies,是一些将类别特征字符串映射为整型的ID。系统计算为哪些出现超过设置的最小次数的字符串特征计算ID空间。连续的实值特征通过映射特征x到它的累积分布P(X<=x),将其标准化到[0,1],然后在离散到nq个分位数。这些分位数边界也是在该阶段计算获得。
    点评: 将整个推荐过程分为三部分,一:数据生成,为线性模型创建交叉特征,为深度模型创建embedding特征。对字符串类型的类别特征做整型转换。

    我们在实验中所用的模型结构展示在图4中。训练阶段,我们的输入层吸收训练数据,词汇,生成稀疏和稠密特征。Wide模块包含用户安装的app和展示的app的交叉特征。对于深度模块,我们为每个类别特征学习了32维的emedding特征。并将全部的embedding特征串联起来,获得一个近似1200维的稠密向量。并将该向量传入3层的RELU隐层,最终获得逻辑输出单元。 WD将被训练在超过5000亿的样本上。每次一个新的训练数据达到,模型需要重新训练。但是,重新训练费时费力。为了克服这个挑战,我们实现了一个热启动系统,我们使用预先的模型权值去初始化新模型权值。 在加载模型到模型server之前,为确保模型在实时情况下不会出现问题,我们对模型进行了预先模拟。

    一旦模型完成训练和验证,我们就将它放到模型server中。对每次请求,server都会从app检索系统获得一个app候选集,然后,对这些app利用模型计算的成绩排序,我们再按该顺序显示app。 为了使得能在10ms内响应请求,我们利用多线程并行运行小批次数据来代替对全部候选集在单个batch上打分,一次优化时间。

    参考

    1、译文及代码解析
    2、利用wide&deep模型进行泰坦尼克号生存预测
    3、官方实现
    4、wide&deep、FNN、SNN、PNN、NFM、AFM在CTR中的应用
    5、一个实例
    6、深度学习在美团推荐排序中的应用

    展开全文
  • 选项A:Word Wide Web选项B:World Life Web选项C:World Wide Web选项D:Word Wide Web正确答案:选项C选项C:World Wide Web万维网WWW是World Wide Web的简称,也称为Web、3W等。WWW是基于客户机/服务器方式的信息...

    题目:WWW的全称是什么?

    选项A:Word Wide Web

    选项B:World Life Web

    选项C:World Wide Web

    选项D:Word Wide Web

    正确答案:选项C

    选项C:World Wide Web

    万维网WWW是World Wide Web的简称,也称为Web、3W等。WWW是基于客户机/服务器方式的信息发现技术和超文本技术的综合。WWW服务器通过超文本标记语言(HTML)把信息组织成为图文并茂的超文本,利用链接从一个站点跳到另个站点。这样一来彻底摆脱了以前查询工具只能按特定路径一步步地查找信息的限制

    WWW (World Wide Web,万维网)是存储在Internet计算机中、数量巨大的文档的集合。这些文档称为页面,它是一种超文本(Hypertext)信息,可以用于描述超媒体。文本、图形、视频、音频等多媒体,称为超媒体(Hypermedia)。Web上的信息是由彼此关联的文档组成的,而使其连接在一起的是超链接(Hyperlink)

    URL

    在WWW上,任何一个信息资源都有统一的并且在网上唯一的地址,这个地址就叫做URL。URL也被称为网页地址,是因特网上标准的资源的地址(Address)。它最初是由蒂姆·伯纳斯一李发明用来作为万维网的地址的。现在它已经被万维网联盟编制为因特网标准RFC1738了 [7]  。

    Internet地址

    Internet地址又称IP地址,它能够唯一确定Internet上每台计算机、每个用户的位置。Internet上主机与主机之间要实现通信,每一台主机都必须要有一个地址,而且这个地址应该是唯一的,不允许重复。依靠这个唯一的主机地址,就可以在Internet浩瀚的海洋里找到任意一台主机 [5]  。

    互联网、因特网的区别

    要回答这个问题,必须先回顾一下因特网的历史。因特网于1969年诞生于美国。它的前身“阿帕网”( ARPAnet)是一个军用研究系统,后来才逐渐发展成为连接大学及高等院校计算机的学术系统,现在则已发展成为一个覆盖五大洲150多个国家的开放型全球计算机网络系统,拥有许多服务商 [8]  。

    普通电脑用户只需要一台个人计算机用电话线通过调制解调器和因特网服务商连接,便可进入因特网。因特网并不是全球唯一的互联网络。例如在欧洲,跨国的互联网络就有“欧盟网”( Euronet),“欧洲学术与研究网”(EARN),“欧洲信息网”(EIN),在美国还有“国际学术网”( BITNET)等 [8]  。

    这样一来它们之间的区别就比较明朗了。大写的“Internet”和小写的“internet”所指的对象是不同的。当我们所说的是上文谈到的那个全球最大的也就是我们通常所使用的互联网络时,我们就称它为“因特网”或称为“国际互联网”。这时“因特网”是作为专有名词出现的,因而开头字母必须大写。但如果作为普通名词使用,即开头字母小写的“internet”,则泛指由多个计算机网络相互连接而成一个大型网络 [8]  。

    按全国科学技术审定委员会的审定,这样的网络系统可以通称为“互联网”。这就是说,因特网和其他类似的由计算机相互连接而成的大型网络系统,都可算是“互联网”,因特网只是互联网中最大的一个 [8]  。

    国际标准的互联网写法是internet,字母i一定要小写。因特网是互联网的一种,它使用TCP/IP协议让不同的设备可以彼此通信。但使用TCPP协议的网络并不一定是因特网,一个局域网也可以使用TCP/P协议。判断自己是否接入因特网,首先是看自己电脑是否安装了TCPP协议,其次看是否拥有一个公网地址(所谓公网地址,就是所有私网地址以外的地址)。国际标准的因特网写法是 Internet,字母I一定要大写 [8]  。WWW是基于客户机/服务器方式的信息发现技术和超文本技术的综合。

    展开全文
  • cost-style wide 路由开销类型

    千次阅读 2020-10-26 15:36:01
    在实际应用中,为了方便IS-IS实现其扩展功能,通常将IS-IS的路由开销类型设置为wide模式。 使用实例 设置IS-IS设备只发送narrow型的报文,但是可以接收narrow型和wide型的报文。 <Huawei> system-view [Huawei] ...

    命令功能

    cost-style命令用来设置IS-IS设备接收和发送路由的开销类型。

    undo cost-style命令用来恢复IS-IS设备接收和发送路由开销类型为

    使用指南

    应用场景

    缺省情况下,IS-IS路由的开销类型为narrow模式,即只能发送和接收路由开销在1~63范围内的路由。当IS-IS作为基础协议应用在MPLS TE中时,ISIS的LSP报文需要携带TE的信息,或者当IS-IS需要携带tag信息应用某种路由策略时,由于LSP携带了附加的内容,导致在Narrow模式下无法泛洪这些LSP。cost-style命令可以根据网络需要,改变IS-IS路由的开销类型,使LSP顺利传送。

    在实际应用中,为了方便IS-IS实现其扩展功能,通常将IS-IS的路由开销类型设置为wide模式。

    使用实例

    设置IS-IS设备只发送narrow型的报文,但是可以接收narrow型和wide型的报文。

    <Huawei> system-view
    [Huawei] isis 1 
    [Huawei-isis-1] cost-style narrow-compatible
    
    展开全文
  • 在tensorflow中,Wide & Deep的API叫DNNLinearCombinedClassifier,在这里可以详细看到英文版和中文版的说明。 参考文献 【1】Wide & Deep learning for Recommender System 【2】计算广告CTR预估系列(四)–Wide&...
  • WRPN: Wide Reduced-Precision Networks

    千次阅读 2020-01-16 21:54:27
    这篇文章的主要提升点在激活层的量化。从上图可以看出,当使用mini-batch时,随着batch数的提升,激活层所占据的内存也显著提升。
  • Programming the World Wide Web
  • 互联网的技术内涵那现在我们来打开互联网的内部,来看一看互联网内部的结构是什么样子。我相信大家理解了互联网的内部结构,对互联网形成连接这样一个概念也会有更深刻的体会。互联网指的是通过TCP/IP协议族相互连接...
  • Wise Force Deleter是一个文件强制删除软件,简单易用而且又安全。 可以强制删除计算机中的任意文件,包括一些无法手动删除的文件,例如正在被使用的文件、磁盘写保护后无法删除的文件、共享冲突被拒绝访问的文件、...
  • (1)实现了业界影响力非常大的深度学习模型 Wide&Deep,它是由 Wide 部分和 Deep 部分组成的。其中,Wide 部分主要是为了增强模型的“记忆能力”,让模型记住“如果 A,那么 B”这样的简单但数量非常多的规则。...
  • WWW万维网是什么

    2019-07-31 18:06:47
    WWW(World Wide Web)简称W3,有时也叫Web,中文译名为万维网,环球信息网等。WWW由欧洲核物理研究中心(ERN)研制,其目的是为全球范围的科学家利用Internet进行方便地通信,信息交流和信息查询。 WWW是建立在客户机...
  • Landscape Photography: Wide-Angle Lenses 中文字幕 风景摄影:广角镜头 中文字幕Landscape Photography: Wide-Angle Lenses 探索广角镜头在风景摄影中提供的创意选项 这个有针对性的摄影技巧小组适用于任何有兴趣...
  • Wide 用户指南

    2020-12-21 11:39:53
    一款基于 Web 的 Go 语言 IDE 简介Wide 是一款基于 Web 的 Go 语言 IDE。动机目前较为流行的 Go IDE 都有一些缺陷或遗憾:文本编辑器类(vim/emacs/sublime/Atom 等):对于新手门槛太高,搭建复杂插件类(goclipse、...
  • Wide&Deep

    2020-04-09 22:49:51
    Wide & Deep Learning for Recommender Systems 推荐系统中的Wide & Deep Learning 摘要 Generalized linear models with nonlinear feature transformations are widely used for large-scale regression ...
  • <br />MultiByte是多字节字符集,Wide Character是宽字符集.  通常所说的Unicode就是宽字符集.    其实Unicode有很多种,顾名思意,Unicode就是唯一编码的意思.也就是说对于每个字符都有与其...
  • Wide &amp; Deep Learning for Recommender Systems 推荐系统中的Wide &amp; Deep Learning 摘要 Generalized linear models with nonlinear feature transformations are widely used for large-scale ...
  • 用perl写文本处理程序,或者写服务器端脚本的时候,常常会遇到“Wide character in print”的警告或者错误。 这是因为在程序中处理中文等宽字符时,perl不能识别要处理的内容。 首先要知道perl只能处理两种编码:...
  • DEEP & WIDE MODEL

    2018-12-17 19:45:38
    前言:应该只要一天时间,先看Google英文论文,配合中文翻译:http://d0evi1.com/widedeep-recsys,再看些官方的代码,需要先了解下tensorflow的feature API: tf.contrib.layers 中提供了一系列的函数定义不同类型...
  • 预测伴侣 - 直接从Chrome获取世界上任何地方的天气更新! Moment Dashboard取代了Chrome浏览器的默认主页,并将其变成功能强大的个人新标签,您希望使用evryday。以您想要的方式自定义它,从数十种美丽的背景中进行...
  • 什么是javaweb开发

    2021-02-12 16:06:35
    Web:web(World Wide Web)即全球广域网,它是一种分布式图形信息系统。简单来说就是 浏览器上的一个个网站。Java Web:是用Java技术来解决相关web互联网领域的技术总和。学习JavaWeb开发,就是学习用java以及其他...
  • (Tapestry)An infrastructure for Fault-Tolerant Wide-area Location and Routing.
  • Wide character in print 报错

    千次阅读 2013-02-27 14:48:11
    常常会遇到“Wide character in print” 的警告或者错误。 这是因为在程序中处理中文等宽字符时,perl不能识别要处理的内容。 首先要知道perl只能处理两种编码:  ascii码;  utf-8码; ascii码是很少的,像...
  • vipkid提供net是什么意思、net英语单词推荐、net英语解释、net相关词、net英语短语英音 [net] 美音 [nɛt]【中文释义】n. 网;网状织物;球网;网罩;vt. 用网捕;捕获;净赚;踢入球门;adj. 净的;净得的;最后的;【英文释义...
  • city-wide traffic flow forecasting using a deep convolutional neural network City-wide traffic flow forecasting is a significant function of the Intelligent Transport System (ITS), which plays an ...
  • 什么是W3C W3C是英文 World Wide Web Consortium 的缩写,中文意思是W3C理事会或万维网联盟。W3C组织是对网络标准制定的一个非赢利组织,像HTML、XHTML、CSS、XML的标准就是由W3C来定制。 W3C的主要规范 到目前...
  • [perl]解决Wide character in print报错

    千次阅读 2011-08-29 16:21:24
    将上面的这段程序存到文件里,试图运行的时候就会报错:Wide character in print at test.pl line 6。这就是因为utf8-flag被关闭,perl不能识别字符串。 当然,在每个处理宽字符的地方加上Encode::_utf8_on函数...
  • 宽字符(wide char)

    千次阅读 2010-02-02 14:22:00
    宽字符介绍首先说,什么是ASCII,ASCII是用来表示英文字符的一种编码规范。每个ASCII字符占用1个字节,因此,ASCII编码可以表示的最大字符数是255(00H—FFH)。其实,英文字符并没有那么多,一般只用前128个(00H—...
  • 满意答案hame007推荐于 2018.09.18采纳率:58%等级:13已帮助:7530人字转换:wctomb、mbtowc,wc 指 Wide charactor,mb 指 Multi-byte。字符串转换:wcstombs、mbstowcs,wcs 和 mbs 的 s 指 string。这 4 个函数...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 18,401
精华内容 7,360
关键字:

wide的中文是什么