精华内容
下载资源
问答
  • Discuz! [DST]《DST经典》

    2019-12-18 19:14:26
    Discuz! [DST]《DST经典》
  • dst-ansible DST Ansible剧本 内容 host_create.yml 将新主机添加到DST清单组: otg_dst > [selected group] host_setup.yml 添加“友好”用户 将过时的SSH密钥复制到authorized_keys文件中 marklogic_install....
  • 这两个函数用于将数据数组转换为: 1- DCT-II 或 DCT-IV 2- DST-II或DST-IV
  • 远端霉素合成基因簇下游基因dst27,dst28,dst29的初步探究,马烈,孙思瑶,远端霉素是纺锤链霉菌产生的一种抗生素,其能结合DNA小沟,且具有良好的抗病毒能力并极具抗癌潜力。其生物合成基因簇由两个不相邻
  • DST523是稳压集成电路,为3脚单列直插式塑料封装,在高士达V3型影碟机电路[ICU02]上的正常工作电压典型检测数据如表所列,用MF14型三用表测得(DC挡)。 表 DST523在高士达V3型影碟机上的检测数据  
  • DST_保存-源码

    2021-02-14 17:18:48
    DST_保存
  • DST Mod角色统计编辑器 DST Mod GUI,允许编辑字符统计信息P以打开
  • 为了解决煤层气井DST测试中的难题,避免井下开关井困难和动作管柱误操作,通过对DST测试理论及煤储层特征的分析,研制出外膨胀式封隔器和井下电磁开关阀组成的煤层气井DST测试专用设备,并对目标煤层进行了DST测试。...
  • dst-discord-bot Discord机器人可帮助管理和宣布来自DST(不要挨饿)服务器的事件。
  • B = dst2(A) 返回 A 的离散正弦变换。 矩阵 B 的大小与 A 相同,包含离散正弦变换系数。
  • struct dst_entry *dst

    千次阅读 2011-09-14 11:37:56
    /usr/src/linux-2.6.19/include/net/dst.h ...最终生成的IP数据报的路由称为目的入口(dst_entry),目的入口反映了相邻的外部主机在本地主机内部的一种“映象”,目的入口在内核中的定义如下 struct dst_entry {
     
    /usr/src/linux-2.6.19/include/net/dst.h

    最终生成的IP数据报的 路由称为目的入口(dst_entry),目的入口反映了相邻的外部主机在本地主机内部的一种“映象”,目的入口在内核中的定义如下

    struct dst_entry
    {
        struct dst_entry    *next;
        atomic_t            __refcnt;
        int                 __use;
        struct dst_entry    *child;
        struct net_device   *dev;
        short               error;
        short               obsolete;
        int                 flags;
        unsigned long       lastuse;
        unsigned long       expires;
        unsigned short      header_len;
        unsigned short      nfheader_len;
        unsigned short      trailer_len;
        u32                 metrics[RTAX_MAX];
        struct dst_entry    *path;
        unsigned long       rate_last;
        unsigned long       rate_tokens;
        struct neighbour    *neighbour;
        struct hh_cache     *hh;
        struct xfrm_state   *xfrm;
        int                 (*input)(struct sk_buff*);
        int                 (*output)(struct sk_buff*);
    #ifdef CONFIG_NET_CLS_ROUTE
        __u32               tclassid;
    #endif
        struct dst_ops     *ops;
        struct rcu_head     rcu_head;
        char        info[0];
    };



    dst_entry->__refcnt
        "目的入口"的引用计数,创建成功后即设为1

    dst_entry->__use
        一个统计数值,该"目的入口"被使用一次(发送一个IP数据报),__use就加1

    dst_entry->dev
        该路由的输出网络设备接口

    dst_entry->flags
        标志位,其取值可以是DST_HOST, DST_NOXFRM, DST_NOPOLICY, DST_NOHASH, DST_BALANCED(用在路由有多路径的情况下)

    dst_entry->lastuse
        一个时间值,每次目的入口被用于发送IP数据报,就将该值设置为当前系统时间值。该值被用于几个地方,路由缓存表 rt_hash_table是一个很大的数组(依据系统的内存大小而定),每一项都是一个struct rtable的链表,当要往缓存表的某一个链表中插入一个新的struct rtable时,如果这个链表的长度已经超出ip_rt_gc_elasticity(值为8),则需要删掉一个当前使用价值最低的,已保持链表长度的平衡。函数rt_score()就是用于为每个struct rtable计算价值分数,分数是一个32位值,最高位表示非常有价值,当struct rtable的成员rt_flags上有标志RTCF_REDIRECTED或RTCF_NOTIFY,或者目的入口的超时时间未到时,置该位,次高位价值次之,余下的30位由lastuse决定,该目的入口距上次使用时间越长,价值越低。另外,用于在rt_may_expire函数中判断一个struct rtable是否超时。

    dst_entry->expires
        一个超时时间值,定时器rt_periodic_timer定期扫描路由缓存表rt_hash_table,如果发现expires值为0,或者小于当前系统时间值,并符合其它超时条件,则把该路由从缓存表中删除。

    dst_entry->neighbour
        为该路由绑定的邻居节点(与ARP相关)

    dst_entry->hh
        硬件头缓存,ARP解析得到的邻居的mac地址缓存在这里,再次发送IP数据报的时候,就不需要再到ARP缓存中去取硬件头。

    dst_entry->input
    dst_entry->output

        input和output分别是该目的入口的输入和输出函数。
    展开全文
  • IDT_7203_DST_20171127.pdf

    2019-08-24 13:32:26
    IDT_7203_DST
  • DST花样格式概述

    热门讨论 2013-02-21 11:30:54
    该文档描述了工业机械上位机软件中使用的标准dst文件格式.
  • 绣花dst文件的编码规则,纤细介绍了DST绣花文件的组成!
  • dst DST是数据报流传输协议。 原则上,这是在UDP之上提供可靠流协议的另一种方法,类似于uTP,RUDP和DST。 实际上,它主要基于DST,但有一些显着差异。 分组格式被简化。 保持连接机制已删除,以减少复杂性和...
  • DST详解.pdf

    2012-04-09 16:54:54
    DST(Double Size Tree)的原理、应用、代码及理论分析等
  • SetSystemTime和DST,最好在使用SetSystemTime之前禁用DST
  • Discuz! [DST]泡沫圣诞风格
  • DontStarveLuaJIT:不要饿死LuaJITOpenGL ES优化补丁(与DS,RoG,SW,HAM,DST,Windows专用服务器和DST,Linux专用服务器兼容)
  • map32dst.exe

    2009-06-01 10:02:52
    map32dst.exemap32dst.exemap32dst.exemap32dst.exe
  • DST事件参考手册(CHM)

    2012-10-17 16:33:14
    DST EvtManual cn(CHM) DST事件 参考手册
  • Discuz! [DST]Simple Black.简单黑
  • src源dst目标

    千次阅读 2017-05-16 14:43:00
    dst是destination的缩写,表目的src是source的缩写,表源
    dst是destination的缩写,表目的

    src是source的缩写,表源
    展开全文
  • DST系列B型示波器说明书 V0.9 asdasdasd asd阿萨上档次
  • DstNmea2k 简单指示器深度-速度-温度NEMA ... DST800 Triducer Airmar NEMA2000 Beaglebone Blue Can连接到DST800嵌入式I2C传感器的PC Windows应用程序:C#Windows Form应用程序-用于DST800的简单NEMA2000消息阅读器
  • 梳理|对话系统中的DST

    千次阅读 2019-06-15 10:05:11
    欢迎直接到我的博客查看最近文章:... ... 最近看了任务型对话中的SLU和DST部分,感觉里面方法结构很多,论文看多了以后脑袋就乱了。所以写篇文章给自己梳理一下,这篇文章先写DST部分,其他部分以后会再更新...

    欢迎直接到我的博客查看最近文章:www.pkudodo.com。更新会比较快,评论回复我也能比较快看见,排版也会更好一点。

    原始blog链接:   http://www.pkudodo.com/2019/06/09/1-12/

     

    最近看了任务型对话中的SLU和DST部分,感觉里面方法结构很多,论文看多了以后脑袋就乱了。所以写篇文章给自己梳理一下,这篇文章先写DST部分,其他部分以后会再更新出来。

    也正是因为这样,所以这篇文章的正确性还有待考究。有很大可能性会在未来的某个时间对文章的内容做一些修改。大家看一看就好了。

     

    chatbot对话类型

    chatbot对话分为任务型、闲聊型、推荐型、知识问答型。这里讨论一下任务型和闲聊型。

    任务型:以小米的小爱同学为例,通常负责为用户执行任务,例如订票、查阅信息、控制家电等。这类任务需要维护一个系统状态,知晓当前用户的意图、完成任务还需要的信息等,最后确定用户实际任务需求并执行灯舞。

    闲聊型:以微软的小冰为例,通常在开放域环境下聊天,即没有特定的领域、任务,满足用户的情感交流需要。

     

    任务型对话

    任务型对话的处理方式有pipeline和端到端两种结构,pipeline定义了数个模块,以一条line的形式串联起来共同完成一个任务,如下图所示。端到端的代表为memory network,至于这块我还没有看相关论文,因此不作展开。

     

    pipline模块

    其核心模块组成是NLU->DM->NLG,先通俗来讲,NLU负责对用户输入进行理解,随后进入DM模块,负责系统状态的追踪以及对话策略的学习,控制系统的下一步动作,而NLG则配合系统将要采取的动作生成合适的对话反馈给用户。

    其中若用户的输入是语音形式,则在NLU的输入前需再添加一个ASR语音识别模块,负责将语音信号转换为文本信号。DM对话管理器内部又可分为DST(对话状态追踪)和DPL(对话策略学习),DST(对话状态追踪)根据用户每一轮的输入更新当前的系统状态,而DPL则根据当前的系统状态决定下一步采取何种动作。NLG将语言生成后,若用户采用语音交互方式,则还需要TTS(语音合成)模块将文本转换为语音。

     

    pipline工作原理直观理解

    ASR:这部分在论文中大部分都是一笔带过,因为它的任务比较单一,只负责将语音转换为文本信号。不过值得一提的是,有些论文提起ASR的输入并不是唯一的,因为语音识别可能会存在一定错误,因此一般会输出多个可能的句子,每个句子同时附带一个置信度,表示这个句子正确的概率。这种方式在论文中被称为N-best,及前N个最有可能的句子。

    NLU:语言理解模块,用户语音转文本后称为用户Utterance,NLU负责对用户Utterance进行领域/意图分类及槽值对填充。其中领域和意图分类是为了让系统明白用户的对话所处领域及意图,方便后续调用相应的model去识别(并不是一个model跑遍所有的领域意图,就好像树一样,根据领域/意图的分类,在树中找到对应的model。当然model结构可能是一样的,不同的是训练采用的数据是对应领域/意图的)。完成一个任务需要去弄清楚一些条件,比如说点一杯咖啡,根据领域/意图分类,系统判断用户的意图是点咖啡,此时系统需要弄明白是什么咖啡,甜度怎么样等等。所以会检索点咖啡所需要的槽值对,这个时候后台检索发现完成这个任务需要弄明白{咖啡类型=?,甜度=?}(其中咖啡类型和甜度被称为槽(slot)),这个时候系统会反馈回去问用户咖啡类型是什么?甜度是多少?用户反馈后,NLU再对用户Utterance内容进行识别,发现咖啡类型是摩卡,即槽“咖啡类型”的值(value)为“摩卡”,这个过程被称为槽填充。同时这个过程也很容易被人联想到命名实体识别这一方法。当然了,考虑到系统的准确率,一般情况下生成的槽值对也会附带一个置信度,也就是说,对于一个slot,可能并不会只输出一个value。

    DST:DST(对话状态追踪)归属于DM对话管理器中,负责估计用户的当前轮的目标,它是对话系统中的核心组成部分。在工作过程中维护了一个系统状态(我认为这个系统状态其实就是各个槽对应的值以及相应的概率),并根据每一轮对话更新当前的对话状态(各个槽值对)。这里我说一些自己的感觉,但可能不太对,我认为直观上来看,SLU输出了slot-value,但是是不确定的,也就是说可能会输出{咖啡类型=摩卡}--0.8    {咖啡类型=拿铁}--0.2,SLU认为这次用户要求的是摩卡的概率是0.8,是拿铁的概率为0.2,并没有输出一个确定值。所以DST需要结合当前的用户输入(即SLU输出的槽值对)、系统上一时刻的动作(询问需要什么类型的咖啡)以及之前多轮对话历史来判断咖啡类型到底是哪个,最后计算得到{咖啡类型=摩卡}--0.9,认为是摩卡的概率为90%,这是DST评估后认为咖啡类型的当前状态。当然还有很多其他的槽,可能甜度还没有问过,所以{甜度=none},等待DPL去询问用户。这些所有的槽值对的状态,被统称为当前的系统状态,每个轮次结束后都会对当前的系统状态做一次更新。

    DPL:对话策略管理是根据DST输出的当前系统状态来判断还有哪些槽需要被问及,去生成下一步的系统动作。这部分和NLG的论文都还没看,所以不展开了。

    NLG:DPL生成下一步的系统动作后,生成相应的反馈,是以文本形式的。

    TTS:若用户是语音交互,则将NLG输出的文本转换为对应语音即可。这部分与ASR差不多,功能相反而已。

     

     

    DST:对话状态追踪

    DST归根结底最终要的还是评估判断当前的用户目标、维护当前系统状态。因此对于slot-value需要确定其匹配情况。因此一般都是对于一个slot建立一个多分类模型,分类数目是slot对应的value数目。

    常用方法:DNN、RNN、NBT、迁移学习(迁移学习部分还没看,后续会更新到文章末尾)

     

    论文一:Deep Neural Network Approach for the Dialog State Tracking Challenge

    这篇论文核心观点是使用n-gram滑动窗口,同时手工构造了12个特征函数来抽取特征,随后将所有特征送入DNN,最后对slot的所有可能value计算概率,概率最高的即为slot对应的value。每一个slot都会有一个对应的model,因此如果该intention内有n个slot需要填充,则系统内有n个该model。

    12个特征如下图所示,比较好懂就不翻译了,抽取到的特征涵盖了该轮SLU的槽值对输出、系统上一时刻动作、多轮对话历史。所以总体上还是满足了DST对历史对话及当前输入的考量。

    其model架构如下图所示。model对历史对话的信息重点放在前T轮,也就是t-T+1到当前轮次t,对于每个轮次都根据特征函数抽取了信息。此外T轮之前的信息,作者可能认为参考意义不是很大,因此直接将t-T+1轮之前的特征直接做了一个总和,单独作为一个输入。如果当前轮次t<T,那么该输入的所有特征值都为0。

    之后将所有特征函数送入3层隐层的DNN网络,最后得到一个实数表示概率值,该概率值体现了当前slot-value匹配的置信程度。随后使用其他value再次输入网络,得到相应的概率值。最后得到slot所有可取value的概率情况,所有概率用来更新当前的系统状态信息。

    总的来说这篇论文的亮点我认为在于构造了12个合理的特征函数,这个的工作量还是蛮大的。不过缺点也是很多model的通病,就是对于每一个slot,都需要有足够的训练集去拟合。这对于经常缺少训练集的工业界来说,是一个问题。后面的论文中有一些试图在解决这一问题。

     

    论文二:Word-Based Dialog State Tracking with Recurrent Neural Networks

    这篇文章的立意是考虑到ASR输出用户Utterance后需要再通过SLU,随后才进行DST。可是ASR可能会出错,SLU也可能会出错,这样会造成一个error传播。因此作者设计的model直接以ASR的输出作为DST的输入,绕过了SLU部分。这种策略目前在paper中也比较常见,一般来说效果也确实比添加SLU模块的要高一些。

    然后和上一篇文章相似的是,它也选择去抽取一些特征,但特征是输入RNN网络(上一篇文章是DNN)。不过在特征的抽取上,两者的方法差异还是蛮大的。

    特征构造如下图所示,它从ASR和Machine Act两个方面去构造特征,之后将对应的特征串联,最后得到f、fs、fv三个特征向量,其中f是直接对ASR结果和对话动作取n-gram的结果,fs和fv是对f的结果进行tag替换得到的泛化恩正。fs是对槽提取的特征,适用于该槽下对应的所有的值,fv是对每个value进行提取,属于每个值得特有特征。这样有助于模型的泛化,当遇到训练集中没有出现过的同义词时,同样可以发挥作用。

    先看第一层,ASR输出两个句子并附加置信度,第一层特征抽取采用1-gram、2-gram、3-gram,并且抽取出来的词的置信度跟随ASR的输出,若出现了相同的item,则把概率相加即可。Machine Act也作同样处理,只不过概率全部为1。最后抽取到的特征ASR部分和Machine Act单独相加,再串联形成特征f。不过这里存在一个问题,怎么将特征表示为向量?这事在论文中没有说明,不过论文中提到最后得到的向量是3500维的,因为我认为是one-hot形式,3500为词典的大小,同时对应位置的值为inten对应的概率值。下面两层也是一样的,就不再说明了。

    第二层对槽进行提取,使用<slot>和<value>替换掉n-gram的结果,同时相同的item也需要概率相加。使用<slot>和<value>这种同样的符号来替代是为了提高模型泛化性,与第一层同样串联处理得到fs。

    第三层同理,不再展开。

    三个特征向量构造出来后,输入RNN,RNN内部结构如下所示。需要说明的是,DST的model如非特殊说明,单个model都是针对单个slot的,不同的slot需要多个model,差别只在于训练数据的不同。

    第一部分是用户Utterance、记忆、向量f的结合,串联后输入网络,得到向量h。

    之后将fs、fv也输入到rnn中,扩展RNN所使用的特征。

    将h合g结合,使用softmax得到概率分布,生成新的状态(也就是slot对应的各个value的值),并同时更新记忆。

    此外论文还提到了一些小技巧,这些不属于model本身范围内,不再作讨论。

     

    论文三:Neural Belief Tracker: Data-Driven Dialogue State Tracking

    这篇文章也是将SLU合并到了DST当中,除了结构外,文章本身很值得一读。在介绍自身的同时对当前的一些主流方法简单提了一些,可以起到一个思维梳理的过程。

    先把model框架贴出来。

    model中可以看到一共有三个输入,System Output(上一时刻系统动作)、User Utterance(用户输入)、Candidate Pairs(候选槽值对)。model要做的就是根据系统之前动作及用户当前输入,判断候选槽值对中那个value才是真正的value。

     

    User Utterance的表示

    user utterance最终应当表示成向量形式,论文给了DNN和CNN两种抽取方式。

    首先介绍一下两者共同的地方,首先都将用户utterance中的词用词向量表示,之后使用1-gram、2-gram、3-gram抽取词向量,下式中u为对应的词向量,n为gram的长度。

    NBT-DNN

    抽取到n-gram后,对应于不同的n,生成三个词向量矩阵。

    之后由于三个向量的维度不一致,因此使用一层nn将维度转换到相同。

    得到的三个向量直接相加即可,最后的输出r就是最终的用户utterance向量。不过这种方式存在严重的缺陷,它对于句子中的组成部分并没有设计权重,所以句子中例如停用词或其他需要被忽略的词并没有得到处理,最终得到的句向量噪音很大。这种方式只适合句子较短的情况下,所以论文又提出了基于CNN的方式,可以将attention着重放在对句子有帮助的地方。

     

    NBT-CNN

    结构还是比较简单的,n-gram抽取向量之后做卷积,最后再maxpool提取信息,最后得到用户utterance向量。细节可以看一下论文,就不多展开了。

    采用这种方式使得最后得到的utterance向量具有一定的代表性和侧重性。

     

    语义解码

    结合用户语义与槽值对进行处理,论文中提到这一步主要是因为用户utterance和槽值对是有直接交互的。它决定了用户utterance包含的内容是否与候选槽值对有相关性。

    最后得到了向量d,不过其实在形式上,第二个式子很像那种相似度计算的形式(小声叨叨)。

     

    上下文模型

    这个时候用户utterance和候选槽值对已经处理了,还剩下上一时刻的系统输出。也就是说DST还得明白上一时刻系统要求用户提供什么信息了。

    这里系统定义了两种操作:

    1. 系统请求:上一时刻系统要求用户提供某种信息,例如“您大概需要什么价位的呢?”这样子系统必须提供价格槽用于填充,而不是地区或者食物类型等等。
    2. 系统确认:上一时刻系统要求用户确认某种信息,例如“您是需要土耳其食物是吗?”,用户需要回到是或者不是。

    可能会有疑问,只需要知道上一时刻的系统输出就可以了吗?当然最好还是能够所有历史动作及对话历史都考虑到,但由于这样会使系统过于复杂,因此论文在策略上使用马尔科夫形式,只考虑前一时刻的系统动作。

     

    决策生成

    最后所有特征都已转换完成,直接进入一个二分类决策model,最后使用一个softmax输出slot-value匹配的概率。网络内部很简单,就是添加一个隐层就可以了。

    下标100表示最后得到的维度是100,y最后的维度是2维,分别是肯定或者否定的概率。

     

     

    写在最后

    DST当时给我最大的困扰是系统状态究竟是什么以及它到底核心任务是什么。

    我觉得可以再写一写梳理一下以及再写一些自己的困惑,未来如果我能够解答了,会在下面重新更新的。(这部分可能理解还是错的,但是是我目前认为自己能够给出的比较合理的解释)

    DST系统状态:因为任务型对话中slot-value配对是比较重要的,但是系统并不能保证给出的slot-value对已经是正确的。所以SLU在做槽值对匹配的时候,只能在给出槽值对的同时再给出一个概率来表示置信度。

    可是我看了一些SLU的论文,paper中并没有说会输出置信度。比如说用命名实体识别方法,paper中直接给出了slot-value。感觉这个事情很奇怪。所以后来我认为根据DST采取的策略不同,可能会对置信度没有要求。但这两周陆陆续续也看了将近十几篇论文,DST的核心仍然在维持一个系统的置信状态。这件事是我接下来想去搞懂的一个点。

    因为每一个slot都有很多个value可以被填充进去,那么在每一轮对话中需要更新slot中所有value候选值的概率。所有slot和其对应的value概率,汇总起来可以被称为系统状态(我觉得)。

    DST核心任务:DPL的论文还没有看,就目前来看,DST主要工作就是更新系统状态,试图捕捉用户的真实意图(意图通过槽值对体现)。后续DPL可能会根据当前的系统状态去合理推断下一步应该做什么,才能保证所需要的槽全部被填充,同时所有的槽值对都是可信的。

     

    展开全文
  • DST小四轴DIY资料包!含有组装清单、步骤及代码,很全面
  • dst-源码

    2021-03-22 01:36:21
    夏令时 建置状态
  • SAS8基础教程-数据集dst(SAS8基础教程中使用到的数据集dst

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 197,179
精华内容 78,871
关键字:

DST