精华内容
下载资源
问答
  • 通过将多基音跟踪得到的目标语音和干扰语音的基音轨迹信息结合到分离系统中,有效地改善了分离系统在包括多说话人混合在内的多种干扰情况下的分离效果,为多说话人语音分离问题的解决提供了新的思路。
  • 介绍了带通采样技术在高分辨率...首先阐述了带通采样定理以及采样率的选取原则,然后从波束图像声纳的原理出发,给出了基于带通采样的数字波束形成方法;仿真和湖上试验表明了这种方法的可行性以及工程实现的有效性。
  • 深度学习在语音分离的应用

    千次阅读 2019-06-04 15:32:22
    基于深度学习的有监督语音分离在学术界和工业界越来越受到关注,也是深度学习在语音领域的...这个问题来自于“鸡尾酒会问题”,采集的音频信号中除了主说话人之外,还有其他人说话声的干扰和噪音干扰。语音分离的目...

    基于深度学习的有监督语音分离在学术界和工业界越来越受到关注,也是深度学习在语音领域的应用中重要的一部分。这个主题社长曾经邀请搜狗语音研究员文仕学做过分享。
    以下是他的分享内容,点击查看更多往期回顾:
    在这里插入图片描述
    文仕学首先介绍了“语音分离”(Speech Separation)是怎么样的一种任务。这个问题来自于“鸡尾酒会问题”,采集的音频信号中除了主说话人之外,还有其他人说话声的干扰和噪音干扰。语音分离的目标就是从这些干扰中分离出主说话人的语音。

    根据干扰的不同,语音分离任务可以分为三类:

    1、当干扰为噪声信号时,可以称为“语音增强”(Speech Enhancement)
    2、当干扰为其他说话人时,可以称为“多说话人分离”(Speaker Separation)
    3、当干扰为目标说话人自己声音的反射波时,可以称为“解混响”(De-reverberation)

    由于麦克风采集到的声音中可能包括噪声、其他人说话的声音、混响等干扰,不做语音分离、直接进行识别的话,会影响到识别的准确率。因此在语音识别的前端加上语音分离技术,把目标说话人的声音和其它干扰分开就可以提高语音识别系统的鲁棒性,这从而也成为现代语音识别系统中不可或缺的一环。

    基于深度学习的语音分离,主要是用基于深度学习的方法,从训练数据中学习语音、说话人和噪音的特征,从而实现语音分离的目标。

    在这里插入图片描述
    这次分享的内容有以下这5个部分:分离使用的模型、训练目标的设置、训练数据的生成、单通道语音分离算法的介绍和讨论。

    一、基于深度学习的语音分离方法使用的模型
    在这里插入图片描述
    第一类模型是多层感知机,DNN,可以先做RBM预训练,再做微调(fine-tune);不过文仕学介绍,他们团队通过实验发现,在大数据集上不需要预训练也可以收敛。

    LSTM(长短时记忆网络)的方法中把语音作为一个随时间变化的序列进行建模,比较适合语音数据;CNN(卷积神经网络)通过共享权值,可以在减少训练参数的同时获得比全连接的DNN更好的性能。

    近些年也有人用GAN(对抗性生成式网络)做语音增强。模型中通常会把生成器设置为全部是卷积层,为了减少训练参数从而缩短训练时间;判别器负责向生成器提供生成数据的真伪信息,帮助生成器向着“生成干净声音”的方向微调。

    二、训练目标的设置
    训练目标包括两类,一类是基于Mask的方法,另一类是基于频谱映射的方法。
    在这里插入图片描述
    基于Mask的方法又可以分为几类:

    1、理想二值掩蔽”(Ideal Binary Mask)中的分离任务就成为了一个二分类问题。这类方法根据听觉感知特性,把音频信号分成不同的子带,根据每个时频单元上的信噪比,把对应的时频单元的能量设为0(噪音占主导的情况下)或者保持原样(目标语音占主导的情况下)。

    2、第二类基于Mask的方法是IRM(Ideal Ratio Mask),它同样对每个时频单元进行计算,但不同于IBM的“非零即一”,IRM中会计算语音信号和噪音之间的能量比,得到介于0到1之间的一个数,然后据此改变时频单元的能量大小。IRM是对IBM的演进,反映了各个时频单元上对噪声的抑制程度,可以进一步提高分离后语音的质量和可懂度。

    在这里插入图片描述
    *TBM与IRM类似,但不是对每个时频单元计算其中语音和噪声的信噪比,而是计算其中语音和一个固定噪声的信噪比;

    *SMM是IRM在幅度上的一种形式;

    *PSM中加入了干净语音和带噪语音中的相位差信息,有更高的自由度;

    虽然基于Mask的方法有这么多,但最常用的还是开头的IBM和IRM两种
    在这里插入图片描述
    如果使用频谱映射,分离问题就成为了一个回归问题。

    频谱映射可以使用幅度谱、功率谱、梅尔谱以及Gammatone功率谱。Gammatone是模拟人耳耳蜗滤波后的特征。为了压缩参数的动态范围以及考虑人耳的听觉效应,通常还会加上对数操作,比如对数功率谱。

    基于频谱映射的方法,是让模型通过有监督学习,自己学习有干扰的频谱到无干扰的频谱(干净语音)之间的映射关系;模型可以是DNN、CNN、LSTM甚至GAN。
    在这里插入图片描述
    这一页是使用相同的DNN模型、相同的输入特征、不同的训练目标得到的结果。

    左边的STOI指语音的可懂度,得分在0到1之间,越高越好;右边的PESQ是语音的听觉质量、听感,范围为-0.5到4.5,也是越高越好。

    基于Mask的方法STOI表现较好,原因是有共振峰的能量得到了较好的保留,而相邻共振峰之间波谷处的声音虽然失真较大,但人耳对这类失真并不敏感;两类方法在PESQ中表现相当。

    三、训练数据的生成
    在这里插入图片描述
    针对语音分离中的语音增强任务,首先可以通过人为加噪的方法生成带噪语音和干净语音对,分别作为输入和输出(有标注数据),对有监督学习模型进行训练。加入的噪声可以是各种收集到的真实世界中的噪声。
    在这里插入图片描述
    不过收集噪声需要成本,而且人工能够收集到的噪音总是有限的,最好能够有一套完备、合理的方案,用仿真的方式生成任意需要的噪声。 在今年的MLSP(信号处理机器学习)会议上,搜狗语音团队就发表了一项关于噪声基的工作,通过构造一个噪声基模型,在不使用任何真实噪音数据的情况下,生成带噪语音对语音增强模型进行训练,达到了与使用50种真实噪音的情况下相当的性能(下图)。

    在这里插入图片描述
    如果将这50种真实噪声和噪声基产生的数据混合在一起,性能可以比单独使用真实噪音的情况得到进一步提高。这也说明噪声基生成的噪声和真实噪声数据之间有着互补性,在实际应用中也可以解开一些真实噪声数据不足带来的限制。

    四、单通道语音分离算法
    在这里插入图片描述
    如开头所说,语音分离任务可以分为三类,语音增强、多说话人分离和解混响。不同任务的处理方法也有所不同。

    对于语音增强,基于Mask的方法首先进行耳蜗滤波,然后特征提取、时频单元分类、二值掩蔽、后处理,就可以得到增强后的语音了。

    在这里插入图片描述
    语音增强的另一类基于频谱映射的方法中,先特征提取,用深度神经网络学习带噪语音和干净语音的对数功率谱之间映射关系,再加上波形重建,就可以得到增强后的语音。
    在这里插入图片描述
    基于有监督学习的算法都存在推广性(generalization)的问题,语音增强这里也不例外。针对噪音类型、信噪比和说话人的推广性都还有提升的空间。
    在这里插入图片描述
    对于解混响,同样可以使用基于频谱映射的方法。解混响中也需要生成训练数据,但不同于带噪语音生成时做时域的相加,带混响的语音是在时域上进行卷积;同样都把干净语音作为带标注数据。
    在这里插入图片描述
    在基于频谱映射的方法基础上还可以加以改进。对于不同的混响时间,深度神经网络需要学习的时间窗口长度是不一样的,因而改进方法中加入了告知混响时间的功能,根据帧移R和扩帧数目N提特征后解码,可以获得更好的解混响效果。
    在这里插入图片描述
    多说话人分离分为三种情况:
    1、目标说话人和干扰说话人都固定,Speaker dependent,
    2、有监督分离目标说话人固定,训练阶段和测试阶段的干扰说话人可变,Target dependent,
    3、半监督分离目标说话人和干扰说话人都可变,Speaker independent,无监督分离
    在这里插入图片描述
    对于有监督和半监督分离,可以使用基于频谱映射的方法,与前面使用基于频谱映射的方法做语音增强类似。
    在这里插入图片描述
    对于无监督分类,有无监督聚类、深度聚类以及最近的序列不变训练(PIT)方法。PIT方法的核心是红框中标出的部分,在误差回传的时候,分别计算输出序列和标注序列间各种组合的均方误差,然后从这些均方误差中找到最小的那个作为回传误差,也就是根据自动找到的声源间的最佳匹配进行优化,避免出现序列模糊的问题。

    五、讨论两个问题
    在这里插入图片描述
    最后,文仕学给大家留了两个思考题,欢迎大家在评论给出自己的见解。

    第一个问题是语音分离任务中,是按传统思路先变换到频域,然后在频域上进行处理,还是直接在时域上处理比较好?后者的好处是端到端训练,不用考虑频域方法做傅立叶反变换时相位的问题。

    第二个问题是对于语音增强任务,应该使用真实噪声加噪还是使用人工仿真生成的噪声进行降噪?

    作者:AI研习社
    链接:https://www.zhihu.com/question/66586141/answer/245148124
    来源:知乎
    著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。

    展开全文
  • 语音分离(Speech Separation)这个问题来自于“鸡尾酒会问题”,采集的...2、当干扰为其他说话人时,可以称为“多说话人分离”(Speaker Separation) 3、当干扰为目标说话人自己声音的反射波时,可以称为“解混响...

        语音分离(Speech Separation)这个问题来自于“鸡尾酒会问题”,采集的音频信号中除了主说话人之外,还有其他人说话声的干扰和噪音干扰。语音分离的目标就是从这些干扰中分离出主说话人的语音。

        根据干扰的不同,语音分离任务可以分为三类:

        1、当干扰为噪声信号时,可以称为“语音增强”(Speech Enhancement)
    2、当干扰为其他说话人时,可以称为“多说话人分离”(Speaker Separation)
    3、当干扰为目标说话人自己声音的反射波时,可以称为“解混响”(De-reverberation)

     

        由于麦克风采集到的声音中可能包括噪声、其他人说话的声音、混响等干扰,不做语音分离、直接进行识别的话,会影响到识别的准确率。因此在语音识别的前端加上语音分离技术,把目标说话人的声音和其它干扰分开就可以提高语音识别系统的鲁棒性,这从而也成为现代语音识别系统中不可或缺的一环。

     

        基于深度学习的语音分离,主要是用基于深度学习的方法,从训练数据中学习语音、说话人和噪音的特征,从而实现语音分离的目标。本资源整理了基于深度学习语音分离和抽取(Speech Separation and Extraction)相关的tutorials、算法及最新的研究论文,公开数据集,代码和工具,需要的朋友自取。

        资源整理自网络,源地址:

        https://github.com/gemengtju/Tutorial_Separation

     

        文中论文等资源下载链接,见源地址。

     

    目录

     

    资源列表

    往期精品内容推荐

    智能文本处理利器文心(ERNIE),助您高效定制NLP模型!

    英文学术会议参会必读-《青年学者会议和演讲英语指南》免费pdf分享

    纯干货-17 分布式深度学习原理、算法详细介绍

    推荐系统就业实战-电商推荐系统特训实战课程推荐

    深度强化学习圣经-《Reinforcement Learning-第二版》

    AI必读10本经典-NLP圣经《自然语言处理综述》斯坦福大学Daniel Jurafsky 最新版分享

    -2020年NLP所有领域最新、经典、顶会、必读论文整理分享

    新书-《Bandit问题-基础、算法、理论、应用》分享

    2020年新课-《TensorFlow 2.0初学者入门》视频分享

    展开全文
  • 首先给出了语音分离的概念:指说话人的混合语音中分离得到想要的语音数据,源于著名的鸡尾酒会问题。本文主要研究两个说话人混合的情况。 鸡尾酒会问题:指人的一种听力选择能力,注意力集中在某个人的谈话之中...

    这是发表在计算机系统应用的2019的期刊

    概述

    传统的声学提取特征方法需要经过傅里叶变换等操作,这会造成语音能量损失和时间上的延时,为了改善问题,提出了端到端。

    文章结构

    这篇文章的写作思路很值得借鉴,尤其用了大量对比,有助于论文的构想。

    首先给出了语音分离的概念:指多个说话人的混合语音中分离得到想要的语音数据,源于著名的鸡尾酒会问题。本文主要研究两个说话人混合的情况。

     鸡尾酒会问题:指人的一种听力选择能力,注意力集中在某个人的谈话之中而忽略背景中其他的对话或噪音,揭示了人类听觉系统中令人惊奇的能力,即我们可以在噪声中谈话。
    

    特征提取是至关重要的步骤,但传统的声学特征的提取需要经过一系列复杂的操作,这回造成能量损失和长时间延迟。所以本文通过网络来学习语音信号的更深层声学特征,实现端到端的语音分离。

    1.基于传统声学特征的语音分离

    这部分列出了传统声学特征的语音分离算法,同时也提出了传统声学特征的语音分离算法的缺点,引出深层声学特征(deep acoustic feature,DAF),实现端到端语音分离。

    2.基于深层声学特征的端到端语音分离

    在这里插入图片描述

    3.实验结果和分析

    对评价指标进行介绍,不同损失函数对比,不同算法对比,网络结构,时间延迟对比。

    展开全文
  • 6. 声道分离(阵列分离) 7. 更内容 5. 单通道分离(monaural separation) 5.1 语音增强(speech separation) 5.2 语音增强的泛化 5.3 语音去混响 & 去噪(speech dereverberation & denoising) 5.4.

    【WangDeLiangOverview2018】

    Supervised Speech Separation Based on Deep Learning: An Overview

    DeLiang Wang / Jitong Chen @ Ohio

    IEEE/ACM Trans. ASLP2018

     

    【目录】

    1. 引入

    2. 学习机器(learning machines)

    3. 训练目标(training target)

    4. 特征

    5. 单声道分离

        5.1 语音增强(speech separation)

        5.2 语音增强的泛化

        5.3 语音去混响 & 去噪(speech dereverberation & denoising)

        5.4 说话人分离(speaker separation)

    6. 多声道分离(阵列分离)

    7. 更多内容

     

    【正文】

    说话人分离(speaker separation)的目标是,从一个包含2个or多个voice的mixture里提取多个语音信号,每个说话人(speaker)对应一个。在深度学习被证明能胜任语音增强之后,在类似的框架下,DNN已被成功应用在说话人分离中,如图12是2说话人分离,或者叫共信道分离(cochannel separation)

    Huang[81]是最早为此引入DNN的。他们的研究使用forward DNN和一个RNN来解决2说话人分离。作者说,在帧t时候,2个estimated sources的spectra,\hat{s_1}(t)\hat{s_2}(t),的和,不保证能等于mixture的spectrum。因此,网络中加入masking layer,来产生2个输出:

    这相当于3.1中介绍的training target:signal approximation。binary masking和ratio masking都被发现有效。除此之外,discriminative training被用于最大化一个说话人语音的和另一个人的语音的估计之间的差别。训练时,最小化如下cost:

    实验表明masking layer和discriminative training都能提升说话人分离[82]。

    几个月后,Du[38]独立提出了与[81]相似的用DNN做说话人分离。在他的研究中,DNN被训练来估计cochannel mixture中目标说话人的log power spectrum。在另一个文章[162]中,他们训练了一个DNN来映射一个cochannel信号到目标说话人(target speaker/talker)的spectrum以及干扰者(interfering speaker/interferer/interfering talker)的spectrum,如图12,[37]是一个延伸的版本。比起[81],一个值得提及的延伸是,这些文章还解决了一种情况,当只有目标说话人在训练和测试时候是相同的,而干扰者在训练和测试(testing)时候是不同的。

    在说话人分离中,如果潜在的说话人从训练到测试时候不变,为说话人相关(speaker-dependent)。如果干扰者可以变,但目标说话人固定,叫做target-dependent。最少约束条件的是,不要求说话人在训练和测试时候一样,叫做说话人无关(speaker-independent)。从这个角度讲,Huang[81][82]的方法是speaker dependent,[38][162]的方法对speaker dependent和target-dependent都处理。他们放松干扰者约束的方式是简单地用目标说话人和许多干扰者的cochannel mixture来训练。

    Zhang和Wang提出一种deep ensemble network来实现speaker-dependent和target dependent分离[206]。他们使用mullti-context network来在不同分辨率集成时序信息(temporal information)。一个ensemble通过堆叠多个模块构造,每个模块做multi context masking/mapping。在这个研究中多个training target被考察。对于speaker-dependent分离,signal approximation被证明更有效;对target-dependent分离,ratio masking和signal approximation的组合更有效。进一步,target-dependent分离的的表现与speaker-dependent分离的接近。近来,Wang[174]在放宽speaker dependency上跟进了一步。他们的方法将每个说话人聚类到4个cluster中的1个里(2个男性和2个女性cluster),然后训练一个DNN-based的gender mixture识别器来决定mixture中2个潜在说话人所属的cluster。尽管是在每个cluster里的说话人的子集上做训练,他们的evaluation结果显示,说话人分离犯法对另外的cluster里没训练过的说话人也能工作得很好。或者说是,这个说话人分离方法显示了一定程度的speaker independency。

    Healy[63]近来用DNN做speaker-dependent的cochannel separation并对DNN做了关于HI和NH听者的speech intelligibility评估。DNN被训练来估计IRM和它的补充(complement),对应于目标说话人和干扰者。和更早的DNN-based cochannel separation研究相比,这里面的算法使用一个多样性的特征集合,以及预测多个IRM帧,导致一个更好的分离。intelligibility的结果如图13。

    在HI组,DNN-based分离在intelligibility的提升对于-3dB/-6dB/-9dB的target-to-interferer ratio(TIR)分别是42.5%/49.2%/58.7%;对于NH组,也存在统计性显著的提升,但幅度更小。值得关注的是,HI听者在intelligibility上获得的大幅提升,使得他们在TIR -6dB/-9dB时候可以与NH听者有同等水平的表现。

    speaker-independent分离可以视作一个无监督聚类,将T-F units聚类到由独立说话人统治的不同类别[6][79]。聚类是在说话人数量上是一个灵活的框架,但他无法像监督学习那样充分利用鉴别性信息(discriminative information)。Hershey[69]是第一个在DNN框架下解决speaker-dependent多说话人分离的。他们的方法,称为deep clustering(后续记作DPCL2016,结合了DNN-based的feature learning和spectral clustering。给定T-F units的gt划分,affinity matrix A可以计算:

    DNN被训练来对每个T-F unit做embed。affinity matrix的估计\hat{A}可以从embeddings导出。DNN通过最小化如下cost来学习如何对T-F units输出similar embeddings:

    低阶公式可以用于高效地计算cost以及他的导数。推理(inference)时候,mixture被分段,为每个分段(segment)计算embedding matrix V。然后,所有分段地embedding matrix做连接(concatenated)。最后,用K-means来将所有分段的T-F units聚类到说话人cluster。segment-level的聚类比utterance-level的聚类更准确,但只对独立的segment的聚类结果,需要解决时序组织问题。DeepClutering2016被证明能产生高质量的说话人分离,显著地优于用于speaker-independent的CASA方法[79]和NMF方法。

    DeepClutering2016一个近来的延伸是deep attractor network[25](后续记作DeepAttractorNet2017,为T-F units学习高维embeddings。与DeepClustering2016不同,这个深度网络建立与聚类中心相似的attractor points,来将被不同说话人统治的T-F units拉到对应的attractor。说话人分离然后被作为mask estimation任务来展开,通过比较embedded points和每个attractor。结果表明DeepAttractorNet2017比DeepClustering2016产生更好的结果。

    虽然clustering-based的方法自然而然地导出speaker-independent模型,DNN-based masking/mapping方法将每个DNN输出联系到一个特定的说哈人,并导出speaker-dependent模型。例如,mapping-based方法最小化如下cost:

    为了将说话人的DNN输出联合起来,训练一个使用masking/mapping的speaker-independent模型,Yu[202]近来提出permutation invariant training(后续记作PIT2017),如图14。对2说话人分离,DNN被训练输出2个mask,每个都被应用在noisy speech上来产生一个源估计(source estimation)。在DNN训练时,cost函数动态计算。如果将每个输出分配到一个训练数据中的参考说话人|S_k(t)|,那么有2种可能的分配,每个关联到一个MSE。有更小MSE的分配被选择,DNN被训练来最小化对应的MSE。在training和inference时,DNN接受一个segment或多帧特征,为segment估计2个source。由于DNN的2个输出没有关联到任何说话人,在连续的segment里同一个说话人可能从一个输出切换到另一个输出。因此,估计得到的segment-level source需要做sequential organization,除非segment跟语料一样长。尽管更简单了,说话人分离地结果证实能跟deep clustering得到的结果相持。

    在本个说话人分离小节中,从前面文章主体中的一个洞察是,用很多不同speaker pair训练的DNN模型能够分离训练中没有涵盖的speaker pair,即speaker-independent分离,但只能在frame-level左到。对speaker-independent分离,关键要素在于如何在独立的帧/segment上,对已经分离好的语音信号进行分组。这正是sequential organization,在CASA[172]中有很多研究。PIT2017可能被认为是在DNN训练中推行sequential grouping作为约束。另一方面,典型的CASA方法利用pitch controu,vocal tract characteristics,rhyth/prosody,乃至常见的spatial direction当多传感器是可用的,当然一般在监督学习中没有涵盖。看似集成传统的CASA和deep learning是未来研究的一个沃土。

     

     

     

    展开全文
  • 语音分离(Speech Separation)这个问题来自于“鸡尾酒会问题”,采集的...2、当干扰为其他说话人时,可以称为“多说话人分离”(Speaker Separation) 3、当干扰为目标说话人自己声音的反射波时,可以称为“解混响...
  • ... 摘要 在这篇文章中,我们提出了一个通过参考音频实现音频分离的系统。我们通过两个独立的网络来实现这个目的。(1)声纹识别网络用于...我们的系统显著降低了语音识别在多人混杂 语音上的词错误率,在单人干净语...
  • 实时语音识别支持词时间戳功能 新功能发布 实时语音识别支持 格式 新功能发布录音文件识别支持 人及以上多说话人分离 新功能发布 语音识别产品支持日语新功能发布 语音识别产品支持上海话方言 新功能发布 客户端接入...
  • 但录音存储成单声道 识别结果是否可以把两人的对话分离开采样率普通话录音文件识别支持单通道双人对话的说话人分离 语音识别支持热词模型吗版本热词模型目前在实时语音识别 一句话识别和录音文件识别中均已上线 请...
  • 广告关闭腾讯云双11爆品提前享,精选热门产品助力上云,云服务器首年88元起,买的越多返的越多,最高满返5000元!语气词过滤和句末标点...格式 新功能发布录音文件识别支持 人及以上多说话人分离 新功能发布 语音识...
  • 日语语音识别在线

    2020-10-27 18:15:43
    录音文件识别支持 人及以上多说话人分离 新功能发布 语音识别产品支持日语新功能发布 语音识别产品支持上海话方言 新功能发布 客户端接入实时语音识别技术指引上线 新功能发布 语音识别电话场景支持英语模型 功能...
  • 很多公司都提供语音合成的平台,但可以编辑多音字、韵律、多说话人的角色转换、背景音、特效音以及其它声音分离、声音转换等等功能的编辑平台屈指可数。本文章对具有编辑功能的配音平台进行总结,方便大家参考使用。...
  • “鸡尾酒会问题”(cocktailparty problem)是在计算机语音识别领域的一个问题,当前语音识别技术已经可以以较高精度识别一个所讲的话,但是当说话的人数为两或者多人时,语音识别率就会极大的降低,这一难题被...
  • 语音合成输出信息、语音识别输入指令、智能提示、动画等,能够充分提高机交互的有效性 和易用性。 ---- 我们知道,在Office 97帮助系统中有一种叫作Office助手的代理软件,其中幽默风趣的 动画人物,如“大眼夹...
  • 实验一 程控交换原理实验系统及控制单元实验 一、 实验目的 1、熟悉该程控交换原理实验系统的电路组成与主要部件的作用。 2、体会程控交换原理实验系统进行电话通信时的工作过程。 3、了解CPU中央集中控制处理器...
  •  实例120 通过类的态性确定人类的说话行为 147 5.4 迭代器和分部类的使用 149  实例121 使用迭代器显示公交车站点 149  实例122 使用迭代器实现倒序遍历 150  实例123 使用迭代器实现文字的动态效果 151 ...
  • 实例120 通过类的态性确定人类的说话 行为 147 5.4 迭代器和分部类的使用 149 实例121 使用迭代器显示公交车站点 149 实例122 使用迭代器实现倒序遍历 150 实例123 使用迭代器实现文字的动态效果 151 实例124 使用...
  • 实例120 通过类的态性确定人类的说话行为 5.4 迭代器和分部类的使用 实例121 使用迭代器显示公交车站点 实例122 使用迭代器实现倒序遍历 实例123 使用迭代器实现文字的动态效果 实例124 使用分部类实现多种...
  • 实例120 通过类的态性确定人类的说话行为 5.4 迭代器和分部类的使用 实例121 使用迭代器显示公交车站点 实例122 使用迭代器实现倒序遍历 实例123 使用迭代器实现文字的动态效果 实例124 使用分部类实现多种...
  • 实例120 通过类的态性确定人类的说话行为 5.4 迭代器和分部类的使用 实例121 使用迭代器显示公交车站点 实例122 使用迭代器实现倒序遍历 实例123 使用迭代器实现文字的动态效果 实例124 使用分部类实现多种...

空空如也

空空如也

1 2
收藏数 21
精华内容 8
关键字:

多说话人语音分离