精华内容
下载资源
问答
  •  IIS(Integrate InteRFace of Sound)即集成音频接口,在上个世纪80年代首先被Philips公司用于消费产品的音频设备,并在一个称为LRCLK(Left/Right CLOCK)的信号机制中经过多路转换,将两路音频信号合成单一的...
  •  IIS(Integrate InteRFace of Sound)即集成音频接口,在上个世纪80年代首先被Philips公司用于消费产品的音频设备,并在一个称为LRCLK(Left/Right CLOCK)的信号机制中经过多路转换,将两路音频信号合成单一的...
  • 原文地址http://tech.ddvip.com/2009/05/1242301714119209.html1 IIS总线 IIS(Integrate Interface of Sound)即集成音频接口,在上个世纪80年代首先被Philips公司用于消费产品的音频设备,并在一个称为LRCLK(Left/...

    原文地址

    http://tech.ddvip.com/2009/05/1242301714119209.html

    1 IIS总线

       IIS(Integrate Interface of Sound)即集成音频接口,在上个世纪80年代首先被Philips公司用于消费产品的音频设备,并在一个称为LRCLK(Left/Right CLOCK)的信号机制中经过多路转换,将两路音频信号合成单一的数据队列。当LRCLK为高时,左声道数据被传输;LRCLK为低时,右声道数据被传输(也可以反过来,高低与左右声音的对应可以自定义)。对于多通道系统,在同样的BCLK和LRCLK条件下,并行执行几个数据队列也是可能的。由于IIS、PCM和类似的音频接口不能提供寄存器入口,因此需要独立的控制接口。

       IIS总线一般具有4根信号线,如图1所示,包括串行数据输入(IISDI)、串行数据输出(IISD0)、左/右声道选择(IISLRCK)和串行数据时钟(IISCLK);产生IIS LRCK和IISCLK的是主设备。

    2 IIS音频驱动实现

       音频驱动有3种模式:MDD/PDD模式、Wavedev2模式、UAM模式。它们相同的地方很明显:接口相同,都是流驱动,透过流接口与上层的waveapi.dll交互。

       第1种MDD/PDD模式是最早的模式,也是其他驱动常见的分层模式。如果使用CE提供的MDD(wavem—dd.1ib),会受到一些限制:仅支持一个设备;一个设置仅支持一个流;对循环的支持不大可靠;对流的支持较弱。当然,由于提供了源码,可以自己修改MDD,突破以上这些限制。

       第2种Wavedev2模式,是因为2000年的Smartphone项目产生了新的要求,这些需求需要大改MDD/PDD。比如上面的限制2,根据CE的开发历史,此时waveapi.dll也不支持software mixer,这就是说只能同时允许一个应用在播放。所以根据当时情况,CE的多媒体开发团队设计了Wavedev2模式。这是一个单体(不分层)的驱动模式,平台相关的模块都在hwctxt.h和hwetxt.cpp中,此外还加入了midi支持、software mixer支持、S/PDlF接口、gain class接口、forcespeaker接口,等等。因此,开发Smartphone或者PPC,这个模式是挺适合的。

      第3种UAM模式,即统一音频模式(Unified AudioModel),在开发WinCE4.2时,要增加对DirectSound的支持,而且有一些音频设备是支持硬件mixer的,对此使用UAM是很好的选择。

    展开全文
  • iis音频

    千次阅读 2010-01-28 16:04:00
    IIS音频技术 2009-10-05 21:26 阅读114 评论0 字号: 大大 中中 小小 1 IIS总线 IIS(Integrate Interface of Sound)即集成音频接口,在上个世纪80年代首先被Philips公司用于消费产品的音频设备,并在一个称为...

    IIS音频

    技术    2009-10-05 21:26   阅读114   评论0  
    字号:    
    1 IIS总线
       
    IIS(Integrate Interface of Sound)即集成音频接口,在上个世纪80年代首先被Philips公司用于消费产品的音频设备,并在一个称为LRCLK(Left/Right CLOCK)的信号机制中经过多路转换,将两路音频信号合成单一的数据队列。当LRCLK为高时,左声道数据被传输;LRCLK为低时,右声道数据被传输 (也可以反过来,高低与左右声音的对应可以自定义)。对于多通道系统,在同样的BCLK和LRCLK条件下,并行执行几个数据队列也是可能的。由于 IIS、PCM和类似的音频接口不能提供寄存器入口,因此需要独立的控制接口。
        IIS总线一般具有4根信号线,如图1所示,包括串行数据输入(IISDI)、串行数据输出(IISD0)、左/右声道选择(IISLRCK)和串行数据时钟(IISCLK);产生IISLRCK和IISCLK的是主设备。

    IIS音频 - 来过 - 永远保持积极向上

    2 IIS音频驱动实现
        音频驱动有3种模式:MDD/PDD模式、Wavedev2模式、UAM模式。它们相同的地方很明显:接口相同,都是流驱动,透过流接口与上层的waveapi.dll交互。
        第1种MDD/PDD模式是最早的模式,也是其他驱动常见的分层模式。如果使用CE提供的MDD(wavem—dd.1ib),会受到一些限制:仅支持一个设备;一个设置仅支持一个流;对循环的支持不大可靠;对流的支持较弱。当然,由于提供了源码,可以自己修改MDD,突破以上这些限制。
        第2种Wavedev2模式,是因为2000年的Smartphone项目产生了新的要求,这些需求需要大改MDD/PDD。比如上面的限制2,根据CE 的开发历史,此时waveapi.dll也不支持software mixer,这就是说只能同时允许一个应用在播放。所以根据当时情况,CE的多媒体开发团队设计了Wavedev2模式。这是一个单体(不分层)的驱动模式,平台相关的模块都在hwctxt.h和hwetxt.cpp中,此外还加入了midi支持、software mixer支持、S/PDlF接口、gain class接口、forcespeaker接口,等等。因此,开发Smartphone或者PPC,这个模式是挺适合的。
        第3种UAM模式,即统一音频模式(Unified AudioModel),在开发WinCE4.2时,要增加对DirectSound的支持,而且有一些音频设备是支持硬件mixer的,对此使用UAM是很好的选择。
        本测试采用MDD/PDD的驱动结构,下面讲述本驱动的关键点。
    2.1 DMA控制及驱动
        通俗地讲,DMA(直接内存存取)不需要CPU干扰也不消耗CPU资源,可以把音频数据自动地从系统总线搬到IIS总线上;如果音频平均按采样频率44. 1 kHz、16位字长、左右2声道计算,码流为1.411 Mbps,通常在1~3Mbps,所以采用DMA传输十分必要。
    2.2 时钟配置
        只要位时钟和采样时钟能匹配好,IIS数据格式主从一致,DMA配置好,音频就可以工作了。

    IIS音频 - 来过 - 永远保持积极向上
        IIS数据格式主要分3种:左对齐、右对齐、IIS格式。声音听起来“怪怪地”,就是数据格式不对。频率计算方法如表1所列。

    IIS音频 - 来过 - 永远保持积极向上

        IIS主设备时钟频率可以通过采样频率来选择。IIS主设备时钟频率是由IIS预分频器产生的(IIS主设备时钟频率=MCLK/预分频器值),因此必须选择合适的预分频器的值和CODECLK的采样频率类型(256或者384fs),才能获得合适的IISLRC采样频率(IISLRCK频率=IIS主设备时钟频率/CODECLK的采样频率类型);串行位采样频率类型(16/32/48fs)可以通过配置每个通道的串行位数和CODECLK采样频率类型来完成,它们之间的关系如表2所列。

    IIS音频 - 来过 - 永远保持积极向上

        如晶振频率为16.934 4 MHz,通过384分频为44.1kHz(采样频率就是这么来的)。
        位时钟频率=采样频率×数据位×2=44.1 kHz×16×2=1.411 MHz
        对于其他频率的晶振或是来自于总线的时钟频率,就要计算出IISC0N中的分频系数了,以最大限度拟合CODECLK。
    2.3 CODEC控制
        目前有SPI、I2C和L3三种总线控制CODEC。L3总线(L3MODE、L3CLOCK、L3DATA)都是由通用的I/O端口来控制的。其中L3 接口实际上是一种串行接口,它由3根信号线组成,完成处理器和C0DEC之间的数据和控制信号交换。UDAl341TS就是采用L3接口的。
        L3DATA:处理器接口数据线。
        L3MODE:处理器接口模式信号线。
        L3CLOCK:处理器接口时钟信号线。
        三种控制方式中以I2C最为常见。其中I2C又分为寄存器方式和I/O模拟方式两种,I/O模拟方式的可移植性好,仅I/0模拟方式的I2C驱动又可分为8位、9位、16位,以及是否带子地址、是否可以连读连写、是否要兼容SCCB总线。
    2.4 音量控制节点
       
    使用音量调节的地方较多。图2是音量控制节点的一般模型。
        ①处的增益由播放器的音量控制功能决定,最大是0dB。也就是说,最多只能还原出原信号强度。
        ②和③处的增益由Coded IC自身控制,WM8731没有产生增益功能,②处容易引入信号失真,一般置为O dB,codec加大音量时主要在③处提高增益。
        ④、⑤处由功放决定,最大也是O dB,便携式功放通常是电流型,靠放大电流去推动扬声器。
        ①+②+③三处的增益和超过O dB时,1 kHz的信号就会产生失真,但是大部分音乐的强度都小于1 kHz测试方波时的强度,所以这三项的和可以比O dB略大,但不能太大,否则会引起信号失真。
        a.应用程序通过调用waveOutSetVolume,与手工在控制面板中调节音量等效。
        b.调节MediaPlay播放器音量时,通过消息跟踪可以判断是否改变了①处的增益,即ARM的DSP数字输出增益。
        c.调节控制面板里的音量时,会发现CODEC的功放寄存器值也会改变。猜想是通过IIS总线实现控制相关寄存器,因为在IoControl消息中没有发现通过I2C改写任何寄存器。
        通过分析调整音量的方法,有图2所示的5个节点可控制,目的是音量最大失真最小:让①处输出增益最大的情况下,②处PCM Volume置为0 dB(此处放大最容易引入失真),功放置最大时便能获得不失真最大音量了;如果想再增大音量只能牺牲失真度了,人耳最多接收10%THD(Total Hamonic Distortion,总谐波失真),此种情况下主要靠调节③处的增益。

    IIS音频 - 来过 - 永远保持积极向上

    3 提高音量的有效方法
        ①在C0DEC与功放不可更改的前提下,选择合适的喇叭至关重要(不同的喇叭效果大不一样)。口径大小不等,纸盆有深有浅。在选择喇叭时一般要求功放的额定功率是喇叭额定功率的2倍以上,喇叭的实际最大承受功率是其额定输出功率的 2~3倍。喇叭的灵敏度参数很重要,一般是O.1 W时85 dB左右,还要看额定功率时的灵敏度。灵敏度用来衡量将电能转换为声音的效率,只讲额定功率不讲额定功率时的灵敏度是没有意义的,额定功率下的低灵敏度无益于电阻丝“发热不出声”。
        ②提高功放电压,根据P=U·U/R,很小的提升电压,就能获得平方级的功率提升。如由4 V→6V,功率可提高2.25倍。
        ③改善音腔设计。
        ④原则上不建议以牺牲保真度来换取音量。如不得已而为之,使用时也要严格控制在THD<10%。
    3.1 功放与扬声器的匹配和选择
       
    功放的输出功率一定要大于喇叭的输出功率,否则不但会影响声音效果,而且会加速功放的损坏。如选择的喇叭阻抗比功放的输出阻抗高时,将影响放大器的输出功率;而当喇叭的阻抗过低时(如低于4Ω),使用的功率放大器与额定的输出功率又不相匹配,这种情况下失真将增大。如果喇叭的阻抗符合要求,额定功率又比功放的额定功率稍小,失真就相对小,喇叭的声音质量就好。
        扬声器的选择:
        ①口径大,纸盆深,转换效率就高,承受功率也越大;口径小,纸盆过浅,高频响应就不好。
        ②用手轻按同样口径的纸盆时,比较费力的扬声器谐振频率高,动态范围较大。
        ③坚硬、密实纸盆的扬声器,高频性能一般较好;粗疏、柔软纸盆的扬声器,音质一般较柔和。
        ④放大器应该有足够的功率输出,尤其是晶体管放大器。扬声器的最大输出功率应该是其额定功率的3倍以上,并且扬声器的最大输入功率应该等于放大器的输出功率,以保护扬声器的安全。
        ⑤阻抗匹配是最基本的要求:对于Class D类功效,由于PWM易引起高频干扰,因此还要考虑合适的感抗,以起到滤波作用。如图3所示,线圈的阻抗和感抗组成了一个低通滤波器,理想情况下将阻隔 PWM产生的高频谐波干扰。这里选择增益为一3 dB时的频率作为高频的截止点fc=RL/2πL。当阻抗为8Ω时,令截止频率为20kHz,则有L=RL/2πfc=8Ω/(2π×20 kHz)=64μH。8 Ω的便携式扬声器感抗为20~100μH。如果实际感抗>64μH,将限制带通特性;如果实际感抗<64μH,截止频率会>20 Hz,此时又会引入噪声。所以,选择扬声器时感抗要尽量接近64μH;对于AB类功放,则不作严格要求。

    IIS音频 - 来过 - 永远保持积极向上

    3.2 音腔设计
       
    好的音腔,同样的功率下,音量会更大。
        ①音腔内要平,不要有高低不平的落差感。
        ②出音孔是音腔面积的15%~20%(手机中常用的)。
        ③音腔要尽量深,形成“V”型出音,效果较好。
        ④前后音腔要隔开,以免前后声音互相干扰。这个原理和喇叭放出的声音比起喇叭装在箱子里面的声音要小很多的原因一致。
        ⑤前音腔:扬声器前面音腔的大小主要由扬声器上面的泡棉高度所决定,一般来说至少要留O.2 mm的泡棉。前音腔主要对高频声音有所影响,对于SPL(SoundPressure Level,声压级)影响不是太大。
        ⑥后音腔:要足够大,如果能够达到手机喇叭的等效声容积的2倍的水平最好;更大的后音腔使得扬声器在低频可以得到更好的效果。
        ⑦前音腔和出音孔要设计合理、恰当:前音腔和出声孔形成一个Helmholtz共鸣器,会在某个频率点出现谐振峰。若不是特殊设计,可以把该谐振峰调整到高频端(>10 kHz),相应地就要求前腔浅,出音孔面积大;若有特殊设计要求,譬如为了提高响度,可以把谐振峰调整到3.4~6 kHz,不过带来的结果将是声音偏单调,而且对音源的要求会苛刻。
        ⑧密封性:最基本的是要让扬声器的前音腔和后音腔分开,保证良好的密封性(尽可能地保证手机音腔的密封性)。良好的密封性使得扬声器在低频段可以得到更好的效果(可以得到更大、更柔美的声音)。

    4 音效测试
       
    由于人耳对音频发声的感官不尽相同,且主观差异较大,曾想写一篇文章,专门介绍音效的评测及控制方法,需控要什么样的仪器,实验方案如何。但由于实验条件和本人能力有限,加上专业性很强,不敢写也怕写不好,只好作罢。以下是Wolfson Microelectronics plc Jason Fan所列(仅供参考),同时期待这类文章早日出现。
        ①基本仪器:稳压电源、内置滤波器的毫伏表(可以测量输出的噪声和输出的功率)、失真仪、声压仪、信号发生器。
        ②高级仪器:AP音频分析仪、音频全频扫描仪(用来测试扬声器功率)。
        ③音频系统的评估指标有基本指标和升级指标。
        基本指标有:输出功率、信噪比、频率响应、失真度、左右通道分离度、左右声道平衡度。
        升级指标(需使用音频分析仪测量)有:THD+N、动态范围、FFT。
        作音频测试时,一般会使用一些标准的测试信号,如左右声道1 kHz O dB;左右声道30 Hz O dB;左右声道100Hz 0 dB;左右声道10 kHz 0 dB;左右声道16 kHz O dB;左声道l kHz O dB;右声道1 kHz 0 dB。
        上述仪器都会附带使用方法和实验方案。


    5 总 结
       
    面对音视频驱动,首先不要有畏惧心理而觉得其高深莫测不敢去接触。掌握基础原理和上述要点后,一般的IIS音频CODEC均能驱动。在本人驱动WMXXX系列(WM9712/WM8978/WM8960/WM8731)、UDAl314、PCMl770、UCBl440、CS4344等芯片的过程中,均得到了有效验证。
        在应用CS42L52时,发现背景噪声明显,但耳机音质很好,说明噪声来自于功放;一上电不做任何初始化照样有,进一步说明来自功放,而且不随音量改变而改变。不能正面降噪,后来采取的规避措施是:没有DMA传输时关掉声音通道,此问题后来通过新老电路板对比,查出是扬声器的输出端所接LC回路中电感参数不当产生了自激。把电感换成O Ω电阻后,噪声基本消除。
        在ARM中,晶振以12 MHz和16.934 4 MHz最为常见(视频系统中也有27 MHz或28.XXX MHz),系统外围总线是50 MHz,能不能配成精准的44.1 kHz或48kHz,要视各芯片自身的PLL了,这一点要格外重视。如果频率相差太多,也会引入噪声且有语速不正常现象。
        选型建议:
        ①选型时,一定要贴在自己的电路板上实测,不能仅凭供应商的DEMO板演示。
        ②背景噪声有没有,在正版歌曲的前5 s空白时间基本上可以听出来。
        ③要看看芯片是否已量产且是不是已被人采用,口碑是参考的重要因素。
        WM9712l带有四线电阻Touch接口,在MP4视频播放器方案中应用较为普遍。WM897x在手机中或智能手机采用得比较多;在MP3或是低成本方案中,PCMl770占不少份额;欧胜(Wolfson)推出的WM897x系统IIS音频协议不但提高了系统的集成度,也提高了系统的音频质量; WM897x以DSP微处理器为内核,可将风声等过滤来提高音频系统的录音功能,新产品还采用了5波段与3D音频系统的均衡来提高音频输出以及可编程阻态滤波器消除噪声。这些系统通常也支持时钟频率在12~19MHz的麦克风及手机喇叭的驱动部分,可进一步减少产品中元器件的数量。为使高质量音频喇叭以及压电型喇叭的功耗可以达到900 mW,使用了数字式录音回放限制器,以防止喇叭的过量输出
    展开全文
  • 音频接口

    2021-01-13 16:09:54
    音频接口 中文+全称 主要(技术+应用)场景 备注说明 PCM Pulse Code Modulation =脉冲编码调制 AP处理器和通信MODEM/蓝牙之间也是通过...

    HD Audio 硬件总架构

    音频控制器由CPU运行的软件来模拟,软声卡;

    音频编解码器,主要处理A/D、D/A转换。

    HDA 总线协议

     

     

    【常见音频(传输)接口/标准总结】

    音频接口

    中文+全称

    主要(技术+应用)场景

    备注说明

    PCM

    Pulse Code Modulation

    =脉冲编码调制

    AP处理器和通信MODEM/蓝牙之间也是通过PCM来传输语音数据(就是双向打电话的数据)

    通过等时间隔(即采样率时钟周期)采样将模拟信号数字化的方法

    501aabe80d2d0a07912a0bebcbc5dd9a.png

    4-bit PCM的采样量化

    接口上传输的音频数据通过PCM方式采样得到的

    I2S

    Inter-IC Sound

    =Integrated Interchip Sound

    =IIS

    =IC间音频

    最早的:CD播放器

    I2S速度快,专门用于传音乐

    41ef560e00480ceecccf79c82185a992.png

    飞利浦在1986年定义(1996年修订)的数字音频传输标准,用于数字音频数据在系统内部器件之间传输,例如编解码器CODEC、DSP、数字输入/输出接口、ADC、DAC和数字滤波器等。

    I2S是比较简单的数字接口协议,没有地址或设备选择机制

    在I2S总线上,只能同时存在一个主设备和发送设备。

    主设备可以是发送设备,也可以是接收设备,或是协调发送设备和接收设备的其它控制设备。

    在I2S系统中,提供时钟(SCK和WS)的设备为主设备。

    f5effc6ee9e6ed25049f5735cd81a8cc.png

    I2S设备连接示意图

    在高端应用中,CODEC经常作为I2S的主控设备以精确控制I2S的数据流。

    多数音频ADC、DAC、DSP,与采样速率转换器,以及一些微控制器都带有I2S接口。

    I2S包括两个声道(Left/Right)的数据,在主设备发出声道选择/字选择(WS)控制下进行左右声道数据切换。

    一般只支持1路音频数据

    通过增加I2S接口的数目或其它I2S设备可以实现多声道(Multi-Channels)应用。

    TDM

    Time Division Multiplexing

    =时分复用

    I2S只能传2个声道的数据

    ->

    PCM可以传多达16路数据,采用时分复用的方式,就是TDM

    ->像现在最流行的语音智能音箱的7麦克风矩阵,一般都是用TDM来传的数据,同时可以传输7路麦克风输入和3路以上的音频反馈信号

    TDM不像I2S有统一的标准,不同的IC厂商在应用TDM时可能略有差异,这些差异表现在时钟的极性、声道配置的触发条件和对闲置声道的处理等。

    特点:

    比I2S节省管脚数量

    支持多路传输

    最多支持16路=16通道

    6eaf631a6d6ca321b7505485961182c1.png

    TDM系统框图

    PDM

    Pulse Density Modulation

    =脉冲分时复用

    手机和平板电脑等便携设备的音频

    PDM在诸如手机和平板等对于空间限制严格的场合,即尺寸受限应用中优势明显,有着广泛的应用前景

    -》在数字麦克风应用很广

    手机cpu到蓝牙的通话实时音频和mp3

    codec的音频接口

    一种用数字信号表示模拟信号的调制方法

    PCM使用等间隔采样方法,将每次采样的模拟分量幅度表示为N位的数字分量(N = 量化深度),因此PCM方式每次采样的结果都是N bit字长的数据。

    PDM,只有2根线,传音乐,编码方式和I2S不同。

    7558dc3f04e8d1c16a0a4e953435fb5d.png

    PDM方式表示的正弦波

    033ad66a3879fc2be4ee766d08c8e52e.png

    PDM格式的音频信号可以在比如LCD屏这样Noise干扰强的电路附近走线(等于没说,这里指数字信号抗干扰能力相比于模拟信号更强,同样PCM也具有此优势)

    基于PDM的架构不同于I2S和TDM之处在于,抽取滤波器(Decimation Filter)不在发送设备,而在接收设备内部。源端输出是原始的高采样率(oversample)调制数据,如Sigma-Delta调制器的输出,而不是像I2S中那样的抽取数据。基于PDM接口的应用降低了发送设备的复杂性,由于作为接收设备的CODEC内部集成抽取滤波器,因此系统整体复杂度大大降低。对于数字麦克风而言,通过使用面向CODEC或处理器制造的更精细硅工艺,而非传统麦克风使用的工艺,可以实现更高效率的抽取滤波器。

    综合解释:

    • 传输单声道数据:PCM

      • 比如:麦克风

    • 传输双声道数据:I2S

    • 传输两个及以上声道的数据:TCM

    PCM vs PDM:

    • PCM:

      • 使用等间隔采样方法:将每次采样的模拟分量幅度表示为N位的数字分量(N = 量化深度)

      • 每次采样的结果都是N bit字长的数据

      • 逻辑更加简单

      • 需要用到数据时钟,采样时钟和数据信号三根信号线

    • PDM:

      • PDM采样的音频数据 也常被叫做:Oversampled 1-bit Audio

      • 使用远高于PCM采样率的时钟采样调制模拟分量

      • 只有1位输出:要么为0,要么为1

      • 逻辑相对复杂

      • 只需要两根信号线,即时钟和数据

     

    一. I2S协议介绍

    I2S全称Inter-IC Sound, Integrated Interchip Sound,或简写IIS,是飞利浦在1986年定义(1996年修订)的数字音频传输标准,用于数字音频数据在系统内部器件之间传输,例如编解码器CODEC、DSP、数字输入/输出接口、ADC、DAC和数字滤波器等。除了都是由飞利浦定义外,I2S和I2C没有任何关系。

     

    二、I2S特点

    1、支持全双工/半双工

    2、支持主/从模式

    3、和PCM相比,I2S更适合立体声系统。当然,I2S的变体也支持多通道的时分复用,因此可以支持多声道。

    在飞利浦公司的I2S标准中,既规定了硬件接口规范,也规定了数字音频数据的格式。

    I2S有3个主要信号

    1.串行时钟SCLK,也叫位时钟(BCLK),即对应数字音频的每一位数据,SCLK都有1个脉冲。SCLK的频率=2×采样频率×采样位数

    2. 帧时钟LRCK,(也称WS),用于切换左右声道的数据。LRCK为“1”表示正在传输的是右声道的数据,为“0”则表示正在传输的是左声道的数据。LRCK的频率等于采样频率。

    3.串行数据SDATA,就是用二进制补码表示的音频数据。

    有时为了使系统间能够更好地同步,还需要另外传输一个信号MCLK,称为主时钟,也叫系统时钟(Sys Clock),是采样频率的256倍或384倍。

    串行数据(SD)

    I2S格式的信号无论有多少位有效数据,数据的最高位总是出现在LRCK变化(也就是一帧开始)后的第2个SCLK脉冲处。这就使得接收端与发送端的有效位数可以不同。如果接收端能处理的有效位数少于发送端,可以放弃数据帧中多余的低位数据;如果接收端能处理的有效位数多于发送端,可以自行补足剩余的位。这种同步机制使得数字音频设备的互连更加方便,而且不会造成数据错位。

    随着技术的发展,在统一的 I2S接口下,出现了多种不同的数据格式。根据SDATA数据相对于LRCK和SCLK的位置不同,分为左对齐(较少使用)、I2S格式(即飞利浦规定的格式)和右对齐(也叫日本格式、普通格式)。

    为了保证数字音频信号的正确传输,发送端和接收端应该采用相同的数据格式和长度。当然,对I2S格式来说数据长度可以不同。

    字段(声道)选择(WS)

    命令选择线表明了正在被传输的声道。

    WS=0,表示正在传输的是左声道的数据。

    WS=1,表示正在传输的是右声道的数据。

    WS可以在串行时钟的上升沿或者下降沿发生改变,并且WS信号不需要一定是对称的。在从属装置端,WS在时钟信号的上升沿发生改变。WS总是在最高位传输前的一个时钟周期发生改变,这样可以使从属装置得到与被传输的串行数据同步的时间,并且使接收端存储当前的命令以及为下次的命令清除空间。

    电气规范:

    输出电压:

    VL <0.4V

    VH>2.4V

    输入电压

    VIL<0.8V

    VIH>2.0V

    注:这是使用的TTL电平标准,随着其他IC(LSI)的流行,其他电平也会支持。

    时序要求

    在I2s总线中,任何设备都可以通过提供必需的时钟信号成为系统的主导装置,而从属装置通过外部时钟信号来得到它的内部时钟信号,这就意味着必须重视主导装置和数据以及命令选择信号之间的传播延迟,总的延迟主要由两部分组成:

    1.外部时钟和从属装置的内部时钟之间的延迟

    2.内部时钟和数据信号以及命令选择信号之间的延迟

    对于数据和命令信号的输入,外部时钟和内部时钟的延迟不占据主导地位,它只是延长了有效的建立时间(set—up time)。延迟的主要部分是发送端的传输延迟和设置接收端所需的时间。

    T是时钟周期,Tr是最小允许时钟周期,T>Tr这样发送端和接收端才能满足数据传输速率的要求。

    对于所有的数据速率,发送端和接收端均发出一个具有固定的传号空号比(mark—space ratio)的时钟信号,所以t LC和tHC是由T所定义的。 t LC和tHC必须大于0.35T,这样信号在从属装置端就可以被检测到。

    延迟(tdtr)和最快的传输速度(由Ttr定义)是相关的,快的发送端信号在慢的时钟上升沿可能导致tdtr不能超过tRC而使thtr为零或者负。只有tRC不大于tRCmax的时候(tRCmax>:0.15T),发送端才能保证thtr大于等于0。

    为了允许数据在下降沿被记录,时钟信号上升沿及T相关的时间延迟应该给予接收端充分的建立时间(set-up time)。

    数据建立时间(set-up time)和保持时间(hold time)不能小于指定接收端的建立时间和保持时间。

     

    I2S只能传2个声道的数据,PCM可以传多达16路数据,采用时分复用的方式,就是TDM

    • PDM,只有2根线,传音乐,编码方式和I2S不同。

    很多数字麦克风使用的PDM接口,有数据和时钟两根线。PDM接口和I2S最大的区别是编码方式不同

     

    I2S速度快,专门用于传音乐。

    PCM/TDM,主要用来传语音

     

    国产音频芯片厂家:

    1,苏州顺芯半导体有限公司

    http://www.everest-semi.com/cn_products.php

     

    国外:

    1,瑞昱半导体realtek

    https://www.realtek.com/zh-tw/

    2,Cirrus Logic

    https://www.cn.cirrus.com/products/wm8960/

     

     

     

     

     

     

     

     

     

     

     

     

    参考:

    1. I2S Bus Specification -Philips

    https://blog.51cto.com/12810168/2450275

    https://blog.csdn.net/xsophiax/article/details/100561305?utm_medium=distribute.pc_relevant.none-task-blog-BlogCommendFromBaidu-1.control&depth_1-utm_source=distribute.pc_relevant.none-task-blog-BlogCommendFromBaidu-1.control

    https://wenku.baidu.com/view/eae9cb97c8d376eeafaa3143.html

    https://blog.csdn.net/weixin_42121713/article/details/109968321?utm_medium=distribute.pc_relevant.none-task-blog-BlogCommendFromMachineLearnPai2-4.control&depth_1-utm_source=distribute.pc_relevant.none-task-blog-BlogCommendFromMachineLearnPai2-4.control

    https://blog.csdn.net/fengfeng0328/article/details/83046175

    展开全文
  • IIS(I2S): Philips Inter-IC sound Bus,一根data线最多2 channel数据。 TDM: 包括PCM format 和 I2S format,下图是TDM-I2S Mode, 在I2S format下传输多channel。 PCM: short frame 和long frame。long ...

    IIS(I2S):  Philips Inter-IC sound Bus,一根data线最多2 channel数据。

    TDM: 包括PCM format 和 I2S format,下图是TDM-I2S Mode, 在I2S format下传输多channel。

    PCM:  short frame 和long frame。long frame 模式下,LRCK脉冲宽度占2个BCLK时钟周期。

                short frame模式下,LRCK 只占一个BCLK时钟周期,如下图。

    =============================================================================================

    PDM(待补充)

     

     

    展开全文
  • 数字音频接口

    千次阅读 2019-06-15 20:29:42
    文章转载参考“数字音频接口”及“PCM / I2S / AC97/PDM”。 数字音频技术通过PCM调制方法,将模拟信号(音频)通过等间隔采样量化为数字信号(ADC),便于设计和应用中的传输和存储。数字信号再经过DAC还原为模拟...
  • TMS320VC5509A通过MCBSP接口与NUC972的IIS接口进行音频传输(二) 今天继续学习DSP5509A与NUC972通过IIS进行音频数据传输,主要分析DSP5509A这一端的MCBSP接口的配置。首先先介绍一下DSP5509A的MCBSP接口。TI的官方...
  • TMS320VC5509A通过MCBSP接口与NUC972的IIS接口进行音频传输(三) 今天咱们继续了解DSP5509A的MCBSP接口与NUC972的IIS接口音频传输的第三部分,就是DSP5509A在linux上的驱动部分。 首先咱们了解一下linux系统...
  • 最近一段时间研究了一下DSP5509A的MCBSP(多缓冲串口)接口和Nuc972的IIS接口进行音频数据传输的问题,今天终于有了点儿心得,和大家分享一下。 总体思路是基于嵌入式linux音频框架ASOC,将DSP5509A模拟成一个codec...
  • IIS音频总线

    2020-05-15 13:08:07
    IIS音频总线学习(一)数字音频技术 一、声音的基本概念     声音是通过一定介质传播的连续的波。 图1 声波 重要指标: 振幅:音量的大小周期:重复出现的时间间隔频率:指信号每秒钟变化的次数声音...
  • IIS接口详细介绍

    万次阅读 2018-10-30 21:09:01
    I2S = Inter-IC Sound = Integrated Interchip Sound = IIS,是飞利浦在1986年定义(1996年修订)的数字音频传输标准,用于数字音频数据在系统内器件之间传输,例如编解码器CODEC、DSP、数字输入/输出接口、ADC、DAC...
  • s3c2440IIS实现音频功能

    2010-08-03 13:14:00
    IIS(Inter-IC Sound)由飞利浦公司开发,是一种常用的音频设备接口,主要用于CD、MD、MP3等设备。     s3c2440一共有5个引脚用于IIS:IISDO、IISDI、IISSCLK、IISLRCK和CDCLK。前两个引脚用于数字音频...
  • 数字音频接口时序简介

    千次阅读 2020-05-09 23:47:46
    最近在做音频这块,接触了挺多接口,收集了一下各种音频接口的介绍,包括: PCM、I2S、TDM、PDM,一般通用的就这四种。 1.PCM(脉冲编码调制) 接口定义都是一样的 分别是: 位时钟信号(BCLK),同步信号(LRCK),...
  • 1、BT401模块音频输出,既支持DAC立体声输出,同时也支持I2S输出。只能二选一。 2、但是请注意,虽然BT401模块是一样,但是I2S输出版本的固件和DAC输出的固件是不同的 3、I2S的输出,支持主或者从。但是目前我们...
  • 音频接口 AC97 I2S

    千次阅读 2009-05-03 23:12:00
     I2S 和AC97是常见的音频接口,在当前消费类电子中i2s 用的更为广泛。IIS I2S(Inter—IC Sound)总线是飞利浦公司为数字音频设备之间的音频数据传输而制定的一种总线标准,该总线专责于音频设备之间的数据传输,...
  • IIS接口传输简介

    2021-04-05 14:48:47
    IIS为硬件接口,用来传输声音数据,也就是只能够用来传输声音或者接受声音,在硬件上,IIS控制器与音频编解码芯片以IIS接口相连,如下图VM8976G芯片,因此对于声音音量等设置等用L3接口来控制,也可以用IIC接口来...
  • 介绍了I2S,PCM,TDM,PDM的原理,实现方式
  • 详解数字音频接口DAI

    千次阅读 2018-10-14 12:29:41
    数字音频接口DAI,即Digital Audio Interfaces,顾名思义,DAI表示在板级或板间传输数字音频信号的方式。相比于模拟接口,数字音频接口抗干扰能力更强,硬件设计简单,DAI在音频电路设计中得到越来越广泛的应用。图1...
  • wince IIS 音频驱动

    千次阅读 2013-08-16 17:31:50
    IIS音频 技术 2009-10-05 21:26 阅读114 评论0  字号: 大 中 小 1 IIS总线  IIS(Integrate Interface of Sound)即集成音频接口,在上个世纪80年代首先被Philips公司用于消费产品的音频设备...
  • I2S音频接口的理解

    2021-04-21 20:03:59
    1、位时钟(BCLK):又名SCK,对应每一位(bit)...一般音频使用16K。 3、LRCK:用于切换左右声道的数据。一般,1表示左声道,0表示右声道。 4、MCLK:主时钟,一般是采样频率的128、或256、或384或512倍。 6、 ...
  • 一些Audio Codec中总是出现PCM字样,一直以为它是一种音频数据编码格式,但是越看Spec觉得越不像,赶紧到...最简单的音频接口是PCM(脉冲编码调制)接口,该接口由时钟脉冲(BCLK)、帧同步信号(FS)及接收数据(DR...
  • iis 规范 协议 音频

    2011-05-10 22:40:30
    d AC 97协议(音频编解码器 97),符号AC 97的编解码器数字接口协议称AC-link 时钟:建议24.576MHz 信号: bit_clk,12.288mhz sdo是发生到ac 97的时分复用数据流 sdi是ac 97发出的。。。 sync是ac 97...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 3,610
精华内容 1,444
关键字:

iis2音频接口