精华内容
下载资源
问答
  • 介绍常见的音频接口,包括模拟音频接口,数字音频接口
  • 音频接口.PcbLib

    2021-03-14 16:20:45
    音频接口.PcbLib
  • MTK 音频接口原理图

    2020-11-26 17:03:31
    音频接口描述
  • 这里详细介绍一下目前常用的各种音频接口类型、规格、规范,以及接线要求。 一般音视频设备接口分为“插头”(英文:Male connector、plug)和“插座”(英文:Female connector、socket),实际应用中,由于习惯...
  • pcb封装 各种 音频接口封装 可3d显示 (MP3,手机的音频接口)
  • 一文读懂Android/iOS手机如何通过音频接口与外设通信 0 背景 1 音频口通信特点 1.1 通用性强 1.2 速率低 1.3 小信号 2 手机音频口通信原理 2.1音频接口 2.2音频通信模型与信号组成 2.2.1通信模型 2.2.2...

    一文读懂Android/iOS手机如何通过音频接口与外设通信


    更多技术干货,欢迎扫码关注博主微信公众号:HowieXue,一起学习探讨软硬件技术知识经验,关注就有海量学习资料免费领哦:
    在这里插入图片描述



    0 背景

    -> 随着移动互联网技术的迅猛发展,两大主流智能移动设备iOS 和Android占据了绝对的市场,除了基本的通话、娱乐功能之外,这些移动设备已经成为新时代中重要的信息终端设备节点。
    -> 目前智能移动设备主要集成了Wi-Fi、蓝牙无线通信标准接口,然而在外设应用领域中,由于受成本、功耗等因素的限制,许多传感器、控制设备往往采用传统的串行通信、USB通信等技术,但是有些智能手机或平板电脑缺乏这些通信接口,因此未来应用手机和传统设备之间统一的通信接口–音频接口,有着极大的市场。
    -> 目前手机外设+ 手机APP模式已是未来产品的一个新导向。因此,解决跨平台下手机与外设的通信也是未来的移动技术的重点。
    下图是市面上现有的几种基于音频口通信的设备:

    这里写图片描述
    图1 红外遥控器
    这里写图片描述
    图2 心率测试仪
    这里写图片描述
    图3 手机刷卡器


    1 音频口通信特点

    1.1 通用性强

    在智能手机普及的今天,手机的对外通信接口多种多样,而其中以3.5mm的音频接口通用性最强,基本所有的手机、平板电脑都会有这个接口,所以在一些要求通用性的设备上,音频接口成为首选。

    1.2 速率低

    由于手机音频部分的采样频率一般为44.1KHZ(部分国产山寨为8KHZ
    ),这极大的限制了音频通讯的速率。
    我们都知道如果是44.1KHZ的采样频率,那么最高的信号频率只能为20KHZ左右,而信号周期也不可能只有2个采样点,通常要到10个以上,这样层层下来通讯速率可想而知。

    1.3 小信号

    音频通信的信号都是毫伏级的,各个手机厂商略有不同,但通常最大不超过200mv。
    通常我们通信使用的信号强度也就100mv左右,这导致信号比较容易受干扰,且在开发阶段对工具有着种种限制。


    2 手机音频口通信原理

    2.1 音频接口

    这里写图片描述
    图4 音频接口(国际标准和国内标准)
    首先,音频接口上传输的是音频信号,如耳机听音乐、打电话;如今使用的耳机大多是3.5mm的四芯座,分别是地、左声道、右声道和麦克风MIC(线控开关)。
    如上图,左边是国际标准,右边是国内标准。因此可以看出,手机向外部发送数据是通过左右声道,接受数据是通过MIC口作为信号通道;这为手机与外设全双工通信建立了硬件基础。

    2.2音频通信模型与信号组成

    2.2.1通信模型

    所有的音频信号都是模拟信号,所以手机的音频口通信实际上就是对音频信号的调制和解调。
    调制有模拟调制和数字调制之分,模拟调制就是把模拟信号(比如人说话的声音)直接加载到电磁波上,使得电磁波的某一特性随着声源的变化而变化;而数字调制是近现才发展起来的,特别是DSP(数字信号处理)技术的发展,数字调制中的调频FM有2FSK(2进制调制)、4FSK(4进制调制)、8FSK(8进制调制)等等
    这里写图片描述
    图5典型的 音频通信系统模型
    可以看出由设备→手机是用MIC,手机→设备用左、右声道中的任意一个。实际产品中,最终手机解析信号是需要的是频率和幅值。另外说明实际应用中两个声道一般只用一个,剩下的一个通常被用来帮助设备进行上电识别或者供电。

    2.2.2音频通信使用的信号:

    1、方波:方波通常使用的是曼彻斯特编码方式,它的好处是可以用单片机直接输出方波,经过衰减后即可使用,方便简单。缺点是兼容性不好,因为手机音频部分有这样一个特性,它只识别变化的电平信号,当麦克输入的信号长时间保持在某一非零电平时,手机会将其视为零,而强行拉回零电位。这就是采用方波通讯方式的兼容性不好的最大原因了,并且方波也容易受干扰。
    2、正弦波:正弦波不会出现上面所说的方波的问题,故正弦波的兼容性和稳定性更好一些。通常采用方案有FSK、DTMF、信号发生器、或方波转正弦波等。


    3 手机音频口全双工通信方案

    要实现手机音频口的全双工通信,必须满足2个条件:

    • 1.信号必须在音频频率之内
    • 2.需要是低功耗的
      第一个条件限制了信号带宽,第二个条件限制了成本和功率。在这2种限制条件下,目前主要有2种方式实现这种同时的双向通信:FSK调制和基于曼彻斯特编码的直接数字通信。

    3.1设备→手机

    1、曼彻斯特编码(Manchester Encoding):是一个同步时钟编码技术;在诸多通信方式中,曼彻斯特编码是最灵活简便的一种方法,编码信号可由单片机直接产生,经衰减电路衰减后便可直接使用。注意事项:曼彻斯特编码信号的生成有两种方式,一种是用PWM生成,一种是用定时器中断翻转IO。

    曼彻斯特编码可以直接进行数字传输,编码将1变成01,而将0变成10,在每位编码中有一跳变,同时将时钟同步信息一起传输到对方。虽然这种编码方式将传输速率降低了一半,但是在编码后0和1的数量完全相等,不存在直流分量,因此具备自同步能力和良好的抗干扰能力。

    这里写图片描述
    图6 曼彻斯特编码后的波形

    2、 FSK(Frequency-shift keying)编码方式:FSK使用时通常都是用集成的芯片来生成的,而这些芯片通常都是遵守固定的通信协议的的要求(FSK为Bell202或V.23协议)。这两种通信方式的优点是采用正弦波通信、稳定性好且使用简便。但由于固定通信协议的限制导致通信速率、比特率也受到限制而缺乏灵活性。

    FSK的原理很简单:用一个频率表示1,另一个不同的频率表示0。在这里我们使用1200Hz的信号代表0,2400Hz的信号代表1。如图所示,1(高电平)所在的频率高,0(低电平)所在的频率低,这样就完成了FSK调制。

    这里写图片描述
    图7 FSK调制后的信号

    3、 信号发生器、锁相环方式:这种方式用信号发生器或者锁相环来产生方波或正玄波,由单片机来控制波形的输出,也可以实现音频通信,且十分灵活。但缺点是电路较复杂,且不同频率信号之间衔接不好掌握。

    3.2 手机→设备

    由于手机输出的音频信号很小,无法直接使用,因此现有方案是用运放发大到合适的范围,与用电压比较器转换成TTL方波。

    1、 放大电路方式:将手机输出信号经放大电路放大到合适的幅值,然后有锁相环或者通过FSK、DTMF芯片进行解析。
    2、 电压比较器方式:将手机输出的交流信号经电路强行拉到Vcc/2级别,然后加到电压比较器一端,另一段接比较电压Vcc/2,这样交流信号即被转化为TTL方波信号,再进行解析就容易了。


    4. 案例分析(2FSK信号调制)

    4.1 2FSK信号调制

    2FSK按字面的英语全称是:2 (binary system) Frequency-shift keying(二进制频移键控),就是用二进制里的0、1来控制载波的频率,从而达到通信的目的。
    例如:我们用1ms长、1KHz的正弦信号来代表二进制里的1;用1ms长、2KHz的正弦来代表二进制里的0;那一连串的1KHz、2KHz的信号解调出来就是一连串的0和1。

    这里写图片描述
    图 8二进制调频示意图

    4.1.1 Android下实现2FSK软件调制

    要实现2FSK,首先需要在Android系统下面获得一个基准的正弦信号发生器,有了这个基准的正弦信号发生器,只要给一个二进制量(0 or 1),就可改变输出频率,从而达到我们想要的信号调制目的。
    如下图,经过调制后的信号输出波形图:(黄色的是实际输出波型、红色方波是对应二进制数据)
    传送的数据是定义的通信协议头:0x5AA5

    这里写图片描述
    图9经过调制后的信号输出波形图
    然后设计Android程序,步骤如下:
    • 获取对应音频采样率下的最小缓冲区的大小
    • 新建Audio Track(音频数据输出Class)
    • 将缓冲区中的音频数据写入音频播放线程并设置左右声道音量等
    注:若需要其中一个声道对外部扩展头供电,可以设置该声道为循环播放。

    4.2 2FSK信号解调

    4.2.1解调电路

    解调端使用MSP430的单片机,主要是因为TI的单片机功耗较低,休眠状态下,电流可达到uA级,正常工作下电流也可以保持在几个mA级左右,适合手机音频口通信。
    这里写图片描述
    图10 MSP430 解调电路
    案例中P2.3脚接手机音频口的右声道,
    在单片机代码里设置并激活此引脚的第二功能(比较器0)的正向输入端,并将比较器0的反向输入端配置成内部VCC/2参考电压,如图,在手机右声道上用两个100K的电阻对VCC进行分压,所以只要右声道的电压在比较器导通的范围内变化时,比较器就能捕获到手机右声道上的信号了。下图是比较器的输出特性:

    这里写图片描述
    图11 比较器的输出特性
    调制信号经过比较器之后的输出波形图如下:
    这里写图片描述
    图12 调制信号经过比较器之后的输出波形图

    4.2.2解调原理分析

    既然前面的调制信号是用不同频率的波形来表示的,经过比较器之后,输出的波形如上图所示,这些宽窄有续的方波里就携带了我们想要的信息,然后再通过MSP430单片机里的捕获器来捕获这些方波信号。

    同时用定时器来计算这些方波的时间,从而解调出我们前面调制的信号,最终获得码元。

    解调过程方框图如下:

    这里写图片描述
    图13 解调过程方框图


    5 音频口通信关键技术与问题分析

    5.1 从手机获取电能

    如果外设没有电池供电,要实现音频口通信,首先就需要从音频口获取电能来驱动单片机或者传感器等设备,然后才能将数据转换成音频数据通过音频口传输出去,或者将传感器收集到的数据通过单片机转换成音频数据后通过mic口传入手机。
    一般的音频口取电电路都是一个通用的升压电路,因此升压电能转换效率和是非常关键的。

    5.2 不同手机音频口驱动能力

    这里写图片描述
    图14 不同手机音频口驱动功率对比
    如图14所示,iPhone音频口可以输出16mw的功率,而其他的安卓手机只有几mw的输出能力;对于iPhone手机强大的音频口驱动能力,足以驱动常见的单片机及传感器

    5.3 不同手机对音频信号的处理

    在个别手机上,接收到的音频波形跟其他手机相比,是反相的。即高电平的波峰变成了低电平的波谷。这个问题可以在解码的时候,根据特定的前导码来判断。
    手机Mic采样到的音频信号电平可能会不一样。例如同一段音频信号,使用A手机Audio Record采样出来,波峰的值大概是32000;另外找一个手机可能是3200。
    考虑到人耳能听到的音频信号一般都是在100Hz——10KHz左右的范围内,各别手机自带的降噪音等能力,会自动对音频信号进行处理、滤波。

    5.4 调制信号处理

    传输上使用什么样的调制方式,采用什么样的波特率、频率。如何对调制信号完成数据的组帧和解帧,才能手机音频口和外设之间可以实现高效的双向全双工通信。

    5.5编码与速率问题

    编码上如何编码表示数据,如何校验和纠错,如何滤波和解码数据。还需要进行简单的纠错编码,这样在出现少量错误的时候可以进行校正,进一步的降低误码率。
    在保证误码率的同时,还要考虑传输速率,目前至少要达到2k~4kbps的传输速率才能满足系统需求。

    5.6 通信协议制定

    通讯上如何制定合适的协议,包括如何判断信号开始、如何握手建立连接。
    

    6 现有的解决方案

    6.1 Hijack Project

    Hijack是一个硬件和软件平台,用来在小型、低耗电周边设备和iOS设备之间建立通信。
    该系统采用22kHz音频信号,将其转换为7.4mW电能(转化效率47%),可以带动一个TI MSP430微控制器和其它电子元件,并实现Hijack和iOS应用进行通信。
    这里写图片描述
    这里写图片描述
    图15 现有的Hijack 开发板
    这里写图片描述
    图16 Hijack音频口取电电路
    取电电路分析:
    Right接耳机右声道输出,之后是一个升压变压器T1,因为输出的音频电压很低,甚至不能触发后面的场效应晶体管FET导通,所以需要先升压。升压完了之后经过FET组成的桥整流电路,再经整流二极管D1调整以后就得到直流输出。
    这里写图片描述
    图17 Hijack App测试

    6.2手机刷卡器(拉卡拉)

    手机音频刷卡器是一种转账工具,用于个人支付和转账支付。它必须包括一个超低功耗微控制器(MCU)、支付卡插槽、安全访问模块、篡改检测脚、音频接口。
    这里写图片描述
    图18 音频口刷卡器框架图
    拉卡拉就是一个手机刷卡器;拉卡卡、智能手机、拉卡拉软件、网络,构成了一个完整的、更强大的POS系统。
    这里写图片描述
    图19 拉卡拉示意图
    芯片处理输入信号和转换刷卡数据处理模块,它是整个系统的核心。在手机应用里点击刷卡时,音频信号通过L或R从手机发送到电路板,通过A\D模块转换成数据信号。刷卡时电路板拿到银行卡6,再通过A\D模块转换成音频传输给手机。当然手机APP应用里在信号出入的时候,也需要做相应的A\D编解码工作,这也是手机APP里最重要的工作。
    这里写图片描述
    图20手机与拉卡拉音频通讯示意图

    手机与拉卡拉的音频通讯过程大致如下:
    • 先在手机上打开拉卡拉的应用。点击刷卡。
    • 手机应用会调用Android Api的Audio Track,通过L和R线路给拉卡拉手机刷卡设备发送一段通知信号(L和R表达的信息是一样的,只是波形是反相的,L的高电平对应于R的低电平,还没搞清楚拉卡拉为什么这么设计)。
    • 芯片上的通讯模块拿到音频信号,解码后发现是刷卡通知,就等待刷卡层传来刷卡信息。
    • 在刷卡槽刷卡后,卡的信息传递给芯片。
    • 芯片拿到卡的信息,编码成音频信号,同M线路发送给手机。
    • 手机APP通过Audio Record对音频信号进行采样,拿到数字信号。
    • 手机APP程序通过对数据信号进行解码,拿到实际的数据信息,即卡的信息。
    • 如果刷卡失败,则手机APP拿到的是一段失败提示信息。
    • 至此手机与刷卡器的通讯完成,手机APP再使用此卡的信息与拉卡拉的服务器端后台通讯,处理后续支付操作。

    6.3 其他产品

    这里写图片描述
    图 21Quick-Jack评估测试板
    这里写图片描述
    图22 智能手机温湿度监控产品
    这里写图片描述
    图23 音频-串口转换模块


    7 开发需要考虑的几点

    • 1、 手机录音软件,最好能在手机上直接看到波形的。
    • 2、 建议用笔记本电脑进行开发,而非台式机。因为音频信号很小,容易受干扰,而台式机干扰较大,笔记本还有一个好处是必要时可将外接电源拔掉,用电池供电。
    • 3、 录音笔,有时需要得到纯净的音频信号,方便更加准确的分析。
    • 4、 音频转接板,一边接音频母座,一边接音频公头,将MIC、地、左、右声道4跟线用排阵引出,方便录音。
    • 5、 需要信号衰减电路,可将设备电路产生的信号衰减至音频接口能承受的范围内。前期调试时,我们可以用该电路将信号录进电脑进行信号分析

    博主热门文章推荐:

    一篇读懂系列:

    LoRa Mesh系列:

    网络安全系列:

    嵌入式开发系列:

    AI / 机器学习系列:


    参考文献及网页链接:

    [1].Verma S, Robinson A, Dutta P. AudioDAQ: turning the mobile phone’s ubiquitous headset port into a universal data acquisition interface[C]//Proceedings of the 10th ACM Conference on Embedded Network Sensor Systems. ACM, 2012: 197-210.
    [2].Kuo Y S, Verma S, Schmid T, et al. Hijacking power and bandwidth from the mobile phone’s audio interface[C]//Proceedings of the First ACM Symposium on Computing for Development. ACM, 2010: 24.
    [3].赵文景, 封化民. 智能手机音频通信的实现[J]. 北京电子科技学院学报, 2014(4):64-67.
    [4].张佳进, 陈立畅, 张超,等. 智能移动设备的音频通信接口设计与实现[J]. 自动化与仪器仪表, 2015(4):149-152.
    [5].何江山.基于智能手机的家用人体生理参数检测终端设计[D]. 浙江大学, 2015.
    [6].国外Hijack 的项目网站、源码、购买链接:
    http://web.eecs.umich.edu/~prabal/projects/hijack/
    https://code.google.com/p/hijack-main/
    http://www.seeedstudio.com/depot/hijack-development-pack-p-865.html
    https://github.com/taweili/hijack/tree/master/iPhone
    [7].国内Android方案Git(基于Hijack)
    https://github.com/ab500/hijack-infinity
    [8].安卓手机和单片机音频通信
    http://blog.csdn.net/raoqin/article/details/9797131
    [9].手机的音频口通信方案
    http://blog.csdn.net/guang09080908/article/details/43405051
    [10].拉卡拉手机刷卡器音频通讯技术原理初步分析
    http://blog.csdn.net/kimmking/article/details/8712161
    [11].一种智能手机获取监测环境温度、湿度的实现方法
    http://www.eepw.com.cn/article/274760.htm
    [12].Android音频口通信(一)——2FSK信号调制
    http://blog.csdn.net/wocao1226/article/details/8773348
    [13].手机音频口双向通信模块 (3P)
    http://www.taskcity.com/users/20225-kuangjiu/portfolios/154338?locale=en
    [14].iOS开发之音频口通信-通过方波来收发数据
    http://www.jianshu.com/p/649e2c341c00
    [15].通过手机耳机口和外设之间传输数据
    http://www.zhihu.com/question/26918431
    [16].在安卓系统中使用音频接口用于数据传输
    https://software.intel.com/zh-cn/android/articles/using-the-audio-jack-as-data-interface-on-android-systems?language=it

    展开全文
  • 本文介绍了电话音频接口的电路原理
  • 数字音频接口

    千次阅读 2019-06-15 20:29:42
    数字音频接口 文章转载参考“数字音频接口”及“PCM / I2S / AC97/PDM”。 数字音频技术通过PCM调制方法,将模拟信号(音频)通过等间隔采样量化为数字信号(ADC),便于设计和应用中的传输和存储。数字信号再经过...

    数字音频接口

    文章转载参考“数字音频接口”及“PCM / I2S / AC97/PDM”。


    数字音频技术通过PCM调制方法,将模拟信号(音频)通过等间隔采样量化为数字信号(ADC),便于设计和应用中的传输和存储。数字信号再经过DAC还原为模拟的音频信号(声音)输出。
    人耳可接受声音频率范围在20 ~ 20 kHz。根据奈奎斯特采样定理,大概40KHz的采样率就可以通过数字信号还原出相对完整的模拟信号(音频)。大于50 ~ 60kHz的采样率在实际应用中意义不大。CD音质的采样率是44.1 kHz,AES推荐的绝大多数音频的采样率是48 kHz。
    量化深度,即采样精度,是模拟信号通过ADC转化为二进制数字信号的位数。量化深度越高,采样的数字信号精度越高。比如,量化深度16bit,采样的数字信号幅度有2^16 = 65536个档位。音频量化深度一般有8bit、16bit和20bit。CD音质的量化深度为16 bit。
    对于CD音质,可以计算出播放时的比特率(bit rates):44.1 kHz x 16 bit x 2 = 1411.2 kbps。MP3格式文件比特率为128kbps、160kbps 和 192kbps,即意味着它们相对CD的原始数据压缩比分别为11:1(1411.2/128)、9:1(1411.2/160) 和 7:1(1411.2/192) 。

    数字音频接口DAI,即Digital Audio Interfaces,顾名思义,DAI表示在板级或板间传输数字音频信号的方式。相比于模拟接口,数字音频接口抗干扰能力更强,硬件设计简单,DAI在音频电路设计中得到越来越广泛的应用。图1和图2对比传统的音频信号和数字音频信号链的区别。
    图1. 传统的音频信号链路
    图1. 传统的音频信号链路

    在传统的音频电路(图1)中有麦克风、前置放大器、模/数转换器ADC、数/模转换器DAC、输出放大器,以及扬声器,它们之间使用模拟信号连接。随着技术的发展和对性能考虑,模拟电路逐渐被推到链路的两端(集成到设备内部),信号链中各集成电路间将出现更多的数字接口形式。DSP通常都是数字接口的;换能器(Transducers, i.e. Mic & Speaker)、放大器一般而言只有模拟接口,但现在也正在逐渐集成数字接口功能。 目前,集成电路设计人员正在将换能器内的ADC、DAC和调制器集成到信号链一端,这样就不必在PCB上走任何模拟音频信号,并且减少了信号链中的器件数量。图2给出了一个完整数字音频接口的例子。
    图2. 数字音频信号链路
    图2. 数字音频信号链路

    数字音频信号的传输标准,如I2SPCM (Pulse Code Modulation) 和PDM (Pulse Density Modulation)主要用于同一块电路板上芯片之间音频信号的传输;Intel HDA (Intel High Definition Audio) 用于PC的Audio子系统(声卡)应用; S/PDIFEthernet AVB主要应用于板间长距离及需要电缆连接的场合。


    I2S接口

    I2S简介

    I2S全称Inter-IC Sound, Integrated Interchip Sound,或简写IIS,是飞利浦在1986年定义(1996年修订)的数字音频传输标准,用于数字音频数据在系统内部器件之间传输,例如编解码器CODEC、DSP、数字输入/输出接口、ADC、DAC和数字滤波器等。除了都是由飞利浦定义外,I2S和I2C没有任何关系。

    I2S是比较简单的数字接口协议,没有地址或设备选择机制。在I2S总线上,只能同时存在一个主设备和发送设备。主设备可以是发送设备,也可以是接收设备,或是协调发送设备和接收设备的其它控制设备。在I2S系统中,提供时钟(SCK和WS)的设备为主设备。图3是常见的I2S系统框图。在高端应用中,CODEC经常作为I2S的主控设备以精确控制I2S的数据流。
    图3. I2S设备连接示意图
    图3. I2S设备连接示意图

    I2S包括两个声道(Left/Right)的数据,在主设备发出声道选择/字选择(WS)控制下进行左右声道数据切换。通过增加I2S接口的数目或其它I2S设备可以实现多声道(Multi-Channels)应用。

    信号定义

    在I2S传输协议中,数据信号、时钟信号以及控制信号是分开传输的。I2S协议只定义三根信号线:时钟信号SCK、数据信号SD和左右声道选择信号WS

    • 时钟信号 Serial Clock

    SCK是模块内的同步信号,从模式时由外部提供,主模式时由模块内部自己产生。不同厂家的芯片型号,时钟信号叫法可能不同,也可能称BCLK/Bit Clock或SCL/Serial Clock。

    • 数据信号 Serial Data

    SD是串行数据,在I2S中以二进制补码的形式在数据线上传输。在WS变化后的第一个SCK脉冲,先传输最高位(MSB, Most Significant Bit)。先传送MSB是因为发送设备和接收设备的字长可能不同,当系统字长比数据发送端字长长的时候,数据传输就会出现截断的现象(Truncated),即如果数据接收端接收的数据位比它规定的字长长的话,那么规定字长最低位(LSB: Least Significant Bit)以后的所有位将会被忽略。如果接收的字长比它规定的字长短,那么空余出来的位将会以0填补。通过这种方式可以使音频信号的最高有效位得到传输,从而保证最好的听觉效果。

    √ 根据输入或输出特性,不同芯片上的SD也可能称SDATA、SDIN、SDOUT、DACDAT、ADCDAT等;
    √ 数据发送既可以同步于SCK的上升沿,也可以是下降沿,但接收设备在SCK的上升沿采样,发送数据时序需考虑

    • 左右声道选择信号 Word Select

    WS是声道选择信号,表明数据发送端所选择的声道。

    √ WS=0,表示选择左声道
    √ WS=1,表示选择右声道

    WS也称帧时钟,即LRCLK/Left Right Clock。WS频率等于声音的采样率。WS既可以在SCK的上升沿,也可以在SCK的下降沿变化。从设备在SCK的上升沿采样WS信号。数据信号MSB在WS改变后的第二个时钟(SCK)上升沿有效(即延迟一个SCK),这样可以让从设备有足够的时间以存储当前接收的数据,并准备好接收下一组数据。

    电气特性

    • 输出电平

    VL < 0.4V
    VH > 2.4V
    满足驱动TTL电平IIL=–1.6mA 和 IIH = 0.04mA。

    • 输入电平

    VIL < 0.4V
    VIH > 2.4V

    时序要求

    在I2S总线中,任何设备都可以通过提供时钟成为I2S的主控设备。考虑到SCK、SD和WS的时延,I2S总线上总的时延包括:

    • 外部时钟SCK由主设备到从设备的时延;
    • 内部时钟和SD及WS的时延

    外部时钟SCK到内部时钟的延迟对于数据和左右声道信号WS的输入没有影响,因为这段延迟只增加有效的建立时间(Setup time),如图4所示。需要注意的是发送延迟和接收设备建立时间是否有足够的裕量。所有的时序要求和时钟周期或设备允许的最低时钟周期有关。不同器件的Datasheet都有单独部分说明其时序要求,以下部分截取自I2S Bus Specification。
    图4. 发送设备时序
    图4. 发送设备时序
    图5. 接收设备时序
    图5. 接收设备时序

    注:图4和图5的时序要求因发送设备的时钟速率不同而有所区别。接收设备的性能指标需要匹配发送设备的性能。表1说明I2S发送和接收时序的要求。

    表1. I2S发送和接收时序
    表1. I2S发送和接收时序
    图6是SPEC对于时钟上升时间的定义。(注:1986的SPEC电平定义为TTL,实际应用参考具体器件手册。)
    图6. 时钟上升时间定义
    图6. 时钟上升时间定义

    I2S操作模式

    根据SD相对于SCKWS位置的不同,I2S分为三种不同的操作模式,分别为标准I2S模式、左对齐模式和右对齐模式:

    • I2S Phillips Standard I2S格式
    • Left Justified Standard 左对齐格式
    • Right Justified Standard 右对齐格式

    I2S模式属于左对齐中的一种特例,也叫PHILIPS模式,是由标准左对齐格式再延迟一个时钟位变化来的。时序如图7所示,左声道的数据MSB在WS下降沿之后第二个SCK/BCLK上升沿有效,右声道数据的MSB在WS上升沿之后第二个SCK/BCLK上升沿有效。
    图7. I2S PHILIPS操作模式
    图7. I2S PHILIPS操作模式
    标准左对齐较少使用,图8为左对齐时序图,和PHILIPS格式(图6)对比可以看出,标准左对齐格式的数据的MSB没有相对于BCLK延迟一个时钟。左对齐格式的左声道的数据MSB在WS上升沿之后SCK/BCLK的第一个上升沿有效;右声道的数据MSB在WS下降沿之后SCK/BCLK第一个上升沿有效。标准左对齐格式的优点在于,由于在WS变化后的第一个SCK上升沿就开始采样,它不需要关心左右声道数据的字长,只要WS的时钟周期足够长,左对齐的方式支持16-32bit字长格式。
    图8. 左对齐操作模式
    图8. 左对齐操作模式

    标准右对齐也叫日本格式,EIAJ (Electronic Industries Association of Japan) 或SONY格式,图9为右对齐时序图。右对齐格式左声道的数据LSB在WS下降沿的前一个SCK/BCLK上升沿有效,右声道的数据LSB在WS上升沿的前一个SCK/BCLK上升沿有效。相比于标准左对齐格式,标准右对齐的不足在于接收设备必须事先知道待传数据的字长。这也解释了为什么许多CODEC都会提供多种右对齐格式选择功能。
    图9. 右对齐操作模式
    图9. 右对齐操作模式

    注:
    标准左对齐和标准右对齐模式的LRCK/WS高低电平对应的左右声道与标准I2S模式的规定恰好相反!标准左右对齐LRCK/WS高电平对应左声道,LRCK/WS低电平对应右声道;而I2S低电平对应左声道,LRCK/WS高电平对应右声道!

    I2S数据时钟(SCK)频率计算

    例如:设声音的采样频率为44.1 kHz,即声道选择信号(帧时钟)WS的频率必须也为44.1 kHz;左/右2个声道的量化深度均为16 bit,则I2S的SCK的频率为:44.1 kHz×16×2=1.4112 MHz
    如果需要传输20 bit、24 bit或32 bit的左右声道的数据,可以提高SCK的频率,由上式可以计算出需要的SCK的频率。

    Master Clock

    在I2S/PCM接口的ADC/DAC系统中,除了SCK和WS外,CODEC经常还需要控制器提供MCLK (Master Clock),这是由CODEC内部基于Delta-Sigma (ΔΣ)的架构设计要求使然。MCLK时钟频率一般为256*WS,具体参考特定器件手册。图10示意Nuvoton的NAU8822L CODEC内部PLL框图,可以清晰地看出MCLK作用的区域。
    图10. CODEC内部PLL示意图
    图10. CODEC内部PLL示意图


    PCM接口

    PCM简介

    PCM (Pulse Code Modulation) 是通过等时间隔(即采样率时钟周期)采样将模拟信号数字化的方法。图11为4 bit 采样深度的PCM数据量化示意图。
    图11. 4-bit PCM的采样量化
    图11. 4-bit PCM的采样量化

    PCM数字音频接口,即说明接口上传输的音频数据通过PCM方式采样得到的,以区别于PDM方式。在音频领域,PCM接口常用于板级音频数字信号的传输,与I2S相似。PCM和I2S的区别于数据相对于帧时钟(FSYNC/WS)的位置、时钟的极性和帧的长度。其实,I2S上传输的也是PCM类型的数据,因此可以说I2S不过是PCM接口的特例。

    相比于I2S接口,PCM接口应用更加灵活。通过时分复用(TDM, Time Division Multiplexing)方式,PCM接口支持同时传输多达N个(N>8)声道的数据,减少了管脚数目(实际上是减少I2S的“组”数,因为每组I2S只能传输两声道数据嘛)。TDM不像I2S有统一的标准,不同的IC厂商在应用TDM时可能略有差异,这些差异表现在时钟的极性、声道配置的触发条件和对闲置声道的处理等。

    TDM/PCM数字音频接口的硬件拓扑结构也与I2S相近。图12表示应用DSP作为主设备控制ADC和DAC间数字音频流的例子。

    综合不少厂商的数据手册,笔者发现,在应用PCM音频接口传输单声道数据(如麦克风)时,其接口名称为PCM;双声道经常使用I2S;而TDM则表示传输两个及以上声道的数据,同时区别于I2S特定的格式。
    图12. TDM系统框图
    图12. TDM系统框图

    信号定义

    PCM接口与I2S相似,电路信号包括:

    • PCM_CLK 数据时钟信号
    • PCM_SYNC 帧同步时钟信号
    • PCM_IN 接收数据信号
    • PCM_OUT 发送数据信号

    TDM/PCM与I2S接口对应关系见表2:
    表2. PCM vs I2S接口
    表2. PCM vs I2S接口

    操作模式

    根据 SD相对帧同步时钟FSYNC的位置,TDM分两种基本模式:

    • Mode A: 数据在FSYNC有效后,BCLK的第2个上升沿有效(图13)
    • Mode B: 数据在FSYNC有效后,BCLK的第1个上升沿有效(图14)
      图13. TDM Mode A
      图13. TDM Mode A
      图14. TDM Mode B
      图14. TDM Mode B

    注:由于没有统一标准,不同厂商对Mode A和Mode B定义可能有所差别。

    在实际应用中,总是以帧同步时钟FSYNC的上升沿表示一次传输的开始。帧同步时钟的频率总是等于音频的采样率,比如44.1 kHz,48 kHz等。多数应用只用到FSYNC的上升沿,而忽略其下降沿。根据不同应用FSYNC脉冲宽度的差别,PCM帧同步时钟模式大致分为两种:

    • 长帧同步 Long Frame Sync
    • 短帧同步 Short Frame Sync

    长帧同步,短帧同步时序模式如下图16和图17所示。
    注:

    1. 长帧同步,如图15所示,FSYNC脉冲宽度等于1个Slot的长度。Slot在TDM中表示的是传输单个声道所占用的位数。如图15所示TI McASP接口的TDM包括6个Slots,即它最多可包括6声道数据。注意,Slot的位数并不一定等于音频的量化深度。比如Slot可能为32 bit,其中包括24 bit有效数据位(Audio Word) + 8 bit零填充(Zero Padding)。不同厂商对Slot的叫法可能有所区别,比如Circus Logic称之为Channel Block;
      图15. 长帧同步模式
      图15. 长帧同步模式

    2. 短帧同步,FSYNC脉冲宽度等于1个BCLK周期长度;

    3. 由于没有统一标准,不同厂商对FSYNC脉冲宽度及触发边沿的设置可能不同,以器件手册为准。
      图16. 8-bit长帧同步模式
      图16. 8-bit长帧同步模式
      图17. 16-bit短帧同步模式
      图17. 16-bit短帧同步模式

    关于长短帧同步、MSB/LSB和量化深度的区别,对应的PCM时序模式,请参考附件CSR BC06工具:pcmconfigv2_1,通过这个工具很容易理解这些变量的含义。

    模式设置

    通过寄存器或者管脚电平设置,可以配置CODEC的DAI工作在不同的操作模式。以AKM的24bit 4ch DAC AK4413为例,如表3所示,通过设置TDM[1:0]和DIF[2:0]等5个寄存器的值,可以选择其SDT1接口工作于20种不同模式,在Datasheet中详细说明了每种模式的时序框图。
    表3. 数字音频接口模式选择
    表3. 数字音频接口模式选择

    时钟(BCLK)频率的计算

    FSYNC的频率等于音频的采样率(例如44.1 kHz,48 kHz等)。Frame每次传输包括所有声道的数据。PCM采样音频数据量化深度一般在16-32bit(最常见为16/24bit)。那么对于8声道,每个声道32bit音频数据,采样率48kHz的系统,TDM的系统时钟速率为:8 × 32 × 48kHz = 12.288 MHz

    在器件Datasheet中可以见到TDM128/TDM256/TDM384/TDM512等说法,数字的含义为单个TDM数据帧包含数据的比特数(即帧长)。如上例8声道(Channels)32bit的音频数据,亦称为TDM256(=8*32)。TDM系统时钟速率就可以简单地用采样率乘以TDM帧长计算得出。相同的例子,TDM系统时钟速率:48kHz × 256 = 12.288 MHz

    下表4列出系统时钟SCK/BCLK和采样率fs及TDM帧长的关系:
    表4. 常见音频采样率对应的系统时钟
    表4. 常见音频采样率对应的系统时钟

    数据格式

    在PCM/TDM传输的数据帧(Slots)中,可能还包括音频数据之外的信息。比如在CSR BC06器件Datasheet说明,其设置为16 bit Slot字长时,3或8 bit未使用bit可以用作标签位(Sign Extension)、零填充(Zeros Padding)或是兼容Motorola编解码器的3 bit音频衰减值,如图18所示。
    图18. 16-bit位采样字格式
    图18. 16-bit位采样字格式

    协议分析

    以R&S的音频分析仪UPV Audio Analyzer为例,在其DAI协议分析面板,如图19,可以选择每帧包含的Slots数(No of Slots,对于I2S选2),Slot的长度,Lead Bits表示有效数据相对于Slot开始位置的OFFSET(比如,Slot Length = 32, Audio Leads = 8, 则表示每个Slot起始后的第9位为有效数据 )。如果选择为左对齐方式(LSB),设备会自动修正Audio Leads值以得到正确的幅值测量结果。
    图19. DAI协议分析设置面板
    图19. DAI协议分析设置面板


    PDM接口

    PDM(Pulse Density Modulation)是一种用数字信号表示模拟信号的调制方法。同为将模拟量转换为数字量的方法,PCM使用等间隔采样方法,将每次采样的模拟分量幅度表示为N位的数字分量(N = 量化深度),因此PCM方式每次采样的结果都是N bit字长的数据。PDM则使用远高于PCM采样率的时钟采样调制模拟分量,只有1位输出,要么为0,要么为1。因此通过PDM方式表示的数字音频也被称为Oversampled 1-bit Audio。相比PDM一连串的0和1,PCM的量化结果更为直观简单。

    在以PDM方式作为模数转换方法的应用接收端,需要用到抽取滤波器(Decimation Filter)将密密麻麻的0和1代表的密度分量转换为幅值分量,而PCM方式得到的就已经是幅值相关的数字分量。图20示意为通过PDM方式数字化的正弦波。
    图20. PDM方式表示的正弦波
    图20. PDM方式表示的正弦波

    PCM方式的逻辑更加简单,但需要用到数据时钟,采样时钟和数据信号三根信号线;PDM方式的逻辑相对复杂,但它只需要两根信号线,即时钟和数据。PDM在诸如手机和平板等对于空间限制严格的场合有着广泛的应用前景。在数字麦克风领域,应用最广的就是PDM接口,其次为I2S接口。PDM格式的音频信号可以在比如LCD屏这样Noise干扰强的电路附近走线(等于没说,这里指数字信号抗干扰能力相比于模拟信号更强,同样PCM也具有此优势)。

    通过PDM接口方式,传输双声道数据只要用到两根信号线。如图21示意两个PDM接口的发送设备与同一个接收设备的连接情况,比如Source 1/2分别作为左右声道的麦克风,通过这种方式可以将采集到的双声道数据传送到接收设备。主设备(此例中作为接收设备)为两个从设备提供时钟,分别在时钟的上升沿和下降沿触发选择Source 1/2作为数据输入。图22为Maxim的Class-D类型功放MAX98358对PDM接口时序的要求,可以看到它在PDM_CLK的上升沿采样左声道数据,在PDM_CLK下降沿采样右声道数据。
    图21. PDM连接示意图(2发送设备 + 1接收设备)
    图21. PDM连接示意图(2发送设备 + 1接收设备)
    图22. PDM时序框图
    图22. PDM时序框图

    基于PDM的架构不同于I2S和TDM之处在于,抽取滤波器(Decimation Filter)不在发送设备,而在接收设备内部。源端输出是原始的高采样率(oversample)调制数据,如Sigma-Delta调制器的输出,而不是像I2S中那样的抽取数据(An I2S output digital microphone includes the decimation filter, so its output is already at a standard audio sample rate that’s easy to interface to and process.)。基于PDM接口的应用降低了发送设备的复杂性,由于作为接收设备的CODEC内部集成抽取滤波器,因此系统整体复杂度大大降低。对于数字麦克风而言,通过使用面向CODEC或处理器制造的更精细硅工艺,而非传统麦克风使用的工艺,可以实现更高效率的抽取滤波器。


    其它接口

    • S/PDIF: Sony/Philips Digital Interface Format

    • Intel HDA: Intel High Definition Audio

    • Ethernet AVB: Audio Video Bridging


    感谢原作者提供了这么好的文章,真良心,还提供了原文的下载地址数字音频接口.pdf

    展开全文
  • 专注于研发移动及其相关领域接口规范的国际组织MIPI联盟,近日在MIPI联盟于中国上海首次举行的会员大会及“MIPI开放日”上宣布发布其的音频接口规范--SoundWire。此新发布的规范适用于智能手机、平板、移动电脑和...
  • 数字音频接口的详细解释
  • 音频接口是什么.docx

    2021-09-27 11:47:01
    音频接口是什么.docx
  • 音频接口是连接麦克风和其他声源与计算机的设备,其在模拟和数字信号之间起到了桥梁连接的作用。音频接口通常与前置麦克风、线路输入和其他一系列的输入设备配合使用。  1 IIS总线  IIS(Integrate InteRFace of ...
  • 专注于研发移动及其相关领域接口规范的国际组织MIPI联盟,近日在MIPI联盟于中国上海首次举行的会员大会及“MIPI开放日”上宣布发布其最新的音频接口规范--SoundWire。此新发布的规范适用于智能手机、平板、移动电脑...
  • 行业分类-作业装置-音频接口电路及其控制方法、音频设备.zip
  • I2S 音频接口标准

    2018-07-09 10:41:44
    I2S bus specification,英文版本,音频接口标准,适合开发者参考使用。
  • 音频接口模块电路图

    2011-06-21 22:41:35
    音频接口模块电路图音频接口模块电路图音频接口模块电路图
  • 行业分类-电信-一种通过音频接口进行音频信号上行的装置.rar
  • 常见音频接口

    2020-12-27 01:11:17
    常见音频接口 TRS接口 一般人初听可能不知道它是什么,不过只要把实物放在面前,大家就都知道它是什么了。其实日常生活中我们见得最多的就是TRS接口,它的接头外观是圆柱体形状,通常有三种尺寸1/4"(6.3mm)、1/8...

    本文原创:http://sound.zol.com.cn/512/5126175.html

    在这里插入图片描述

    • 常见音频接口

    TRS接口

    一般人初听可能不知道它是什么,不过只要把实物放在面前,大家就都知道它是什么了。其实日常生活中我们见得最多的就是TRS接口,它的接头外观是圆柱体形状,通常有三种尺寸1/4"(6.3mm)、1/8"(3.5mm)、3/32"(2.5mm),我们最常见的是3.5mm尺寸的接头。

    在这里插入图片描述

    2.5mm的TRS接头以前在手机耳机上比较流行,但现在已经不多见了,耳机接口基本被3.5mm接口一统江湖。而6.3mm的接头在很多专业设备和高档耳机上比较常见,但现在有不少高档耳机也逐渐开始改用3.5mm接头。TRS的含义是Tip(signal)、Ring(signal)、Sleeve(ground),分别代表了这种接头的3个触点,我们看到的就是被两段绝缘材料隔离开的三段金属柱。因此,3.5mm接头和6.3mm接头也被人称为“小三芯”和“大三芯”。
    在这里插入图片描述
    在这里插入图片描述

    • “大三芯”的构造

    TRS接口就是一个圆孔,其内部与接头对应,也有三个触点,彼此之间也被绝缘材料隔开。有的人说不还有四芯的插头吗?没错,我们在耳机或随身听上见到的四芯插头,多出来的那一芯是用来传送语音信号或控制信号。此外,还有一种用于耳机的四芯3.5mm插头则是用来传输平衡信号的。6.3mm的“大三芯”插头可用来传输平衡信号或非平衡立体声信号,也就是说它可以和我们后面要讲的XLR平衡接口一样,能够传输平衡信号,但因制作这样的平衡线成本比较高,所以一般只用在高档专业音频设备上。

    在这里插入图片描述

    • 二芯6.3mm TRS电吉他线

    当然,既然能加芯,那也可以减芯。二芯的TRS接头可以用来传送非平衡的单声道音频信号,比如电吉他用的线就是二芯的TRS线。所以,单从TRS接口外观来看,我们不会知道它是否支持平衡传输;单从芯数来看,我们也不能确定四芯及以上的TRS接头是否支持平衡传输,具体情况需要看设备。

    RCA接口

    在我们日常生活中也非常常见,音箱、电视、功放、DVD机等设备上基本都有。它得名于美国无线电公司的英文缩写(Radio Corporation of America),上世纪40年代的时候,该公司将这种接口引入市场,用它来连接留声机和扬声器,也因此,它在欧州又称为PHONO接口。我们对它更熟悉的接头称呼则是“莲花头”。

    在这里插入图片描述

    • RCA接口

    在这里插入图片描述

    • “莲花头”的RCA接头

    RCA接口采用同轴【同轴定义如下图】传输信号的方式,中轴用来传输信号,外沿一圈的接触层用来接地。每一根RCA线缆负责传输一个声道的音频信号,因此,可以根据对声道的实际需要,使用与之数量相匹配的RCA线缆。比如要组双声道立体声就需要两根RCA线缆。

    在这里插入图片描述

    • 同轴定义

    SPDIF之COAXIAL(同轴)

    1.同轴数字音频接口输出

    同轴数字音频接口输出是(Sony/Philips Digital InterFace)SONY、PHILIPS家用数字音频接口的简称,是一个规定传输数字信号的规范,它可以传输多种信号,可以传输LPCM流和Dolby Digital、DTS、AC-3这类环绕声压缩音频信号。

    SPDIF从传输介质上来分为同轴和光纤两种,其实它们可传输的信号是相同的,只不过是载体不同,接口和连线外观也有差异。只要把这个电信号转变为光信号,就可以用光纤(Optical)来传输。光信号传输是今后流行的趋势,其主要优势在于无需考虑接口电平及阻抗问题,接口灵活且抗干扰能力更强。

    2.同轴音频接口(Coaxial)

    同轴音频接口(Coaxial),标准为SPDIF(Sony / Philips Digital InterFace),是由索尼公司与飞利浦公司联合制定的,在视听器材的背板上有Coaxial作标识,主要是提供数字音频信号的传输。它的接头分为RCA和BNC两种。

    同轴音频是一种音频接口,同时拥有输入输出功能,不同于以往的音频接口,它把麦克风(输入接口)的接口和耳机或音响(输出接口)的接口整合在一起。

    在这里插入图片描述

    • 同轴音频接口(Coaxial)

    SPDIF之光纤

    在这里插入图片描述

    • 光纤(Optical)【图框处所在接口】

    在这里插入图片描述

    • 方头和圆头的光纤接头

    光纤接口的英文名字为TOSLINK,来源于东芝(TOSHIBA)制定的技术标准,器材上一般标为“Optical”。它的物理接口分为两种类型,一种是标准方头,另一种是在便携设备上常见的外观与3.5mm TRS接头类似的圆头。由于它是以光脉冲的形式来传输数字信号,因此单从技术角度来说,它是传输速度最快的。

    光纤连接可以实现电气隔离,阻止数字噪音通过地线传输,有利于提高DAC的信噪比。然而由于它需要光线发射口和接收口,而这两个口的光电转换需要用光电二极管,光纤和光电二极管之间不可能有紧密接触,从而会产生数字抖动类的失真,而且这个失真是叠加的。再加上在光电转换过程中的失真,它在数字抖动方面比同轴差了很多。也因此,现在光纤接口也开始逐渐淡出人们的视野。

    AEX/EBU接口之XLR接口

    又被称为“卡农口”,这是因为James H. Cannon创立的Cannon Electric公司是它最初的生产商。它们最早的产品是“cannon X”系列,后来改进产品增加了一个锁定装置(Latch),于是在“X”后面增加了一个“L”;再后来又围绕着接头的金属触点增加了橡胶封口(Rubber compound),于是又在“L”后面增加了一个“R”。人们就把三个大写字母组合在一起,称这种接头为“XLR connector”。

    在这里插入图片描述

    • 常见三芯XLR接口

    在这里插入图片描述

    • 有的耳放上面会提供四芯平衡XLR耳机接口

    我们通常见到的XLR插头是3脚的,当然也有2脚、4脚、5脚、6脚的,比如在一些高档耳机线上,我们也会看到四芯XLR平衡接头。XLR接口与“大三芯”TRS接口一样,可以用来传输音频平衡信号。这里我们简单说一下平衡信号与非平衡信号。声波转换成电信号后,如果直接传送就是非平衡信号,如果把原始信号反相180度,然后同时传送原始信号和反相信号,这就是平衡信号。平衡传输就是利用相位抵消原理,将音频信号传输过程中受到的其他干扰降至最低。 当然,XLR接口也跟“大三芯”TRS接口一样,可以传输非平衡信号,因此光从接口看,我们是看不出来它到底传输的是哪种信号。


    **数字音频接口方面,我们其实讲的更多的是传输协议或标准。在接口的物理外观上看,你很难看出它是哪类型的接口。我们首先说一下AES/EBU。 **

    AES/EBU是Audio Engineering Society/European Broadcast Union(音频工程师协会/欧洲广播联盟)的缩写,是现在较为流行的专业数字音频标准。它是基于单根绞合线对来传输数字音频数据的串行位传输协议。无须均衡即可在长达100米的距离上传输数据,如果均衡,可以传输更远距离。

    在这里插入图片描述

    • 最常见的采用三芯XLR接口的AES/EBU物理接口

    AES/EBU提供两个信道的音频数据(最高24比特量化),信道是自动计时和自同步的。它也提供了传输控制的方法和状态信息的表示(channel status bit)和一些误码的检测能力。它的时钟信息是由传输端控制,来自AES/EBU的位流。它的三个标准采样率是32kHz、44.1kHz、48kHz,当然许多接口能够工作在其它不同的采样率上。

    AES/EBU的物理接口有多种,最常见的就是三芯XLR接口,用来进行平衡或差分连接;此外还有后面要讲的使用RCA插头的音频同轴接口,用来进行单端非平衡连接;以及使用光纤连接器,进行光学连接。

    S/PDIF是Sony/Philips Digital Interconnect Format的缩写,它是索尼与飞利浦公司合作开发的一种民用数字音频接口协议。由于被广泛采用,它成为事实上的民用数字音频格式标准。S/PDIF和AES/EBU有略微不同的结构。音频信息在数据流中占有相同位置,使得两种格式在原理上是兼容的。在某些情况下AES/EBU的专业设备和S/PDIF的用户设备可以直接连接,但是并不推荐这种做法,因为在电气技术规范和信道状态位中存在非常重要的差别,当混用协议时可能产生无法预知的后果。

    在这里插入图片描述

    • 采用RCA同轴和光纤接口的S/PDIF接口

    S/PDIF接口

    一般有三种,一种是RCA同轴接口,另一种是BNC同轴接口,还有一种是TOSLINK光纤接口。在国际标准中,S/PDIF需要BNC接口75欧姆电缆传输,然而很多厂商由于各种原因,频频使用RCA接口甚至使用3.5mm的小型立体声接口进行S/PDIF传输,久而久之,RCA和3.5mm接口就成为了一个“民间标准”。后面我们会具体讲到同轴接口和光纤接口。

    同轴接口分为两种,一种是RCA同轴接口,另一种是BNC同轴接口。前者的外观跟模拟RCA接口没有任何区别,而后者则与我们在电视机上常见的信号接口有点类似,而且加了锁紧设计。同轴线缆接头有两个同心导体,导体和屏蔽层共用同一轴心,线的阻抗是75欧姆。
    在这里插入图片描述

    • BNC同轴接口的同轴线

    同轴传输阻抗恒定,传输带宽高,因此能够保证音频的质量。不过虽然RCA同轴接口的外观与RCA模拟接口相同,但线最好不要混用,由于RCA同轴线是固定75欧姆阻抗,因此混用线会造成声音传输的不稳定,使音质下降。

    光纤接口的英文名字为TOSLINK,来源于东芝(TOSHIBA)制定的技术标准,器材上一般标为“Optical”。它的物理接口分为两种类型,一种是标准方头,另一种是在便携设备上常见的外观与3.5mm TRS接头类似的圆头。由于它是以光脉冲的形式来传输数字信号,因此单从技术角度来说,它是传输速度最快的。

    在这里插入图片描述

    • 方头和圆头的光纤接头

    光纤连接可以实现电气隔离,阻止数字噪音通过地线传输,有利于提高DAC的信噪比。然而由于它需要光线发射口和接收口,而这两个口的光电转换需要用光电二极管,光纤和光电二极管之间不可能有紧密接触,从而会产生数字抖动类的失真,而且这个失真是叠加的。再加上在光电转换过程中的失真,它在数字抖动方面比同轴差了很多。也因此,现在光纤接口也开始逐渐淡出人们的视野。

    展开全文
  • AK4343音频接口芯片

    2018-01-08 15:33:53
    AK4343音频接口芯片数据手册,采用I2S接口通信,较适合STM32处理器实现音频应用
  • 音频接口,是在传输音频信号的时候使用的接口。它可以是模拟的,也可以是数 字的。在使用R&S®UPV 音频分析仪进行音频测试时,会接触到各式各样的音频接 口。如果缺乏对音频接口的基本了解,势必会妨碍对于音频测试...
  • 音频接口简介.pdf

    2013-12-15 22:20:29
    音频 接口简介 connector, 硬件连接头
  • 手机音频接口应用

    2015-01-26 13:00:56
    该文档详细描述了手机音频接口应用,具有很好的参考价值。有兴趣从事此方向的人可以参考,其中对硬件结构设计有所提及,是其他文档没有的。
  • 常用视音频接口交流

    2013-04-25 17:36:22
    视频接口 电视信号原理 模拟视频 数字视频 音频接口 模拟音频 数字音频 嵌入式音频
  • 主板前置音频接口连接手册.docx
  • 音频接口Android FSK通信

    热门讨论 2014-05-02 10:21:20
    音频接口与Android实现通信,利用2fsk编码。可以设计在便携式医疗电子、可穿戴式设备。
  • 针对不同的数字音频子系统,催生出几种微处理器或DSP(数字信号处理器)与音频器件间用于数字转换的接口。受系统实际性能的限制,通常情况下接口的选择取决于音频通道...本文将介绍目前市场中存在的几种音频接口规格。
  • CS8412 数字音频接口接收机 英文版
  • 行业分类-电子-OTG接口与音频接口自适配电路.zip
  • 常见音频接口介绍

    千次阅读 2019-05-29 16:36:57
    数字音频接口 “数字音频接口”是用来定义两个数字音频设备之间的数字接口协议的界标准格式,它分为家用的.专业的,电脑的三种格式: 家用的标准:S/PDIF(索尼/飞利浦数字接口格式),EIAJ CP-340 IEC-958 同轴或光缆...

    转载自 http://blog.sina.com.cn/s/blog_155903a570102ydt4.html常见音频接口介绍_公子小白_城南_新浪博客

    数字音频接口

    数字音频接口是用来定义两个数字音频设备之间的数字接口协议的界标准格式,它分为家用的.专业的,电脑的三种格式:

    家用的标准:S/PDIF(索尼/飞利浦数字接口格式),EIAJ CP-340 IEC-958 同轴或光缆,属不平衡式。其标准的输出电平是0.5Vpp(发送器负载75Ω),输入和输出阻抗为75Ω(0.7-3MHz频宽)。常用的有光纤、RCABNC。我们常见的是RCA插头作同轴输出,但是用RCA作同轴输出是个错误的做法,正确的做法是用BNC作同轴输出,因为BNC头的阻抗是75Ω,刚刚好适合S/PDIF的格式标准,但由于历史的原因,在一般的家用机上用的是RCA作同轴输出。

    专业的标准:AES/EBU(美国音频工程协会/欧洲广播联盟数字格式),AES3-1992,平衡XLR电缆,属平衡式结构。输出电压是2.7Vpp(发送器负载110Ω),输入和输出阻抗为110Ω(0.1-6MHz频宽)

    电脑的标准:ATT(美国电话电报公司)

    常见立体声接口

    最常见的模拟接口——3.5mm立体声接口(小三芯接口),3.5mm立体声接口又叫做小三芯接口,这是我们目前看到的最主要的声卡接口,绝大部分消费类声卡(包括板载声卡)都在使用这类接口。3.5mm接口提供了立体声的输入输出功能,因此一般来说支持5.1的声卡(6声道)或音箱来说,就需要33.5mm立体声接口来接驳模拟音箱(3×2声道=6声道);7.1声卡或音箱就需要43.5mm立体声接口(4×2声道=8声道),以此类推。

     现在常见的耳机接口都是 3.5mm 音频接口,分为 3-pole 和 4-pole 两类,而 4-pole 中又分 Standard 和 OMTP 两种型号。这是美国人的叫法,国内一般把 OMTP 称为国标,而把称 Standard 为 CTIA 或美标。一般来说,Standard 型号的耳机插头上的塑料环是白色的,而 OMTP 型号插头上的塑料环是黑色常见音频接口介绍

     

     为了适应不同的设备需求,同类的接口目前能看到的有三个尺寸规格,分别是2.5mm3.5mm6.22mm接头2.5mm接头在手机类便携轻薄型产品上比较常见,因为接口可以做的很小;3.5mm接口在PC类产品以及家用设备上比较常见,也是我们最常见到的接口类型;6.22mm接头是为了提高接触面以及耐用度设计的模拟接头,常见于监听等专业音频设备上。

    常见音频接口介绍

    与小三芯相对应的则是大三芯接口(TRSTip Ring Sleeve),采用直径为6.35毫米的插头,其优点是耐磨损,适合反复插拔。平衡模拟音频连接主要出现在高级模拟音响器材或专业音频设备上,用于平衡信号的传输。


    常见音频接口介绍

    如果设备输入输出都是大三芯的插座,插入大二芯,中环和后环被合并了(信号—和地被合并),响也会响,平衡连接的抗干扰能力失去了。在家用条件下,这样的做法问题不大,因为平衡连接的抗干扰优势在家用条件下并不明显。如果设备一头是大三芯的插座,一头是大二芯的插座。如果都用大二芯,大三芯那端信号—和地被合并,响也会响;如果都用大三芯,大三芯插座处信号—是卡在中环,而在大二芯插座处信号—是卡在后环,有可能构不成信号回路。

    RCA模拟音频接口

    需要注意RCA并不是莲花头的缩写标准视频输入接口,也称AV接口。RCA并不是专门为哪一种接口设计,既可以用在音频,又可以用在普通的视频信号,也是DVD分量(YCrCb)的插座,只不过数量是三个。RCA插头最早发明于美国无线电公司(Radio Corporation of America)每一根 RCA线缆负责传输一个声道的音频信号,所以立体声信号,需要使用一对线缆。对于多声道系统,就要根据实际的声道数量配以相同数量的线缆。立体声RCA音频接口,一般将右声道用红色标注,左声道则用蓝色或者白色标注。图为RCA3.5mm接口。

    常见音频接口介绍

    平衡模拟音频

    RCA模拟音频线缆直接传输声音的方式完全不同,平衡模拟音频(Balanced Analog Audio)接口使用两个通道分别传送信号相同而相位相反的信号。接收端设备将这两组信号相减,干扰信号就被抵消掉,从而获得高质量的模拟信号。平衡模拟音频通常采用XLR接口和大三芯接口。XLR俗称卡侬头,有三针插头和锁定装置组成。由于采用了锁定装置,XLR连接相当牢靠。

    XLR俗称卡侬头,这是因为James H. Cannon创立的Cannon Electric公司是它最初的生产商。它们最早的产品是“cannon X”系列,后来改进产品增加了一个锁定装置(Latch),于是在“X”后面增加了一个“L”;再后来又围绕着接头的金属触点增加了橡胶封口(Rubber compound),于是又在“L”后面增加了一个“R”。人们就把三个大写字母组合在一起,称这种接头为“XLR connector”。由三针插头和锁定装置组成。由于采用了锁定装置,XLR连接相当牢靠。XLR接口通常在麦克风、电吉他等设备上能看到,但它不一定是平衡接口,因为平衡接口的传输实现方式是比较复杂的,对电路的要求也比较高。下面我们来看看平衡模拟传输的实现方式。 

    常见音频接口介绍

    S/PDIF

    S/PDIFSony/Philips Digital Interface,索尼和飞利浦数字接口)是由SONY公司与PHILIPS公司联合制定的一种数字音频输出接口。该接口广泛应用在CD播放机、声卡及家用电器等设备上,能改善CD的音质,给我们更纯正的听觉效果。该接口传输的是数字信号,所以不会像模拟信号那样受到干扰而降低音频质量。需要注意的是,S/PDIF接口是一种标准,同轴数字接口和光线接口都属于S/PDIF接口的范畴。

    常见音频接口介绍

    数字同轴

    数字同轴(Digital Coaxial)是利用S/PDIF接口输出数字音频的接口。同轴线缆有两个同心导体,导体和屏蔽层共用同一轴心。同轴线缆是由绝缘材料隔离的铜线导体,阻抗为75欧姆,在里层绝缘材料的外部是另一层环形导体及其绝缘体,整个电缆由聚氯乙烯或特氟纶材料的护套包住。同轴电缆的优点是阻抗稳定,传输带宽高,保证了音频的质量。虽然同轴数字线缆的标准接头为BNC接头,但市面上的同轴数字线材多采用RCA接头。


    常见音频接口介绍

    光纤(Optical

    光纤(Optical)以光脉冲的形式来传输数字信号,其材质以玻璃或有机玻璃为主。光纤同样采用S/PDIF接口输出,其是带宽高,信号衰减小,常常用于连接DVD播放器和AV功放,支持PCM数字音频信号、Dolby以及DTS音频信号。

    常见音频接口介绍

     

    计算机与音响设备的接口类型多种多样,但究根寻源,按照其所传输信号的种类划分,无外乎两大类:音频信号接口与同步信号接口

    1. 音频信号接口

    (1) 按传输信号的类型可分为模拟接口与数字接口(a)模拟接口在音频领域中占有很大的比重。常见的模拟输入、输出接口如:大/小三芯插头、莲花头、XLR卡侬式插头等,因为这类接口我们平常用得比较多,也较为熟悉,在此就不再多说。(b) 数字接口,专业的数字音频系统和某些民用系统均有符合某种标准协议的数字接口,利用它可以将多个通道的数字音频数据在两个设备间传送,而不会产生音质的损失。只要误码能够被完全纠正,那么不论进行多少代数字复制,都不会影响最后一代的声音质量,从而就可以进行真正的数字域无损复制。

    (2) 按接线方法可分为平衡类接口与不平衡类接口(a) 平衡类接口,专业音响和广播设备中大部分都具有平衡的输入/输出电路接口。输入和输出端一般为XLR卡侬式插座,插座上有三个端子:+、-、地。其+()的意义是指输出信号与输入端的+信号同相(或反相)。平衡式接法的输入/输出设备抗噪声能力较强,因为串进电缆或设备内的噪声一般同时出现在正负输入端,对地电压大小相等而相位相同,也就是我们通常所说的共模噪声。但是接在后面的平衡输入电路仅传输正负两端信号的差,能够抑制共模噪声。(b) 不平衡类接口,该接口常用于民用的音频设备,其输入/输出端对机架为热端,接头一般为RCA唱机型接头。不平衡接法的抗噪声能力较弱,此连接方式一般用于1m左右的短线连接且噪声较小的环境,或低阻高输出信号的连接,如功放与扬声器之间。

    2. 同步信号接口

    与模拟音频信号不同,数字音频信号有严格的时间结构。因为一个采样信号要同其它采样进一步构成有一定时间长度的帧和块。如果数字音频设备打算彼此间进行通信,或者数字信号要以某种方式进行组合,那么它们就需与共用的参考信号取得同步,以使设备的采样频率完全一致,并且不会产生彼此间采样频率的漂移。因此,为专业应用设计的数字音频工作站常常提供多种同步输入接口。在同步的起始点,记录和重放要锁定到SMPTE/EBUMIDI时间码(MTC)源上,或者锁定到外部的采样率时钟、视频同步或数字音频同步标准上。在内同步方式中,系统锁定在其自身的晶体振荡器上,如果它符合AES的应用场合(AES-1984),那么在专业的设备中应该有±10ppm的精确度(民用设备的精确度要比此低得多)。在外同步方式中,系统锁定到它的某一个同步输入上。典型的同步输入是字时钟(WCLK),它通常是采样的方波TTL的电平信号(0~5V),一般采用BNC型接口端子,并且在设备上普遍使用Sony接口(SDIF)。在所有情况中,某一个机器或源必须被确认为"主机"(master),由它作为整个系统的同步参考,而其它机器为"从机"(slave)

    展开全文
  • 控制 Bydcontrol - 音频接口控制

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 112,782
精华内容 45,112
关键字:

音频接口