音频_音频采样率 - CSDN
音频 订阅
音频是个专业术语,音频一词已用作一般性描述音频范围内和声音有关的设备及其作用。人类能够听到的所有声音都称之为音频,它可能包括噪音等。声音被录制下来以后,无论是说话声、歌声、乐器都可以通过数字音乐软件处理,或是把它制作成CD,这时候所有的声音没有改变,因为CD本来就是音频文件的一种类型。而音频只是储存在计算机里的声音。如果有计算机再加上相应的音频卡——就是我们经常说的声卡,我们可以把所有的声音录制下来,声音的声学特性如音的高低等都可以用计算机硬盘文件的方式储存下来。 展开全文
音频是个专业术语,音频一词已用作一般性描述音频范围内和声音有关的设备及其作用。人类能够听到的所有声音都称之为音频,它可能包括噪音等。声音被录制下来以后,无论是说话声、歌声、乐器都可以通过数字音乐软件处理,或是把它制作成CD,这时候所有的声音没有改变,因为CD本来就是音频文件的一种类型。而音频只是储存在计算机里的声音。如果有计算机再加上相应的音频卡——就是我们经常说的声卡,我们可以把所有的声音录制下来,声音的声学特性如音的高低等都可以用计算机硬盘文件的方式储存下来。
信息
定    义
描述音频范围和声音的设备及作用
应用学科
通信术语
中文名
音频
外文名
Audio
音频音频概念
音频是个专业术语,音频一词已用作一般性描述音频范围内和声音有关的设备及其作用。1.Audio,指人耳可以听到的声音频率在20HZ~20kHz之间的声波,称为音频。2.指存储声音内容的文件。3.在某些方面能指作为滤波的振动。 [1] 
收起全文
  • 本课程讲解使用Python进行音频处理和视频处理,全程讲案例。预计20课,一边录制课程一边补充目录。课程录完之前暂定39元,全部上传之后再重新定价。
  • 最近开始接触到监控设备中音频相关的工作,主要包括音频数据采集、相关参数设置、环境降噪、回声处理、编码等方面,本文着重就音频相关的基础知识做一个总结。 信噪比SNR:原始信号和内部噪声(经过该设备后产生...

        最近开始接触到监控设备中音频相关的工作,主要包括音频数据采集、相关参数设置、环境降噪、回声处理、编码等方面,本文着重就音频相关的基础知识做一个总结。

     

    信噪比SNR:原始信号和内部噪声(经过该设备后产生的原信号中并不存在的无规则额额外信号)强度的比值,以db位单位,计算方法是:10lg(PS/PN),其中PS和PN分别代表信号和噪声的有效功率,也可以换算成电压幅值的比率关系,20lg(vs/vn),vs和vn分别代表信号和噪声电压的‘有效值’。信噪比越高,音讯放大越干净。

     

    监控设备中音频输入有两种模式

    linein:音频线两端分别连接音源(手机、电脑等)及设备

    micin:通过设备内置麦克风输入

     

    音频线或耳机常见插口,只列举下面两种目前用到的:

    3.5mm三段式耳机,比较常见,三根贴心代表里面事三根导线,必要的时候没有合适的插口需要徒手搭上去导通

     

    3.5mm四段式耳机插口

     

     

    模拟信号:连续信号,时间和幅度都是连续的,我们日常听到的声音就是典型的连续信号

     

    数字信号:在某些特定的时刻对模拟信号进行测量叫做采样(sampling),在有限个特定时刻采样幅度限定有限个得到的信号称为数字信号。模拟信号到数字信号转换为A/D(Analog to Digital) 反之为D/A,对于计算机来说只能存储二进制数,所以使用计算机存储或者处理声音信号必须使用A/D采样转为数字音频

    采样:将时间轴上连续的信号每隔一段时间抽取出一个信号的幅度样本,把连续的模拟信号用一个个的离散点表示出来,每秒钟采样的次数称为采样频率,用f表示。CD采样率为44.1kHZ,监控设备中常用的采样率为8k,16k,32k,48k,64k等。

    在对模拟音频进行采样时取样频率越高,音质约有保证,如果采样率不够高,声音就会产生失真。

    采样定理(奈奎斯特定理)中有描述,采样率至少要录制音频最高频率的2倍,才不会失真。

    常用的音频采样频率有:8kHz、11.025kHz、22.05kHz、16kHz、37.8kHz、44.1kHz、48kHz、96kHz、192kHz等

     

    量化(位深depth) 量化精度,反应了声音波形幅度的精度,如果使用16位表示,那么声音样本值就是在0~2^16(65535)的范围。常用的采样位深是常见的位宽是:8bit 或者 16bit

    采样率、位深、声道数决定了声音的音质和占用的空间大小.采样率和位深越大,越接近原始信号

    码率:码率=采样率*声道数*位深

    如果是CD音质,采样频率44.1KHz,量化位数16bit,立体声(双声道),码率 = 44.1 * 16 * 2 = 1411.2Kbps = 176.4KBps,那么录制一分钟的音乐,大概10.34MB。除非专业需要,这个size是我们常常不能接受的,不利于保存和传输。如果是实时的话,每秒需要的带宽就达到了180KB(加上数据包头信息)。

     

    音频帧:音频数据是流式的,本身没有明确的一帧帧的概念,在实际的应用中,为了音频算法处理/传输的方便,一般约定俗成取2.5ms~60ms(我接触到的就是1000/25=40ms)为单位的数据量为一帧音频。这个时间被称之为“采样时间”,其长度没有特别的标准,它是根据编解码器和具体应用的需求来决定的,我们可以计算一下一帧音频帧的大小。
    假设某通道的音频信号是采样率为8kHz,位宽为16bit,40ms一帧,单通道,则一帧音频数据的大小为:
    int size = 8000 x 16bit x 0.04s x 1 = 5120bit = 640 byte

    我们采用这种方式来录音,那么我们从音频缓冲区读取音频数据的时候,要一帧一帧的读取,每个音频帧大小为640byte

     

    声道channel:单声道(mono),立体声双声道(stereo),双声道按照存储方式又分为交错和非交错模式,

    交错模式:每帧的左右声道数据依次存放

    非交错模式:一个周期内所有的左声道数据,再存放所有的右声道数据

     

    音频编码

     

    首先简单介绍一下音频数据压缩的最基本的原理:因为有冗余信息,所以可以压缩。

     

    (1) 频谱掩蔽效应: 人耳所能察觉的声音信号的频率范围为20Hz~20KHz,在这个频率范围以外的音频信号属于冗余信号。

     

    (2) 时域掩蔽效应: 当强音信号和弱音信号同时出现时,弱信号会听不到,因此,弱音信号也属于冗余信号。

     

    编码格式:(有损压缩和无损压缩)

     

    PCM:脉冲编码调制,模拟信号只经过了AD采样的原始数据,没有经过任何编码和压缩处理。音质好体积大,达到最高保真。

    G.711a/G.711u

    G.726

    G.729

    G.723

    AAC

     

    音频采集:通过codec芯片或者有的芯片内置codec,比如目前使用的海思芯片,实现AD采样,然后通过i2s传给cpu处理

     

    音频处理:回声消除、噪声抑制、增益控制

     

    Adndroid VoIP相关的开源应用有哪些 ?

     

    imsdroid,sipdroid,csipsimple,linphone,WebRTC 等等

     

    音频算法处理的开源库有哪些 ?

     

    speex、ffmpeg,webrtc audio module(NS、VAD、AECM、AGC),等等

     

     

    Android提供了哪些音频开发相关的API?

     

    音频采集:  MediaRecoder,AudioRecord

    音频播放:  SoundPool,MediaPlayer,AudioTrack (它们之间的区别可以参考这篇文章)

    音频编解码: MediaCodec

    NDK API:     OpenSL ES

     

    以下二维码为测试使用

    展开全文
  • 音频相关知识

    2020-06-04 23:59:43
    音频 指人耳可以听到的声音频率在20HZ~20kHz之间的声波,称为音频。 说出的声音 我们习惯了声音,但是并不知道声音是什么,声音其实就是声波吧,本质是一种波。声音是一种具有固定频段的波。 人的说话频率基本上为...

    音频

    指人耳可以听到的声音频率在20HZ~20kHz之间的声波,称为音频。

    说出的声音

    我们习惯了声音,但是并不知道声音是什么,声音其实就是声波吧,本质是一种波。声音是一种具有固定频段的波。
    人的说话频率基本上为300Hz-3400Hz,但是人耳朵听觉频率基本上为20Hz-20000Hz。

    传感器

    人说出的这种具有固定频段的波,经过特定传感器的采集,可以将现实世界中的波转换成模拟电信号,然后经过采样、量化、编码的处理可以将模拟电信号转换成数字电信号。
    传感器可以感受波的波动,将这种波动转变成电信号的波动,看到我们眼中的就是波形了。
    然后我们就可以用电子设备来录制和播放声音了,其实就是下面的过程:
    现实声波—(传感器)---->电信号—(电子设备)---->录制和播放现实声波

    1、采样率

    实际中,人发出的声音信号为模拟信号,想要在实际中处理必须为数字信号,即采用采样、量化、编码的处理方案。处理的第一步为采样,即模数转换。简单地说就是通过波形采样的方法记录1秒钟长度的声音,需要多少个数据。根据奈魁斯特(NYQUIST)采样定理,用两倍于一个正弦波的频繁率进行采样就能完全真实地还原该波形。所以,对于声音信号而言,要想对离散信号进行还原,必须将抽样频率定为40KHz以上。实际中,一般定为44.1KHz。44.1KHz采样率的声音就是要花费44100个数据来描述1秒钟的声音波形。原则上采样率越高,声音的质量越好,采样频率一般共分为22.05KHz、44.1KHz、48KHz三个等级。22.05 KHz只能达到FM广播的声音品质,44.1KHz则是理论上的CD音质界限,48KHz则已达到DVD音质了。

    2、码率

    对于音频信号而言,必须进行编码。在这里,编码指信源编码,即数据压缩。如果,未经过数据压缩,直接量化进行传输则被称为PCM(脉冲编码调制)。要算一个PCM音频流的码率是一件很轻松的事情,采样率值×采样大小值×声道数 bps

    一个采样率为44.1KHz,采样大小为16bit,双声道的PCM编码的WAV文件,它的数据速率则为 44.1K×16×2 =1411.2 Kbps。我们常说128K的MP3,对应的WAV的参数,就是这个1411.2 Kbps,这个参数也被称为数据带宽,它和ADSL中的带宽是一个概念。将码率除以8,就可以得到这个WAV的数据速率,即176.4KB/s。这表示存储一秒钟采样率为44.1KHz,采样大小为16bit,双声道的PCM编码的音频信号,需要176.4KB的空间,1分钟则约为10.34M,这对大部分用户是不可接受的,尤其是喜欢在电脑上听音乐的朋友,要降低磁盘占用,只有2种方法,降低采样指标或者压缩。降低采样指标是不可取的,因此专家们研发了各种压缩方案。最原始的有DPCM、ADPCM,其中最出名的为MP3。所以,采用了数据压缩以后的码率远小于原始码。

    码率就是音频文件或者音频流中1秒中的数据量,如1.44Mbps,就是1秒钟内的数据量达1.44Mbits。

    小结

    对于人类的语音信号而言,实际处理一般经过以下步骤:

    人嘴说话——>声电转换——>采样(模数转换)——>量化(将数字信号用适当的数值表示)——>编码(数据压缩)——> 传输(网络或者其他方式)——>解码(数据还原)——>反采样(数模转换)——>电声转换——>人耳听声。

    采样频率,时间,声道,量化与储存大小的关系

    采样频率44.1kHz,量化位数16位,意味着每秒采集数据44.1k个,zd每个数据占2字节,这是一个声道的数据,双声道再版乘以2,最后结果再乘以60秒,就是44.1×1000×2×2×60=10584000字节,1MB=1024×1024=1048576字节,所以一分钟权的存储容量为10584000/1048576=10.09MB,约为10.1MB。

    采样率单位是 Hz,所以 K = 1000
    在 b 和 B 等数据量单位中,K = 1024

    量化位数就是采样的一个样本被量化成了多少 bit
    算法其实就是: 一秒采多少个样本 * 一个样本多少 bit * 秒数 * 声道数 ,就得到时长为秒数的音频需要多少 bit 的存储量了

    数据量=采样频率×量化位数×声道数×时间(秒)/8(时长为时间秒的音频大小为数据量大小)
    44.1 x 1000 x 16 x 2 x 60 / 8 = 10584000B = 10.1MB(因为乘以了60秒,所以算出的是一分钟的数据大小,这段时长1分钟的音频大小为10.1M)

    采样频率×量化位数×声道数×时间(秒) 得出的结果单位是 b

    **采样频率×量化位数×声道数×时间(秒)/ 8 ** 得出的结果单位是 B

    **采样频率×量化位数×声道数×时间(秒)/ 8 / 1024 ** 得出的结果单位是 KB

    采样频率×量化位数×声道数×时间(秒)/8 / 1024 / 1024 得出的结果单位是 MB

    1MB=1024×1024=1048576B
    10584000 / 1048576 = 10.09 = 10.1

    参考:

    展开全文
  • 本课程从以下几个方面讲解: 1.详细介绍RTP协议的定义及应用 2.详细讲解如何通过wireshark分析RTP流及H264/256码流 3.详细讲解RTP对H264/265的封包模式,如何通过wireshark分析封包 4.通过代码示例讲解如何对H264...
  • Linux 声卡驱动程序

    2018-10-22 21:38:06
    3期的声卡驱动更详细,推荐。
  • 基于FPGA的SDI音频加解嵌设计[D]. 2016. 1. 概要 AES 的三个标准采样率是 32kHz、44.1kHz、48kHz,演播室应用优先选择48kHz 取样且时钟同步于视频信号的音频,本文为 48kHz 同步音频。它同时提供2 个声道的音频...

    本文参考了文献 :季小俊. 基于FPGA的SDI音频加解嵌设计[D]. 2016.

    1. 概要

    AES 的三个标准采样率是 32kHz、44.1kHz、48kHz,演播室应用优先选择48kHz 取样且时钟同步于视频信号的音频,本文为 48kHz 同步音频。它同时提供2 个声道的音频数据,量化精度多采用 20 比特或者 24 比特,不仅仅能够单独的 传输单声道或者立体音频信息,同时也能够附带时钟基准信号与相关辅助信息等。

    2. 标准

    AES 结构如下图所示。在 AES 中,音频以通道对的形式存在。一个子帧包含有 32bits 数据排列在下面的格式中。2 个子帧构成一帧,192 帧又构成一块。子帧是音频编码打包过程中最小的单位,下面具体分析子帧构成。

    子帧一共有 32 个时隙,前四个时隙 0-3 含有 3 个前置码,分别是前置码 X、

    前置码 Y 和前置码 Z。

    (1)前置码 X:表示除第一帧以外剩下帧传输的开始标志。

    (2)前置码 Y:表示一个通道对中第二个通道的子帧传输的开始标志。

    (3)前置码 Z:表示由 192 个帧组成的音频块中的第一帧传输的开始标志,每个块有且只出现一次。

             前置码的作用是识别和同步音频块、音频帧和子帧的。AES 音频是采用双相位标志编码的,而前置码则采用不同于双相位标志编码的特殊编码方式以消除出现类似前置码数据的状态。这样一来消除了相似数据代替前置码而引发数据错误打包等混乱情况。提高了数据传输的稳定性和安全性。

    4-7 bit 四个时隙包含一些外加辅助信息,24bit 量化的编码时就会用到这四位。辅助信息可以包含多方面内容,比如一些质量要求不高的额外音频通话通道。如果不予以利用的话,只需直接置 0 即可。

    8-27 bit 一共有 20 个时隙,从最低位 LSB 到最高位 MSB,这 20 位为纯音频数据,不含其它类型信息。

    28-31 bit 为最后 4 个时隙,一个包含 4 个不同的状态位。

    用户数据比特位 U:它是一种预留辅助位,使用者可以根据自身的设计要求使用此位,最大优点是可以被随意占用而不影响音频传输。该位初始默认为 0,用户也可以将自己公司信息用 U 表现出来。

    声道数据状态比特位C:AES 是可以传输单声道或者双声道音频的。就双声道而言,任意单个音频块中的子帧 1 和子帧 2 的声道状态是各不相同的。C 一般囊括的信息有:左右声道的数量,采样频率,时间编码,取样字的长度等。通常由 C 来表达通道的一些状态信息

    极性比特位 P:也被称作奇偶校验位,当音频传输中出现误码时,它会对除前置码以外所有数据进行校验,一般情况下设置成指示偶数极性,指示偶数 0或偶数 1 的位数。

    有效数据比特位 V:它是一种判断指示标志位。系统判断接收的数字音频数据能不能转换为 PCM 编码的模拟音频信号。若是可以转化则该位置 1,反之置 0。置 0 时接收端将会自动将其屏蔽。

    一个完整的子帧如下 所示。

    展开全文
  • 音频基本知识介绍

    2018-05-08 15:02:07
    音频基本知识介绍目录音频基本知识介绍 11 概述 22 I2S接口介绍 32.1 I2S简介 32.2 信号及时钟( BCLK,SCLK, MCLK, WCLK) 32.3 I2S操作模式 43 PCM接口 73.1 PCM简介 73.2 信号及时钟 83.3 数据格式 ...
    音频基本知识介绍

    目录
    音频基本知识介绍        1
    1 概述        2
    2 I2S接口介绍        3
    2.1 I2S简介        3
    2.2 信号及时钟( BCLK,SCLK, MCLK, WCLK)        3
    2.3 I2S操作模式        4
    3 PCM接口        7
    3.1 PCM简介        7
    3.2 信号及时钟        8
    3.3 数据格式        10
    4 音频中常见问题定位        12
    4.1 codec 给 voip发数据,voip接受不到        12
    4.2 其他问题待补充        12



    1 概述
    什么是立体声?
    什么是TDM模式?
    什么是短帧模式,什么是长帧模式,什么是slot?
    什么是BCLK,什么是采样频率?

    如果这些音频中的基本概念, 你都清楚, 那么这个文档就不用看了. 此文档编写的目的是针对音频入门中的基本概念的解释及介绍.


    数字音频接口 DAI,即Digital Audio Interfaces.传统的音频信号链路如下图所示:

                                                    图1 传统的音频信号链路
    在传统的音频电路(图1)中有麦克风、前置放大器、模/数转换器ADC、数/模转换器DAC、输出放大器,以及扬声器,它们之间使用模拟信号连接。随着技术的发展和对性能考虑,模拟电路逐渐被推到链路的两端(集成到设备内部),信号链中各集成电路间将出现更多的数字接口形式。DSP通常都是数字接口的;换能器(、放大器一般而言只有模拟接口,但现在也正在逐渐集成数字接口功能。目前,集成电路设计人员正在将换能器内的ADC、DAC和调制器集成到信号链一端,这样就不必在PCB上走任何模拟音频信号,并且减少了信号链中的器件数量。

    回到开始提的问题, 什么是立体声?
    立体声就是前端有多个音频采集设备,从多个角度采集音频数据, 将数据放到不通的通道上.例如采集是8KHz(每秒采集8000个点), 位宽16bit(每个点用16个bit位量化), 假设有三个通道,那我们每秒需要传输的bit数据为 8K * 16 * 3 bit. 这个数据就是我们的BCLK, 8K可以理解为FS,选择哪个声道的数据.这三个声道采集的数据就是立体声了.下文会对时钟及数据格式做更进一步的阐述.


    2 I2S接口介绍
    2.1 I2S简介
    I2S全称Inter-IC Sound, Integrated Interchip Sound,或简写IIS,是飞利浦在1986年定义(1996年修订)的数字音频传输标准,用数字音频数据在系统内部器件之间传输,例如编解码器CODEC、DSP、数字输入/输出接口、ADC、DAC和数字滤波器等。I2S是比较简单的数字接口协议,没有地址或设备选择机制。在I2S总线上,只能同时存在一个主设备和发送设备。主设备可以是发送设备,也可以是接收设备,或是协调发送设备和接收设备的其它控制设备。在I2S系统中,提供时钟(SCK和WS)的设备为主设备。图2是常见的I2S系统框图。在高端应用中,CODEC经常作为I2S的主控设备以精确控制I2S的数据流

    图2 常见I2S系统框图
    I2S包括两个声道(Left/Right)的数据,在主设备发出声道选择/字选择(WS)控制下进行左右声道数据切换。通过增加I2S接口的数目或其它I2S设备可以实现多声道(Multi-Channels)应用
            2.2 信号及时钟( BCLK,SCLK, MCLK, WCLK)
    在I2S传输协议中,数据信号、时钟信号以及控制信号是分开传输的。I2S协议只定义三根信号线:时钟信号SCLK、数据信号SD和左右声道选择信号WS。
    •        时钟信号 Serial Clock
    SCLK是模块内的同步信号,从模式时由外部提供,主模式时由模块内部自己产生。不同厂家的芯片型号,时钟信号叫法可能不同,也可能称BCLK/Bit Clock或SCL/Serial Clock
    •        数据信号 Serial Data
    SD是串行数据,在I2S中以二进制补码的形式在数据线上传输。在WS变化后的第一个SCK脉冲,先传输最高位(MSB,Most Significant Bit)。先传送MSB是因为发送设备和接收设备的字长可能不同,当系统字长比数据发送端字长长的时候,数据传输就会出现截断的现象/Truncated,即如果数据接收端接收的数据位比它规定的字长长的话,那么规定字长最低位(LSB: Least Significant Bit)以后的所有位将会被忽略。如果接收的字长比它规定的字长短,那么空余出来的位将会以0填补。通过这种方式可以使音频信号的最高有效位得到传输,从而保证最好的听觉效果。
    √ 根据输入或输出特性,不同芯片上的SD也可能称SDATA、SDIN、SDOUT、DACDAT、ADCDAT等;
    √ 数据发送既可以同步于SCK的上升沿,也可以是下降沿,但接收设备在SCK的上升沿采样,发送数据时序需考虑
    •        左右声道选择信号 Word Select
    WS是声道选择信号,表明数据发送端所选择的声道。当:
    √ WS=0,表示选择左声道
    √ WS=1,表示选择右声道
    WS也称帧时钟,即LRCLK/Left Right Clock。WS频率等于声音的采样率。WS既可以在SCK的上升沿,也可以在SCK的下降沿变化。从设备在SCK的上升沿采样WS信号。数据信号MSB在WS改变后的第二个时钟(SCK)上升沿有效(即延迟一个SCK),这样可以让从设备有足够的时间以存储当前接收的数据,并准备好接收下一组数据。
            Master Clock
    在I2S/PCM接口的ADC/DAC系统中,除了SCK和WS外,CODEC经常还需要控制器提供MCLK(Master Clock),这是由CODEC内部基于Delta-Sigma (Δ∑)的架构设计要求使然。MCLK时钟频率一般为256*WS,具体参考特定器件手册。
    Delta-Sigma (Δ∑)的架构设是什么?

            2.3 I2S操作模式
    根据SD相对于SCK和WS位置的不同,I2S分为三种不同的操作模式,分别为标准I2S模式、左对齐模式和右对齐模式:
    •        I2 Phillips Standard  I2S格式
    •        Left Justified Standard 左对齐格式
    •        Right Justified Standard右对齐格式

    I2S模式属于左对齐中的一种特例,也叫PHILIPS模式,是由标准左对齐格式再延迟一个时钟位变化来的。时序如图3所示,左声道的数据MSB在WS下降沿之后第二个SCK/BCLK上升沿有效,右声道数据的MSB在WS上升沿之后第二个SCK/BCLK上升沿有效。


    图3 I2S PHILIPS模式

    标准左对齐较少使用,图4为左对齐时序图,和PHILIPS格式(图3)对比可以看出,标准左对齐格式的数据的MSB没有相对于BCLK延迟一个时钟。左对齐格式的左声道的数据MSB在WS上升沿之后SCK/BCLK的第一个上升沿有效;右声道的数据MSB在WS下降沿之后SCK/BCLK第一个上升沿有效。标准左对齐格式的优点在于,由于在WS变化后的第一个SCK上升沿就开始采样,它不需要关心左右声道数据的字长,只要WS的时钟周期足够长,左对齐的方式支持16-32bit字长格式。

    图4左对齐操作模式
    标准右对齐也叫日本格式,EIAJ (Electronic Industries Association of Japan) 或SONY格式,图5为右对齐时序图。右对齐格式左声道的数据LSB在WS下降沿的前一个SCK/BCLK上升沿有效,右声道的数据LSB在WS上升沿的前一个SCK/BCLK上升沿有效。相比于标准左对齐格式,标准右对齐的不足在于接收设备必须事先知道待传数据的字长。这也解释了为什么许多CODEC都会提供多种右对齐格式选择功能。

    图5 左对齐操作模式
    SCLK的计算:
    采样频率为8K Hz,声道选择信号也必须为8K Hz,声道的量化深度为16bit,则:SCK = 8K * 2 * 16.SCLK又称BCLK即每一个bit位都需要一个时钟.


    3 PCM接口
            3.1 PCM简介
    PCM(Pulse Code Modulation) 是通过等时间隔(即采样率时钟周期)采样将模拟信号数字化的方法。图6为4 bit 采样深度的PCM数据量化示意图。

    图6 4-bit PCM的采样量化
    PCM数字音频接口,即说明接口上传输的音频数据通过PCM方式采样得到的。在音频领域,PCM接口常用于板级音频数字信号的传输,与I2S相似。PCM和I2S的区别于数据相对于帧时钟(FSYNC/WS)的位置、时钟的极性和帧的长度。其实,I2S上传输的也是PCM类型的数据,因此可以说I2S不过PCM接口的特例。相比于I2S接口,PCM接口应用更加灵活。通过时分复用(TDM,Time Division Multiplexing)方式,PCM接口支持同时传输多达N个(N>8)声道的数据,减少了管脚数目(实际上是减少I2S的“组”数,因为每组I2S只能传输两声道数据嘛)。TDM不像I2S有统一的标准,不同的IC厂商在应用TDM时可能略有差异,这些差异表现在时钟的极性、声道配置触发条件和对闲置声道的处理等。一般在应用PCM音频接口传输单声道数据(如麦克风)时,其接口名称为PCM;双声道经常使用I2S;而TDM则表示传输两个及以上声道的数据,同时区别于I2S特定的格式。
            3.2 信号及时钟
    PCM接口与I2S相似,电路信号包括:
    •        PCM_CLK  数据时钟信号
    •        PCM_SYNC 帧同步时钟信号
    •        PCM_IN   接收数据信号
    •        PCM_OUT  发送数据信号
    根据有效数据相对帧同步时钟FSYNC的位置,TDM分两种基本模式:
    •        Mode A: 数据在FSYNC有效后,BCLK的第2个上升沿有效(图7)
    •        Mode B: 数据在FSYNC有效后,BCLK的第1个上升沿有效(图8)

    图7 TDM Mode A

    图8 TDM Mode B
    •        长帧同步 Long Frame Sync
    •        短帧同步 Short Frame Sync
    长帧同步,短帧同步时序模式如下图9和图10所示。

    注:
    a. 长帧同步,如图9所示,FSYNC脉冲宽度等于1个Slot的长度。Slot在TDM中表示的是传输单个声道所占用的位数。如图9所示TI McASP接口的TDM包括6个Slots,即它最多可包括6声道数据。注意,slot的位数并不一定等于音频的量化深度。比如Slot可能为32 bit,其中包括24 bit有效数据位(Audio Word) + 8 bit零填充(Zero Padding)。不同厂商对slot叫法可能有所区别,比如Circus Logic称之为Channel Block;

    图9 长帧同步模式
    b. 短帧同步,FSYNC脉冲宽度等于1个BCLK周期长度;

    图10 短帧同步模式
    c. 由于没有统一标准,不同厂商对FSYNC脉冲宽度及触发边沿的设置可能不同,以器件手册为准。
            3.3 数据格式
    在PCM/TDM传输的数据帧(Slots)中,可能还包括音频数据之外的信息。比如在CSR BC06器件Datasheet说明,其设置为16 bit Slot字长时,3或8 bit未使用bit可以用作标签位(Sign Extension)、零填充(Zeros Padding)或是兼容Motorola编解码器的3 bit音频衰减值,如图11所示。

    图11. 16-bit位采样字格式


    4 音频中常见问题定位
    4.1 codec 给 voip发数据,voip接受不到
    Pcm数据发送的时候, SYNC信号过后, 第几个BCLK开始为有效数据很重要,接收端要精确匹配才能收到数据.
    例如, codec 端pcm 数据移了一位, 那接收数据端就要跟着移一位或者两位. 具体移几位要看发送端的TDM模式了,见3.2 节 TDM的两张基本模式

    4.2 其他问题待补充
    展开全文
  • 离线播放:这里并不是指应用不联网,而是指播放本地音频文件,包括先下完完成音频文件再进行播放的情况,这种使用AVFoundation里的AVAudioPlayer可以满足 在线播放:使用AVFoundation的AVPlayer可以满足 在线播放...
  • 音色与声谱图

    2018-07-30 11:24:46
    泛音的种类和多少决定了音色 为什么有的人声音听起来暗,有的人听起来亮?事实上即使是唱同一个音高,大家的音色也天差地别,差别就在泛音上了。 一般来说 1. 泛音越充分的声音越饱满。 ...2. 低频泛音越充分的声音...
  • 版权声明:本文为原创文章,未经允许不得转载 ... ...前言 基础知识点 音频的使用场景 音频开发的具体内容 难点 音频编码 1 概念 2 有损和无损 PCM - 脉冲编码调制 1 抽样 - 采样频率 2 量化 3 编码
  • 本文分别介绍如下几个PCM音频采样数据处理函数:  分离PCM16LE双声道音频采样数据的左声道和右声道  将PCM16LE双声道音频采样数据中左声道的音量降一半  将PCM16LE双声道音频采样数据的声音速度提高一倍  将PCM1
  • 一直想把视音频编解码技术做一个简单的总结,可是苦于时间不充裕,一直没能完成。今天有着很大的空闲,终于可以总结一个有关视音频技术的入门教程,可以方便更多的人学习从零开始学习视音频技术。需要注意的是,本文...
  • 以下当前较为常用的几种音频传输格式和支持厂商。下面按照编码的码率由低到高列举。SBC (Sub-band coding,子带编码)最早的格式应该是SBC,SBC是A2DP(Advanced Audio Distribution Profile,蓝牙音频传输协议)...
  • 在CSDN上的这一段日子,接触到了很多同行业的人,尤其是使用FFMPEG进行视音频编解码的人,有的已经是有多年经验的“大神”,有的是刚开始学习的初学者。在和大家探讨的过程中,我忽然发现了一个问题:在“大神”和...
  • 前两篇文章介绍的YUV/RGB处理程序以及PCM处理程序都属于视音频原始数据的处理程序。从本文开始介绍视音频码流的处理程序。本文介绍的程序是视频码流处理程序。视频码流在视频播放器中的位置如下所示。本文中的程序是...
  • FFMPEG工程浩大,可以参考的书籍又不是很多,因此很多刚...该播放器虽然简单,但是几乎包含了使用FFMPEG播放一个音频所有必备的API,并且使用SDL输出解码出来的音频。 并且支持流媒体等多种音频输入。 程序使用了新的F
  • 本文继续上一篇文章的内容,介绍一个音频码流处理程序。音频码流在视频播放器中的位置如下所示。本文中的程序是一个AAC码流解析程序。该程序可以从AAC码流中分析得到它的基本单元ADTS frame,并且可以简单解析ADTS ...
  • 采用FFmpeg从视频中提取音频(声音)保存为mp3文件 作者:雨水,日期:2016年1月9日 CSDN博客:http://blog.csdn.net/gobitan 摘要:看到好的视频文件,如果想把其中的音频(声音)提取出来。网络上肯定有不少类似工具...
  • 比如如何从视频中分离音频(保存为mp3文件),然后分离出来的音频如何单声道和双声道互转,还有就是如果把两个音频文件合并为一个音频文件(音频混音),以及如何调节音频的原始大小。那这些功能的运用场景做哪里呢...
  • 自动提取字幕的功能,在国外视频网站Youtube和社交巨头Facebook都已经上线多年,但国内各类视频和音频站都没有类似的功能,所有花了点时间调研了一下subtitle的自动提取功能:1. 开源语音识别库,比如Kaldi: 没有...
1 2 3 4 5 ... 20
收藏数 309,398
精华内容 123,759
关键字:

音频