加入收藏 | 设为首页 | 会员中心 | 我要投稿 应用网_阳江站长网 (https://www.0662zz.com/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 综合聚焦 > 移动互联 > 应用 > 正文

无线音频延迟模型及经典蓝牙音频延迟分析(HFP&A2DP)

发布时间:2022-10-13 14:52:46 所属栏目:应用 来源:
导读:  无线音频延迟模型

  首先需要明确的是无线音频延迟并不是指通过无线电波传播音频信号所花的时间,事实上无线电波传播时间在无线音频延迟中可以忽略不计。无线电波以光速传输,传输10米距离所花的时间=10/(
  无线音频延迟模型
 
  首先需要明确的是无线音频延迟并不是指通过无线电波传播音频信号所花的时间,事实上无线电波传播时间在无线音频延迟中可以忽略不计。无线电波以光速传输,传输10米距离所花的时间=10/(3*10^8)=0.033?s=33ns, 完全可以忽略不计。
 
  无线音频延迟主要由数字音频编码器的特性以及为了确保在干扰环境条件下传输的服务质量(QoS)而引入的传输冗余决定的。
 
  无线音频传输及延迟模型如下图所示,整体的无线音频延迟是指模拟音频信号输入无线发射器至模拟音频信号输出无线接收器之间的时间差。

  显示了无线音频延迟由编码延迟、传输延迟和解码延迟三部份构成。分别说明如下:
 
  编码延迟
 
  首先,模拟音频信号会被采样。基于心理声学模型的感知编码需要编码器分析连续的多个采样样本以识别可压缩的机会,基本原理为基于心理声学中确定的人耳听觉特性(例如幅度掩蔽效应及频率掩蔽效应)对于PCM样本中实际存在但人耳无法感知的音频信号不分配信息比特以得到压缩单位时间内比特数的目的。感知编码的以上特性意味着编码器需要收集足够的连续声音样本以应用心理声学模型。每一个连续声音样本被称为帧,声音样本持续时间被称为帧时长。不同的编码技术采用不同的帧时长。帧时长需要适合编码器本身的技术特性以及数字音频应用场景的要求。如果帧时长过短则有限的样本数量会降低编码器的压缩效率,过长则延迟增加从而影响用户体验。另外帧时长太长也会增加编码器的复杂程度从而增加功耗。实际编码器中的帧时长是在编码器效率、延迟和功耗之间权衡的结果。为了同时满足语音及音乐应用的需要,行业内找到了一个最佳的帧时长 – 10毫秒(1毫秒=1ms=0.001秒)。编码用时通常为数毫秒,取决于编码算法及编码处理器的计算效率。帧时长和编码用时共同构成编码延迟。
 
  传输延迟
 
  经过编码后的数字音频流通过一定的无线通讯技术进行传输,按特定的封包格式形成数据包,再通过一定的调制方式将数据包搬移到射频载波上进行无线传输。如前所述无线传输本身用时极短,但由于现实无线传输环境中存在干扰音频应用,为了提高传输的服务质量(QoS)通常需要对相同的数据封包在一定时间内重复传输,从而造成传输延迟。传输延迟通常为数毫秒到几十毫秒之间,取决于对服务质量(QoS)及数据可靠性的要求。
 
  解码延迟
 
  最后是由解码器解码数字音频流所花的时间产生的延迟,解码延迟通常较编码延迟短,且没有编码器中的帧时长产生的延迟,因为解码器会将输出的帧自动进行扩展以形成连续的比特流以用于音频数字/模拟信号转换。解码延迟通常为数毫秒。
 
  经典蓝牙音频延迟
 
  经典蓝牙音频是指基于经典蓝牙(BR/EDR)核心规范实现的音频传输应用,包括两个蓝牙应用层规范: 用于通话语音的免提应用-HFP (Hands-Free Profile)及用于音频流媒体传输的高级音频传输应用-A2DP (Advanced Audio Distribution Profile)。
 
  HFP
 
  HFP规范强制支持CVSD(连续可变斜率增量调制)编码,CVSD是一种延迟很低的编码格式,广泛应用于通话语音传输中。CVSD是最早的一批数字音频编码格式,诞生于1970年代。CVSD采样连续时域信号间的变化,并对相邻的时域模拟音频信号间的变化增量直接进行编码,与感知编码中需要累积一定帧时长才进行编码不同,CVSD无帧时长产生的延迟;但缺点是数字音频比特率较高,在比特率限制条件下仅能提供窄带音质(最高声音频率为3.4kHz)。采用CVSD编码的延迟低于20毫秒。
 
  HFP v1.6版本引入了修改版子带编码mSBC以支持宽带音质(最高声音频率为7kHz),mSBC是对A2DP中采用的SBC编解码器的修改版。mSBC采用16kHz采样频率,用于单声道语音编码。作为一种感知编码mSBC基于采样样本帧,因而其延迟比CVSD高,通常为30毫秒左右。
 
  经典蓝牙音频HFP的延迟完全能满足通话语音传输的需要。
 
  A2DP
 
  与HFP不同,A2DP设计用于数字音频流传输,包括音乐、视频等各种包含音频的流媒体。A2DP强制支持SBC(子带编码)编解码器,SBC是一种基于心理声学效应的感知编解码器,诞生于1990年代。SBC可提供较好的音频质量,作为一种压缩编码人耳几乎不能察觉其与未压缩编码间的差异。
 
  A2DP中的数字音频编解码器产生高延迟的原因一方面是由于编码帧时长本身造成的延迟,另一方面是由于为了提高音频传输可靠性而采用的重复传输机制产生的传输延迟。经典蓝牙A2DP应用的音频延迟通常为100~200ms(取决于SBC编码参数),在纯音频应用(例如音乐播放)中延迟对用户体验没有影响,但在在音视频多媒体应用中延迟可能会影响用户体验,为了解决音视频同步的问题A2DP规范及其底层规范AVDTP中引入了延迟报告(Delay Reporting)功能,由音频接收设备将其延迟值报告给播放设备以实现音视频同步。
 
  A2DP规范也允许同时支持其他可选编解码器,例如AAC, MP3,aptX等。A2DP支持的这些数字音频编解码器都会产生比HFP高得多的音频延迟。
 
  经典蓝牙音频A2DP的延迟基本能满足大部份应用场景的需要,在对延迟要求较高的应用中(例如游戏)需要采用低延迟的音频编解码器, 例如高通的aptX Low Latency音频编解码器,延迟为40ms左右。A2DP允许使用自定义的私有音频编解码器,但需要音频源(Source)和音频播放端(Sink)同时都支持才能实现基于私有音频编解码器的音频流传输。
 
  普通人对于80ms以下的声音延迟是没有知觉的; 经过听力专门训练的人员(例如专业电竞人员)可识别50ms左右的延迟; 几乎没有人能识别35ms以下声音延迟。
 

(编辑:应用网_阳江站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!