Android音视频视频混音

Posted 顾修忠

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Android音视频视频混音相关的知识,希望对你有一定的参考价值。

人间观察

其实人这一辈子 真的遇不到几个真心对你好爱你的人 如果有幸能牵手 那就别并肩 好好的 别老是冷冰冰 说反话

简介

短视频的编辑功能有很多,比如:添加背景音乐,剪切,拼接视频/音频,特效,贴纸等等。
本文介绍为MP4视频增加背景音乐(或者控制视频原始的音量大小),其中涉及到音视频的解码,视频和音频的指定时长的提取,音频视频的分离,混合视频音频生成mp4,音频混音,音量调节以及一些音频处理细节和注意的地方等技术。采用的是android的硬编解码MediaCodec+ MediaExtractor+ MediaMuxer。

效果图

处理方案/原理

如图所示如果我们想要把原始的mp4视频增加背景音。我们需要如下几个步骤。

  1. 选择音频轨道进行解码提取音频,借助于MediaExtractorMediaCodec,然后将解码后的pcm保存到临时文件video.pcm
  2. 解码背景音的mp3文件,借助于MediaCodec,然后将解码后的pcm保存到临时文件bgm.pcm
  3. 核心的一步pcm数据的处理,比如混音等,后文详细介绍。然后混音后的pcm保存到临时文件mix.pcm
  4. 混音后的pcm转wav,主要是加入音频的信息(采样频率,采样位数,声道数)在文件头中加入42byte的wav的头信息
  5. 将wav编码为aac音频并写入文件中。借助于MediaCodecMediaMuxer混合生成器
  6. 将原始视频的中的视频写入到文件,借助于MediaMuxerMediaExtractor

第1,2步的解码这里不多介绍了可以参考之前的文章。第4步pcm转为wav也可以参考之前文章。第5,6步主要是MediaMuxer后文介绍下。主要是第2步重点介绍下。

混音

混音本质就是对数据的处理。

PCM数据描述

我们先回顾下pcm的描述,也可以看下之前的音频基础那篇文章的介绍。我们这里说下采样位数。

采样位数:表示每个采样点用多少比特表示。常用的量化位数有8位、16位和32位。比如采样位数为8bit时,每个采样点可以表示256个不同的采样值,当采样位数为16bit时,每个采样点可以表示65536个不同的采样值。采样位数的大小影响声音的质量,采样位数越多,量化后的波形越接近原始波形,声音的质量越高,需要的存储空间就越大,反之同理。一般情况下,采样位数是16bit,就像mp3的cd音质,你听起来也没那么失真。

采样点数据有符号和无符号之分,比如:8bit的样本数据,有符号的是[-128 , 127],无符号的是[0,255 ]。16bit的样本数据,有符号的是 [-32768 , 32767],无符号的是[0, 65535]. 大多数pcm样本数据使用整形表示,对于一些高精度的场景使用float 浮点型表示。对于我们平时看到的听到的音视频都是整形。

PCM的数据存储方式

如果是单声道音频,采样数据按照时间的先后顺序依次存储,如果是双声道音频,则按照LRLRLRLR方式存储,每个采样点的存储方式还与大小端有关。大端如下:

另外MediaCodec解码出来的pcm是按照LRLRLRLR方式存储,但是FFmpeg解码出来的pcm存储格式很丰富(等后续学习FFmpeg时了解)。

此外即使同样是signed 16 bits 有符号,也存在packed和planar的区别。对于双声道音频来说,packed表示两个声道的数据交错存储,也就是LRLRLRLR的方式存储;planar表示两个声道的数据分开存储,也就是LLLLRRRR的方式存储。

可以看到通过MediaCodec解码出来的pcm是按照packed的方式存储的,而FFmpeg可以是任何一种。所以为了统一化处理,需要进行重采样,比如你可以采用:每个采样点按照2个字节的有符号的short类型,并且按照planar的方式存储。

重采样:
对pcm数据进行重新采样,可以改变它的声道数,采样率和采样格式。比如:原先的pcm音频数据是2个声道,44100采样率,32 bit单精度型,可以重采样为:2个声道,44100采样率,有符号short类型

本文的demo的视频和音频文件是按照采样率是44100hz, 双声道 ,16位。使用的是MediaCodec解码的音频,所以为packed类型。

混音数据处理过程

  • 所以基于以上的pcm数据的存储格式的原理,就可以进行处理了。
    用2个buffer缓存区来保存从文件读到的之前解码后的视频的pcm数据记为buffer1,另外一个为背景音乐的记为buffer2.混合后的记为buffer3.

也就是buffer1和buffer2 分别把连续的2个byte转为short,前一个字节放在低八位后面的字节放在高八位。也就是:

short temp1 = (short) ((buffer1[i] & 0xff) | (buffer1[i + 1] & 0xff) << 8);
short temp2 = (short) ((buffer2[i] & 0xff) | (buffer2[i + 1] & 0xff) << 8);
  • 然后把2个short的值相加就得到了混音的值,在相加的过程中我们可以给temp1或者temp2分别乘以一个系数就可以达到控制各自音量(原始视频和背景音乐的音量)的目的。想一想是吧!这样我们就可以调节各自音量了。系数我们也要非常注意!,注意数据的精度丢失。所以为:
// videoVolume和 bgAudioVolume取值0-100
 val volume1: Float = videoVolume * 1.0f / 100
 val volume2: Float = bgAudioVolume * 1.0f / 100
 temp = (int) (temp1 * volume1 + temp2 * volume2);

temp就是混音后的值。但是还有一点是2个short类型的数字相加得到的结果有可能超过short的范围[-32768 , 32767] ,所以需要控制一下最大最小值:

    if (temp > 32767) 
        temp = 32767;
     else if (temp < -32768) 
        temp = -32768;
    
  • 最后还原数据,我们得到了混音后的数据为int型的,我们还得把它铺开转为byte类型
buffer3[i] = (byte) (temp & 0x00ff); // 低8位
buffer3[i + 1] = (byte) ((temp & 0xFF00) >> 8 ); // 高8位

最后混音的关键代码(kotlin版)如下:

private fun mixPcm(
    pcm1: String,
    pcm2: String,
    mixPcm: String,
    videoVolume: Int,
    bgAudioVolume: Int
) 
    val volume1: Float = videoVolume * 1.0f / 100
    val volume2: Float = bgAudioVolume * 1.0f / 100
    val buffSize = 2048
    val buffer1 = ByteArray(buffSize)
    val buffer2 = ByteArray(buffSize)
    val buffer3 = ByteArray(buffSize)
    val fis1 = FileInputStream(pcm1)
    val fis2 = FileInputStream(pcm2)
    val fosMix = FileOutputStream(mixPcm)
    var isEnd1 = false
    var isEnd2 = false
    var temp1: Short
    var temp2: Short
    var temp: Int
    var ret1 = -1
    var ret2 = -1
    while (!isEnd1 || !isEnd2) 
        if (!isEnd1) 
            ret1 = fis1.read(buffer1)
            isEnd1 = ret1 == -1
        
        if (!isEnd2) 
            ret2 = fis2.read(buffer2)
            isEnd2 = ret2 == -1
            for (i in buffer2.indices step 2) 
                // java 版本清楚些
#                 // temp1 = (short) ((buffer1[i] & 0xff) | (buffer1[i + 1] & 0xff) << 8);
                // temp2 = (short) ((buffer2[i] & 0xff) | (buffer2[i + 1] & 0xff) << 8);

//                    temp1 = PcmToWavUtil.to(buffer1[i], buffer1[i + 1])
//                    temp2 = PcmToWavUtil.to(buffer2[i], buffer2[i + 1])

                temp1 =
                    ((buffer1[i].toInt() and 0xff) or ((buffer1[i + 1].toInt() and 0xff) shl 8)).toShort()

                temp2 =
                    ((buffer2[i].toInt() and 0xff) or ((buffer2[i + 1].toInt() and 0xff) shl 8)).toShort()

                // 两个short变量相加 会大于short
                temp = (temp1 * volume1 + temp2 * volume2).toInt()
                // short类型的取值范围[-32768 ~ 32767]
                if (temp > 32767) 
                    temp = 32767
                 else if (temp < -32768) 
                    temp = -32768
                

                // java 版本清楚些
                // buffer3[i] = (byte) (temp & 0x00ff);
                // buffer3[i + 1] = (byte) ((temp & 0xFF00) >> 8 );

                // 低八位 高八位 低八位 高八位 。。。
                buffer3[i] = (temp and 0x00ff).toByte()
                buffer3[i + 1] = (temp and 0xff00).shr(8).toByte()
            
            fosMix.write(buffer3)
        
    
    fis1.close()
    fis2.close()
    fosMix.flush()
    fosMix.close()
    Log.d(TAG, "mixPcm:$mixPcm")

注意事项:
kotlin中,位运算只能是Int 和 Long类型,所以大部分我们都需要通过toInt()或者toLong()方法转为Int或Long类型。比如

(buffer1[i].toInt() and 0xff)

语法糖有时候真的很坑,还不好理解。

关于性能

个人感觉MediaCodec 单纯解码音频的解码速度比较慢,视频还不错。FFmpeg对于从视频中提取PCM较快(网上所说),等后续用FFmpeg的时候看下。

混合器MediaMuxer

在Android中我们可以使用MediaMuxer来封装编码后的视频流和音频流到mp4容器中。它仅支持一个视频轨道(track)和一个音频轨道(track)。
如果你有多个音频轨道,那么需要把多个音频轨道合为一个音频轨道一起再使用MediaMuxer。也就是为什么要混音了。

  • 创建。指定输出视频的格式和文件目录。
val mediaMuxer = MediaMuxer(output, MediaMuxer.OutputFormat.MUXER_OUTPUT_MPEG_4)
  • 添加轨道信息。
    创建MediaMuxer对象之后,一个比较重要的操作就是addTrack(MediaFormat format),添加媒体通道,该函数需要传入MediaFormat对象,通常从MediaExtractor或者MediaCodec中获取,比如
val videoFormat = mediaExtractor.getTrackFormat(videoIndex)
val muxerVideoTrackIndex = mediaMuxer.addTrack(videoFormat)
        
val audioFormat = mediaExtractor.getTrackFormat(audioIndex)
val muxerAudioIndex = mediaMuxer.addTrack(audioFormat)
  • 启动。 添加完所有track后调用start方法
 mediaMuxer.start()
  • 写入音视频数据
 public void writeSampleData(int trackIndex, @NonNull ByteBuffer byteBuf,
            @NonNull BufferInfo bufferInfo) ;

trackIndex 视频轨道还是音频轨道
byteBuf 为数据
bufferInfo 为数据的信息。

// bufferInfo属性
info.size  数据的大小
info.flags  是否为关键帧
info.presentationTimeUs  PTS 时间戳,注意单位是 us
  • 停止写入stop和释放release
mediaMuxer.stop()
mediaMuxer.release()

源码

https://github.com/ta893115871/VideoBGAdd

文章中的源码采用kotlin,主要是自己学习下,因为工作中用不到。
用到的mp4,mp3为网络上下载,只为学习使用,如有侵权将删除。

结尾

本文介绍了视频编辑功能的混音功能。涉及的知识点也不少,比如:pcm的数据格式,音频的mp3硬解为pcm,音频的硬编码为aac,在视频如何提取指定时长的视频和音频,如何把音频和视频混合为mp4,以及对数据的位运算等等。
其实主要是原理以及如何灵活的运用。

以上是关于Android音视频视频混音的主要内容,如果未能解决你的问题,请参考以下文章

Android音视频视频混音

Android音视频视频混音

AVPlayer 播放单声道音频立体声->单声道

Premiere cc 2019之声音处理

视频混音器api?

Android 深入系统完全讲解(28)