Android中MediaMuxer和MediaCodec用例
在Android的多媒体类中,MediaMuxer和MediaCodec算是比较年轻的,它们是JB 4.1和JB 4.3才引入的。前者用于将音频和视频进行混合生成多媒体文件。缺点是目前只能支持一个audio track和一个video track,而且仅支持mp4输出。不过既然是新生事物,相信之后的版本应该会有大的改进。MediaCodec用于将音视频进行压缩编码,它有个比较牛X的地方是可以对Surface内容进行编码,如KK 4.4中屏幕录像功能就是用它实现的。
注意它们和其它一些多媒体相关类的关系和区别:MediaExtractor用于音视频分路,和MediaMuxer正好是反过程。MediaFormat用于描述多媒体数据的格式。MediaRecorder用于录像+压缩编码,生成编码好的文件如mp4, 3gpp,视频主要是用于录制Camera preview。MediaPlayer用于播放压缩编码后的音视频文件。AudioRecord用于录制PCM数据。AudioTrack用于播放PCM数据。PCM即原始音频采样数据,可以用如vlc播放器播放。当然了,通道采样率之类的要自己设,因为原始采样数据是没有文件头的,如:
vlc --demux=rawaud --rawaud-channels 2 --rawaud-samplerate 44100 audio.pcm
回到MediaMuxer和MediaCodec这两个类,它们的参考文档见http://developer.android.com/reference/android/media/MediaMuxer.html和http://developer.android.com/reference/android/media/MediaCodec.html,里边有使用的框架。这个组合可以实现很多功能,比如音视频文件的编辑(结合MediaExtractor),用OpenGL绘制Surface并生成mp4文件,屏幕录像以及类似Camera app里的录像功能(虽然这个用MediaRecorder更合适)等。
这里以一个很无聊的功能为例,就是在一个Surface上画图编码生成视频,同时用MIC录音编码生成音频,然后将音视频混合生成mp4文件。程序本身没什么用,但是示例了MediaMuxer和MediaCodec的基本用法。本程序主要是基于两个测试程序:一个是Grafika中的SoftInputSurfaceActivity和HWEncoderExperiments。它们一个是生成视频,一个生成音频,这里把它们结合一下,同时生成音频和视频。基本框架和流程如下:
首先是录音线程,主要参考HWEncoderExperiments。通过AudioRecord类接收来自麦克风的采样数据,然后丢给Encoder准备编码:
AudioRecord audio_recorder; audio_recorder = new AudioRecord(MediaRecorder.AudioSource.MIC, SAMPLE_RATE, CHANNEL_CONFIG, AUDIO_FORMAT, buffer_size); // ... audio_recorder.startRecording(); while (is_recording) { byte[] this_buffer = new byte[frame_buffer_size]; read_result = audio_recorder.read(this_buffer, 0, frame_buffer_size); // read audio raw data // … presentationTimeStamp = System.nanoTime() / 1000; audioEncoder.offerAudioEncoder(this_buffer.clone(), presentationTimeStamp); // feed to audio encoder }
这里也可以设置AudioRecord的回调(通过setRecordPositionUpdateListener())来触发音频数据的读取。offerAudioEncoder()里主要是把audio采样数据送入音频MediaCodec的InputBuffer进行编码:
ByteBuffer[] inputBuffers = mAudioEncoder.getInputBuffers(); int inputBufferIndex = mAudioEncoder.dequeueInputBuffer(-1); if (inputBufferIndex >= 0) { ByteBuffer inputBuffer = inputBuffers[inputBufferIndex]; inputBuffer.clear(); inputBuffer.put(this_buffer); ... mAudioEncoder.queueInputBuffer(inputBufferIndex, 0, this_buffer.length, presentationTimeStamp, 0); }
下面,参考Grafika-SoftInputSurfaceActivity,并加入音频处理。主循环大体分四部分:
try { // Part 1 prepareEncoder(outputFile); ... // Part 2 for (int i = 0; i < NUM_FRAMES; i++) { generateFrame(i); drainVideoEncoder(false); drainAudioEncoder(false); } // Part 3 ... drainVideoEncoder(true); drainAudioEncoder(true); } catch (IOException ioe) { throw new RuntimeException(ioe); } finally { // Part 4 releaseEncoder(); }
第1部分是准备工作,除了video的MediaCodec,这里还初始化了audio的MediaCodec:
MediaFormat audioFormat = new MediaFormat(); audioFormat.setInteger(MediaFormat.KEY_SAMPLE_RATE, 44100); audioFormat.setInteger(MediaFormat.KEY_CHANNEL_COUNT, 1); ... mAudioEncoder = MediaCodec.createEncoderByType(AUDIO_MIME_TYPE); mAudioEncoder.configure(audioFormat, null, null, MediaCodec.CONFIGURE_FLAG_ENCODE); mAudioEncoder.start();
第2部分进入主循环,app在Surface上直接绘图,由于这个Surface是从MediaCodec中用createInputSurface()申请来的,所以画完后不用显式用queueInputBuffer()交给Encoder。drainVideoEncoder()和drainAudioEncoder()分别将编码好的音视频从buffer中拿出来(通过dequeueOutputBuffer()),然后交由MediaMuxer进行混合(通过writeSampleData())。注意音视频通过PTS(Presentation time stamp,决定了某一帧的音视频数据何时显示或播放)来同步,音频的time stamp需在AudioRecord从MIC采集到数据时获取并放到相应的bufferInfo中,视频由于是在Surface上画,因此直接用dequeueOutputBuffer()出来的bufferInfo中的就行,最后将编码好的数据送去MediaMuxer进行多路混合。
注意这里Muxer要等把audio track和video track都加入了再开始。MediaCodec在一开始调用dequeueOutputBuffer()时会返回一次INFO_OUTPUT_FORMAT_CHANGED消息。我们只需在这里获取该MediaCodec的format,并注册到MediaMuxer里。接着判断当前audio track和video track是否都已就绪,如果是的话就启动Muxer。
总结来说,drainVideoEncoder()的主逻辑大致如下,drainAudioEncoder也是类似的,只是把video的MediaCodec换成audio的MediaCodec即可。
while(true) { int encoderStatus = mVideoEncoder.dequeueOutputBuffer(mBufferInfo, TIMEOUT_USEC); if (encoderStatus == MediaCodec.INFO_TRY_AGAIN_LATER) { ... } else if (encoderStatus == MediaCodec.INFO_OUTPUT_BUFFERS_CHANGED) { encoderOutputBuffers = mVideoEncoder.getOutputBuffers(); } else if (encoderStatus == MediaCodec.INFO_OUTPUT_FORMAT_CHANGED) { MediaFormat newFormat = mAudioEncoder.getOutputFormat(); mAudioTrackIndex = mMuxer.addTrack(newFormat); mNumTracksAdded++; if (mNumTracksAdded == TOTAL_NUM_TRACKS) { mMuxer.start(); } } else if (encoderStatus < 0) { ... } else { ByteBuffer encodedData = encoderOutputBuffers[encoderStatus]; ... if (mBufferInfo.size != 0) { mMuxer.writeSampleData(mVideoTrackIndex, encodedData, mBufferInfo); } mVideoEncoder.releaseOutputBuffer(encoderStatus, false); if ((mBufferInfo.flags & MediaCodec.BUFFER_FLAG_END_OF_STREAM) != 0) { break; } } }
第3部分是结束录制,发送EOS信息,这样在drainVideoEncoder()和drainAudioEncoder中就可以根据EOS退出内循环。第4部分为清理工作。把audio和video的MediaCodec,MediaCodec用的Surface及MediaMuxer对象释放。
最后几点注意:
1. 在AndroidManifest.xml里加上录音权限,否则创建AudioRecord对象时铁定失败:
<uses-permission android:name="android.permission.RECORD_AUDIO"/>
2. 音视频通过PTS同步,两个的单位要一致。
3. MediaMuxer的使用要按照Constructor -> addTrack -> start -> writeSampleData -> stop 的顺序。如果既有音频又有视频,在stop前两个都要writeSampleData()过。
Code references:
Grafika: https://github.com/google/grafika
Bigflake: http://bigflake.com/mediacodec/
HWEncoderExperiments:https://github.com/OnlyInAmerica/HWEncoderExperiments/tree/audioonly/HWEncoderExperiments/src/main/java/net/openwatch/hwencoderexperiments
Android test:http://androidxref.com/4.4.2_r2/xref/cts/tests/tests/media/src/android/media/cts/
http://androidxref.com/4.4.2_r2/xref/pdk/apps/TestingCamera2/src/com/android/testingcamera2/CameraRecordingStream.java
相关推荐
本篇文章将深入探讨“Android硬解码MediaCodecDemo”,介绍如何利用MediaCodec进行硬解码操作,并处理在实际应用中可能遇到的crash、ANR(Application Not Responding)以及黑屏问题。 一、MediaCodec简介 ...
同时,如果存在音频流,也要将其加入到MediaMuxer中。最后,调用MediaMuxer的start()和stop()方法,开始和结束复用过程。 解码MP4文件播放涉及读取已有的MP4文件并进行回放。这里,我们同样使用MediaCodec,但这次...
Android使用MediaCodec将摄像头采集的视频编码为h264 Android平台上,MediaCodec是Android 4.1(Jelly Bean)引入的一个新的多媒体编码解码器框架,它提供了一个统一的接口来访问各种硬件编码器和解码器。...
具有硬解的能力,但是需要android 4.1以上才能支持。 这个demo主要是测试硬解和软解h265裸流的能力,有一些手机可能不支持硬解,因此硬解和软解的效率是大致相当的。硬解H265使用的是MediaCodec+ffmpeg方案,ffmepg...
在Android中,可以通过SurfaceTexture和Surface来获取屏幕内容,然后通过MediaCodec进行编码,最后将编码后的数据写入到MediaMuxer中,生成MP4或其它视频文件。 3. **MediaCodec的使用** - **初始化**:首先,根据...
1. **多媒体框架**:Android系统提供了一个强大的多媒体框架,包括MediaMuxer、MediaCodec和MediaExtractor等类,它们分别用于多媒体数据的封装、解码和编码。 2. **MediaMuxer**:MediaMuxer是多媒体容器的封装...
然而,直接播放RTSP流并不简单,因为Android原生的MediaCodec并不支持直接从RTSP流中读取数据。通常我们需要借助额外的库,如VLCj或者ijkplayer,它们提供了更高级别的接口,可以处理RTSP连接和数据流的读取。或者,...
`MediaCodec` 和 `MediaMuxer` 是Android系统提供的两个关键API,它们对于高效、高质量的音视频录制至关重要。在这个名为 "AudioVideoRecordingSample" 的开源项目中,我们将深入探讨如何同时处理音频和视频录制。 ...
将Camera数据显示到OpenGL ES渲染的图像中,并通过MediaCodeC 将 OpenGL ES 缓冲数据,硬编码写入到 mp4 视频文件中,完成视频的录制。 文件介绍请见: https://xiaxl.blog.csdn.net/article/details/72530314 ...
在Android系统中,MediaCodec是Android提供的一个核心API,用于处理多媒体数据的编码和解码。在Android 6.0(API级别23)中,MediaCodec已经支持了H.264视频编解码,这是一项广泛使用的高效视频压缩标准。本篇文章将...
MediaCodec是Android系统中用于处理媒体数据的核心组件。它提供了对硬件加速编码和解码的支持,适用于各种媒体格式,包括音频和视频。通过创建MediaCodec实例,我们可以设置其工作模式为编码或解码,并指定相应的...
你可以使用MediaMuxer类将编码后的NAL单元写入到MP4文件中。 5. **软编码FFmpeg**: 对于不支持硬件编码的设备或者需要跨平台兼容性的情况,可以使用FFmpeg库进行软件编码。FFmpeg是一个强大的多媒体处理框架,...
MediaCodec 实现h264硬编解码全过程,视频数据从摄像头读出 yv12格式,转换为I420,投递给encoder,再从encoder取出编码后的h264数据投递给decoder后显示到surfaceView; 实现了udp将h264数据发送到指定主机,可通过...
在Android平台上,MediaCodec是一个非常重要的组件,它提供了对音频和视频编码/解码的低级别支持。在本文中,我们将深入探讨如何使用MediaCodec进行H264视频的硬解码,这是一个高效的处理方式,因为它利用了设备硬件...
在"Android 采用MediaCodec实现Camera预览视频编解码"的场景中,我们将深入探讨如何利用MediaCodec进行视频流的处理,以及如何结合Camera2 API来实现更高级的功能。 首先,MediaCodec的工作原理是基于硬件加速的,...
总结来说,MediaCodec是Android系统中用于高效视频处理的关键组件,尤其在硬解码场景下,它能显著提升性能。掌握其使用方法对于开发高质量的视频播放应用至关重要。通过VedioCaptureDemo这样的示例,我们可以深入...
《Android MediaCodec RTSP H264播放器客户端详解》 在移动开发领域,尤其是在Android平台上,实现视频播放功能是一项常见的需求。对于实时流媒体,RTSP(Real Time Streaming Protocol)协议与H264编码格式的组合...
在Android平台上,MediaCodec是一个强大的框架,用于处理各种媒体编码和解码任务。在这个特定的示例中,我们关注的是如何使用MediaCodec解码AAC(Advanced Audio Coding)音频,并通过AudioTrack将其播放出来。让...
在Android平台上,MediaCodec是一个关键组件,用于处理多媒体数据的编码和解码。在本话题中,我们将深入探讨如何在Native层实现MediaCodec进行H264视频编码,这是一个高效且广泛使用的视频压缩标准。文章《Android ...
Android 中使用 MediaCodec 类实现视频文件的硬解码和硬编码是非常重要的技术。MediaCodec 是 Android 提供的一个多媒体编解码器,能够实现视频和音频的编解码。下面将详细介绍 MediaCodec 的编解码原理和使用示例...