`
miss大为
  • 浏览: 82724 次
  • 性别: Icon_minigender_1
  • 来自: 北京
社区版块
存档分类
最新评论

如何使用AV Foundation从摄像头将视频帧捕获为图像

阅读更多

如果译错,感谢指出。

英文原文地址:https://developer.apple.com/library/ios/qa/qa1702/_index.html#//apple_ref/doc/uid/DTS40010192

为了完成实时的捕获,首先初始化一个AVCaputureSession对象用于创建一个捕获会话(session),我们可以使用AVCaptureSession对象将AV输入设备的数据流以另一种形式转换到输出。

然后,我们初始化一个AVCaptureDeviceInput对象,以创建一个输入数据源,该数据源为捕获会话(session)提供视频数据,再调用addInput方法将创建的输入添加到AVCaptureSession对象。

接着初始化一个AVCaptureVideoDataOuput对象,以创建一个输出目标,然后调用addOutput方法将该对象添加到捕获会话中。

AVCaptureVideoDataOutput可用于处理从视频中捕获的未经压缩的帧。一个AVCaptureVideoDataOutput实例能处理许多其他多媒体API能处理的视频帧,你可以通过captureOutput:didOutputSampleBuffer:fromConnection:这个委托方法获取帧,使用setSampleBufferDelegate:queue:设置抽样缓存委托和将应用回调的队列。AVCaptureVideoDataOutputSampleBuffer对象的委托必须采用AVCaptureVideoDataOutputSampleBufferDelegate协议,使用sessionPreset协议来制定输出品质。

我们可以通过调用捕获会话的startRunning方法启动从输入到输出的数据流,通过stopRunning方法来停止数据流。

列表1给出了一个例子。setupCaptureSession创建了一个捕获会话,添加了一个视频输入提供提视频帧,一个输出目标获取捕获的帧,然后启动从输入到输出的数据流。当捕获会话正在运行时,使用captureOut:didOutputSampleBuffer:fromConnection方法将被捕获的视频抽样帧发送给抽样缓存委托,然后每个抽样缓存(CMSampleBufferRef)被转换成imageFromSampleBuffer中的一个UIImage对象。

---------------------------
列表1:使用AV Foundation设置一个捕获设备录制视频并将是视频帧保存为UIImage对象。

#import <AVFoundation/AVFoundation.h>

// 创建并配置一个捕获会话并且启用它
- (void)setupCaptureSession 
{
    NSError *error = nil;

    // 创建session
    AVCaptureSession *session = [[AVCaptureSession alloc] init];

    // 可以配置session以产生解析度较低的视频帧,如果你的处理算法能够应付(这种低解析度)。
    // 我们将选择的设备指定为中等质量。
    session.sessionPreset = AVCaptureSessionPresetMedium;

    // 找到一个合适的AVCaptureDevice
    AVCaptureDevice *device = [AVCaptureDevice
                             defaultDeviceWithMediaType:AVMediaTypeVideo];

    // 用device对象创建一个设备对象input,并将其添加到session
    AVCaptureDeviceInput *input = [AVCaptureDeviceInput deviceInputWithDevice:device 
                                                                    error:&error];
    if (!input) {
        // 处理相应的错误
    }
    [session addInput:input];

    // 创建一个VideoDataOutput对象,将其添加到session
    AVCaptureVideoDataOutput *output = [[[AVCaptureVideoDataOutput alloc] init] autorelease];
    [session addOutput:output];

    // 配置output对象
    dispatch_queue_t queue = dispatch_queue_create("myQueue", NULL);
    [output setSampleBufferDelegate:self queue:queue];
    dispatch_release(queue);

    // 指定像素格式
    output.videoSettings = 
                [NSDictionary dictionaryWithObject:
                    [NSNumber numberWithInt:kCVPixelFormatType_32BGRA] 
                    forKey:(id)kCVPixelBufferPixelFormatTypeKey];


    // 如果你想将视频的帧数指定一个顶值, 例如15ps 
    // 可以设置minFrameDuration(该属性在iOS 5.0中弃用)
    output.minFrameDuration = CMTimeMake(1, 15);

    // 启动session以启动数据流
    [session startRunning];

    // 将session附给实例变量
    [self setSession:session];
}

// 抽样缓存写入时所调用的委托程序
- (void)captureOutput:(AVCaptureOutput *)captureOutput 
         didOutputSampleBuffer:(CMSampleBufferRef)sampleBuffer 
         fromConnection:(AVCaptureConnection *)connection
{ 
    // 通过抽样缓存数据创建一个UIImage对象
    UIImage *image = [self imageFromSampleBuffer:sampleBuffer];

     < 此处添加使用该image对象的代码 >

}

// 通过抽样缓存数据创建一个UIImage对象
- (UIImage *) imageFromSampleBuffer:(CMSampleBufferRef) sampleBuffer 
{
    // 为媒体数据设置一个CMSampleBuffer的Core Video图像缓存对象
    CVImageBufferRef imageBuffer = CMSampleBufferGetImageBuffer(sampleBuffer); 
    // 锁定pixel buffer的基地址
    CVPixelBufferLockBaseAddress(imageBuffer, 0); 

    // 得到pixel buffer的基地址
    void *baseAddress = CVPixelBufferGetBaseAddress(imageBuffer); 

    // 得到pixel buffer的行字节数
    size_t bytesPerRow = CVPixelBufferGetBytesPerRow(imageBuffer); 
    // 得到pixel buffer的宽和高
    size_t width = CVPixelBufferGetWidth(imageBuffer); 
    size_t height = CVPixelBufferGetHeight(imageBuffer); 

    // 创建一个依赖于设备的RGB颜色空间
    CGColorSpaceRef colorSpace = CGColorSpaceCreateDeviceRGB(); 

    // 用抽样缓存的数据创建一个位图格式的图形上下文(graphics context)对象
    CGContextRef context = CGBitmapContextCreate(baseAddress, width, height, 8, 
      bytesPerRow, colorSpace, kCGBitmapByteOrder32Little | kCGImageAlphaPremultipliedFirst); 
    // 根据这个位图context中的像素数据创建一个Quartz image对象
    CGImageRef quartzImage = CGBitmapContextCreateImage(context); 
    // 解锁pixel buffer
    CVPixelBufferUnlockBaseAddress(imageBuffer,0);

    // 释放context和颜色空间
    CGContextRelease(context); 
    CGColorSpaceRelease(colorSpace);

    // 用Quartz image创建一个UIImage对象image
    UIImage *image = [UIImage imageWithCGImage:quartzImage];

    // 释放Quartz image对象
    CGImageRelease(quartzImage);

    return (image);
}
 
分享到:
评论

相关推荐

    VC写的视频捕获的程序

    4. 实时显示与保存:如何将捕获的视频帧显示在屏幕上,以及如何保存为视频文件。 5. 错误处理和用户界面:如何处理可能出现的问题,并提供友好的用户交互。 通过深入研究这个程序,你不仅可以掌握视频捕获的基本...

    视频捕获模块.e.rar

    3. **图像处理**:捕获到的原始视频帧往往需要经过预处理,例如去噪、色彩校正、分辨率调整等,以提高画面质量和适应后续的分析或编码需求。这涉及到图像处理算法,如滤波器、色彩空间转换等。 4. **数据编码**:...

    VC++视频捕捉和传输

    5. 启动捕获,处理ISampleGrabber接口以获取单帧图像或者连续的视频流。 6. 实现事件处理,如错误处理、用户交互等。 接下来,我们讨论视频传输。在网络环境中,视频数据通常需要通过TCP或UDP协议进行传输。VC++...

    视频录像与拍照

    视频编码是将连续的静态图像(帧)转换为数字格式的过程,常见的编码标准有H.264、HEVC(H.265)、AV1等,它们能高效地压缩视频数据,降低存储和传输的需求。帧率控制则决定了视频播放时每秒显示的图像数量,通常用...

    Visual c++视频技术方案源码和索引

    4. **视频捕获**:通过集成的DirectShow捕获滤镜,开发者可以在VC++中实现从摄像头或其他视频输入设备捕获视频流。 5. **多线程和并发**:视频处理往往需要大量计算,因此利用多线程和并发技术可以提高性能。VC++...

    视频传输源代码

    视频是由连续的静态图像(帧)组成的,通过快速播放这些帧来创建动态效果。在数字环境下,视频数据以二进制格式存储,视频传输就是将这些数据从一个地方传送到另一个地方的过程。为了实现高效的传输,通常会采用压缩...

    视频监控系统

    视频监控系统是一种集成硬件设备与软件技术的综合性应用,它能够实时捕获、记录和分析图像,为用户提供安全监控和管理的解决方案。在本案例中,我们讨论的是一个使用C#编程语言开发的视频监控系统,它具备强大的功能...

Global site tag (gtag.js) - Google Analytics