对于任何好奇的人,上面展示的方法不是最快的方式。
当一个UIView被要求呈现其内容时,它会请求其图层(通常是CALayer)为其绘制。异常情况:基于OpenGL的视图使用CAEAGLLayer(CALayer的子类),但使用相同的方法却不返回任何东西。没有任何绘制发生。
因此,如果您调用:
[someUIView.layer drawInContext:someContext]
它将能够正常工作,但是
[someOpenGLView.layer drawInContext:someContext]
如果你要求任何一个基于OpenGL的视图的superview提供它的内容,这也会成为问题:它将递归地向每个子视图询问它们的内容,而使用CAEAGLLayer的任何子视图都不会返回任何东西(你会看到一个黑色矩形)。
我之前已经寻找了一种CALayer代理方法drawLayer:inContext:的实现方式,我可以在任何基于OpenGL的视图中使用它,以便视图对象本身提供其内容(而不是层)。该代理方法会自动调用:Apple希望以这种方式工作。
当性能不是问题时,您可以在视图中实现一个简单快照方法的变体。该方法如下所示:
- (void) drawLayer:(CALayer *)layer inContext:(CGContextRef)ctx {
GLint backingWidth, backingHeight;
glBindRenderbufferOES(GL_RENDERBUFFER_OES, _colorRenderbuffer);
glGetRenderbufferParameterivOES(GL_RENDERBUFFER_OES, GL_RENDERBUFFER_WIDTH_OES, &backingWidth);
glGetRenderbufferParameterivOES(GL_RENDERBUFFER_OES, GL_RENDERBUFFER_HEIGHT_OES, &backingHeight);
NSInteger x = 0, y = 0, width = backingWidth, height = backingHeight;
NSInteger dataLength = width * height * 4;
GLubyte *data = (GLubyte*)malloc(dataLength * sizeof(GLubyte));
glPixelStorei(GL_PACK_ALIGNMENT, 4);
glReadPixels(x, y, width, height, GL_RGBA, GL_UNSIGNED_BYTE, data);
CGDataProviderRef ref = CGDataProviderCreateWithData(NULL, data, dataLength, NULL);
CGColorSpaceRef colorspace = CGColorSpaceCreateDeviceRGB();
CGImageRef iref = CGImageCreate(width, height, 8, 32, width * 4, colorspace, kCGBitmapByteOrder32Big | kCGImageAlphaPremultipliedLast,
ref, NULL, true, kCGRenderingIntentDefault);
CGContextDrawImage(ctx, self.bounds, iref);
}
但是!这种方法并不高效。
众所周知,glReadPixels不是一个快速的调用。从iOS 5开始,苹果公司推出了CVOpenGLESTextureCacheRef - 一个共享缓冲区,既可以用作CVPixelBufferRef,也可以用作OpenGL纹理。最初,它被设计为从视频帧获取OpenGL纹理的一种方式:现在更经常地被用于相反的方式,即从纹理中获取视频帧。
因此,上述想法的更好实现方式是使用从CVOpenGLESTextureCacheCreateTextureFromImage获取的CVPixelBufferRef,直接访问这些像素,将其绘制到一个CGImage中,然后缓存该图像,并在委托方法中将其绘制到您的上下文中。
代码在此处。在每次渲染通行证上,您将您的纹理绘制到与CVPixelBuffer Ref链接的纹理缓存中:
- (void) renderToCGImage {
[ochrContext useProcessingContext];
glBindFramebuffer(GL_FRAMEBUFFER, layerRenderingFramebuffer);
glViewport(0, 0, (int) self.frame.size.width, (int) self.frame.size.height);
[ochrContext setActiveShaderProgram:layerRenderingShaderProgram];
glActiveTexture(GL_TEXTURE4);
glBindTexture(GL_TEXTURE_2D, self.inputTexture);
glUniform1i(layerRenderingInputTextureUniform, 4);
glVertexAttribPointer(layerRenderingShaderPositionAttribute, 2, GL_FLOAT, 0, 0, kRenderTargetVertices);
glVertexAttribPointer(layerRenderingShaderTextureCoordinateAttribute, 2, GL_FLOAT, 0, 0, kRenderTextureVertices);
glDrawArrays(GL_TRIANGLE_STRIP, 0, 4);
glFinish();
dispatch_async(PixelBufferReadingQueue, ^{
CVPixelBufferLockBaseAddress(renderTarget, 0);
uint32_t * pixels = (uint32_t*) CVPixelBufferGetBaseAddress(renderTarget);
CGDataProviderRef pixelWrapper = CGDataProviderCreateWithData(NULL, pixels, CVPixelBufferGetDataSize(renderTarget), NULL);
CGColorSpaceRef colorSpaceRef = CGColorSpaceCreateDeviceRGB();
CGImageRelease(currentCGImage);
currentCGImage = CGImageCreate(self.frame.size.width,
self.frame.size.height,
8,
32,
4 * self.frame.size.width,
colorSpaceRef,
kCGBitmapByteOrder32Big | kCGImageAlphaPremultipliedLast,
pixelWrapper,
NULL,
NO,
kCGRenderingIntentDefault);
CVPixelBufferUnlockBaseAddress(renderTarget, 0);
CGDataProviderRelease(pixelWrapper);
CGColorSpaceRelease(colorSpaceRef);
});
}
然后,非常简单地实现委托方法:
- (void) drawLayer:(CALayer *)layer inContext:(CGContextRef)ctx {
CGContextDrawImage(ctx, self.bounds, currentCGImage);
}