10得票1回答
UIImage中的绘制区域未被正确识别。

我在我的项目中遇到了一个奇怪的问题。我想做的是,用户可以在图片上刷或者画图,并且我只需要从被涂色区域下面的图片中剪裁出该区域即可。我的代码只有当下面的 UIImage 视图宽度为 320 像素,即 iPhone 的宽度时才能正常工作。但是如果我改变 ImageView 的宽度,就无法得到期望的...

10得票2回答
iOS6:如何使用YUV到RGB的转换功能,从cvPixelBufferRef到CIImage

从iOS6开始,苹果公司提供了通过以下调用使用本地YUV到CIImage的选项: initWithCVPixelBuffer:options: 在核心图像编程指南中,他们提到了这个特性 利用iOS 6.0及更高版本对YUV图像的支持。相机像素缓冲区本机为YUV格式,但大多数...

10得票1回答
CIFilter: 混合不同大小的图像

我正在使用CISourceOverCompositing混合两个图像。这段代码可以处理相同大小的图像:CIFIlter *filter1 = [CIFilter filterWithName: @"CISourceOverCompositing"]; [filter1 setDefaults]...

9得票2回答
使用CoreImage对图像进行滤镜处理导致图像旋转

感谢阅读。 我正在尝试使用iOS 5中的CoreImage来改变图像的外观。问题是,在此过程中,现有图像似乎会失去其方向信息,并最终旋转90度。 以下是代码: CIContext *context = [CIContext contextWithOptions:nil]; CIImage...

9得票2回答
核心图像:使用CICrop后,应用合成滤镜不对齐

我正在使用CICrop根据需要裁剪图片大小,将图像的顶部和底部切掉。 然后,我使用类似CIMultiplyCompositing过滤器的东西将裁剪后的图像与另一张图像组合。 两个图像的大小相同,但结果显示两个图像不对齐...其中一个是偏移的。 因此,我检查了以下内容: NSLog(@"...

9得票3回答
CIFilter的guassianBlur和boxBlur正在缩小图像-如何避免调整大小?

我正在对一个NSView的内容进行快照,应用CIFilter,并将结果放回到视图中。如果CIFilter是一种模糊形式,例如CIBoxBlur或CIGuassianBlur,则过滤后的结果略小于原始大小。由于我要反复这样做,结果会变得越来越小,我想避免这种情况。 尽管在稍微不同的上下文(Qu...

9得票1回答
MTKView显示广色域P3颜色空间

我正在基于CIFilters和MetalKit构建实时照片编辑器。但是在MTKView中显示宽色域图像时遇到了问题。 标准的sRGB图像可以正常显示,但Display P3图像会变得模糊。 我尝试将CIContext.render颜色空间设置为图像颜色空间,但仍然存在问题。 以下是代码片...

9得票2回答
平滑Chroma Key的边缘 - CoreImage

我正在使用以下代码从图像中去除绿色背景。但是,图像的边缘有绿色色调,并且一些像素已经损坏。我该如何使其更加平滑并让图像剪切完美? func chromaKeyFilter(fromHue: CGFloat, toHue: CGFloat) -> CIFilter? { ...

9得票1回答
在iOS上使用Core Image的内存高效方法是什么?

我在我的应用程序中使用Core Image滤镜,在iPhone 5设备上运行iOS 7时一切正常,但当我在只有512MB总内存的iPhone 4s上测试时,应用程序会崩溃。 情况如下:我有两张从相机拍摄的图片,每张分辨率为2448x3264。在我的iPhone 5上,整个过程的峰值占用了15...

9得票1回答
在iOS 6上使用CIGaussianBlur和CIAffineClamp

我正在尝试在iOS 6上使用CoreImage模糊图像,而不会有明显的黑色边框。 苹果文档指出,使用CIAffineClamp滤镜可以实现此目的,但我无法从滤镜中获取输出图像。这是我尝试过的,但不幸的是当我访问[clampFilter outputImage]时,创建了一个空图像。如果我只执行...