7得票6回答
如何获得有意义的CIAreaHistogram输出?

我想计算CGImage的直方图。我正在使用内置于CoreImage滤镜的CIAreaHistogram。 Justin Mrkva已经做了something along similar lines。他说: 引用: 我获取直方图本身的CIImage,然后通过自定义内核(请参见帖子结尾)运行它...

8得票1回答
CIAreaHistogram输入比例因子

我正在构建一个应用程序,该程序使用CIAreaHistogram Core Image滤镜。我在测试时使用了inputCount值(bucket数)为10,以及inputScale值为1。 我获取直方图的CIImage,然后通过自定义内核(请参见文章末尾)运行它,将alpha值设置为1(否则...

18得票1回答
静态图像上的动画/移动效果

我正在尝试在用户指导方向上实现静态图像的动画效果,就像这样: 原始图像 期望结果 为此,我尝试了CIBumpDistortionLinearCIFilter。它可以产生动画效果,但是动画效果与期望的并不完全一样。let bumpDistortionLinearParams: [S...

8得票2回答
在iOS上使用CPU实现最快的YUV420P到RGBA转换

有没有人能推荐一个非常快的 API,最好是使用 CPU 进行 NEON 优化,以便在 iPhone 上运行时进行 YUV 到 RGB 转换?遗憾的是,加速框架的 vImage 并没有提供合适的内容。使用 vDSP,将其转换为浮点数再转回来似乎不太优秀,而且几乎和编写 NEON 代码一样麻烦。 ...

14得票3回答
CIGaussianBlur图像大小

我想要模糊我的视图,我使用了这段代码://Get a UIImage from the UIView NSLog(@"blur capture"); UIGraphicsBeginImageContext(BlurContrainerView.frame.size); [s...

12得票1回答
使用GPUImage重新创建iOS 7玻璃效果

我正在尝试通过将图像效果应用于 MKMapView 的截图来在我的玻璃中使用iOS 7风格的玻璃效果。这是苹果提供的UIImage类别,是我使用的基准。该方法会使源图像变得无色,应用着色和模糊,并使用输入值进行大量模糊处理:[image applyBlurWithRadius:10.0 ...

12得票1回答
将CIFilter应用于OpenGL渲染到纹理

我正在尝试在我的全屏渲染输出上应用CoreImage滤镜,但看起来我错过了什么,因为输出结果是黑屏。 首先,我将整个场景绘制到纹理中。然后,我使用该纹理创建了一个CoreImage,最终将其绘制和呈现。但是我得到的都是黑屏。我遵循了苹果关于绘制到纹理并将CoreImage与OpenGLES集...

10得票2回答
iOS6:如何使用YUV到RGB的转换功能,从cvPixelBufferRef到CIImage

从iOS6开始,苹果公司提供了通过以下调用使用本地YUV到CIImage的选项: initWithCVPixelBuffer:options: 在核心图像编程指南中,他们提到了这个特性 利用iOS 6.0及更高版本对YUV图像的支持。相机像素缓冲区本机为YUV格式,但大多数...

24得票2回答
核心图像和GPUImage之间的主要区别

除了 GPUImage 是开源的以外,Core Image 和 GPUImage 框架主要有哪些区别?乍一看它们的接口非常相似......都是将一系列滤镜应用于输入以创建输出。我看到一些小差异,例如 GPUImage 具有易于使用的 LookupFilter。 我正在尝试弄清楚为什么有人会选择...

8得票1回答
在AVCaptureSession中切换摄像头速度缓慢

我看过很多类似的问题,并尝试了很多解决方案,但这个情况有点不同。我正在使用AVCaptureVideoDataOutputSampleBufferDelegate,以便可以将CIFilters应用于实时视频流。我正在使用以下方法更改相机: func changeCameras() { ...