我正在尝试复制苹果公开发布的iOS 7示例屏幕中的模糊背景:
这个问题建议对下面的内容应用CI滤镜,但这是一种完全不同的方法。显然,iOS 7没有捕获下面视图的内容,原因有很多:
- 进行一些粗略的测试,捕获下面视图的屏幕截图并应用足够大的CIGaussianBlur滤镜来模拟iOS 7的模糊样式需要1-2秒,即使在模拟器上也是如此。
- iOS 7的模糊视图可以在动态视图(例如视频或动画)上进行模糊处理,而且没有明显的延迟。
有人能假设他们可能使用哪些框架来创建这种效果,并且是否可以使用当前公共API创建类似的效果吗?
编辑:(来自评论)我们不确切知道苹果是如何做到的,但是我们可以做出一些基本假设吗?我们可以假设他们正在使用硬件,是吗?
该效果是否包含在每个视图中,以使效果实际上不知道其背后的内容?或必须根据模糊处理的工作方式考虑模糊处理后面的内容?
如果效果后面的内容相关,我们可以假设Apple正在接收下方内容的“馈送”并不断使用模糊渲染它们吗?