我有一个需求,即在用户可以从“相机胶卷”中选择图像,并且我的应用程序需要优化该图像并将其上传到服务器。我正在使用
问题如下:
当用户选择1.7MB的照片(这是iOS在我尝试邮寄照片时报告的完整大小)时,当我直接从该
ALAssets
库和自定义选择器,让用户从“相机胶卷”中选择照片。我能够完美地实现此目标,但文件大小的增加却成了问题。问题如下:
当用户选择1.7MB的照片(这是iOS在我尝试邮寄照片时报告的完整大小)时,当我直接从该
ALAsset
的ALAssetRepresentation
获取字节并将其转换为NSData
时,数据的大小也为1.7MB。但是,当我使用以下代码从ALAssetRepresentation
获取UIImage
..
UIImage *selImage = [UIImage imageWithCGImage:[assetRepresentation fullResolutionImage] scale:[assetRepresentation scale] orientation:[assetRepresentation orientation]];
然后使用压缩质量= 1.0f的UIImageJPEGRepresentation()
将UIImage
转换为NSData
时,NSData的大小几乎增加了一倍(3.2MB)。
理论上,它不应该只是1.7MB吗??
正如预期的那样,当我将其保存到文件中时,文件大小仍然为3.2MB(我使用xcode 4.2通过导入沙盒应用程序的文档文件夹进行了检查)。但有趣的是,当我在我的Mac上使用预览
打开该文件并检查字节大小时,它显示为1.7MB(曾经是3.2MB),这非常令人困惑..
请帮忙看看..
先谢谢。