阅读了这篇关于JPEG演变的文档,我在该文档的第7.3节中发现了“The law of the eight”。
尽管从1到16的其他块大小已经通过SmartScale扩展引入,超出了最初JPEG标准中的固定大小8,但事实仍然是8的块大小将是默认值,并且所有其他大小的DCT都是根据标准8x8 DCT进行缩放的。
“八的法则”解释了为什么8是DCT大小的正确默认和参考值。
我的问题是:
历史上是否进行了一项研究,评估了样本中的众多图像,以得出结论:使用DCT进行压缩技术所需的冗余数据足以包含在8x8的图像块中?对于像8M(4Kx4K)这样非常大的图像大小, 是否仍然有效?
限制宏块大小为8x8的另一个历史原因是较大宏块的计算量过高。但是,随着现代超标量体系结构(例如CUDA)的出现,这种限制不再适用。
1. 非常感谢提供原始研究的引用/摘录/详细信息,因为我想使用非常大的图像数据集重复它,以测试8x8宏块是否最优。
2. 如果最近进行了类似的研究,则欢迎提供参考。
3. 我确实了解到SmartScale是有争议的。在没有明显潜在利益1的情况下,最多只能与jpeg标准的其他向后兼容扩展相媲美2。我的目标是了解选择8x8作为DCT块大小(在jpeg图像压缩标准中)背后的原因是否仍然相关,因此我需要知道八法则是什么。