如何优化这个WebGL/GLSL图像降采样着色器

14

我正在使用WebGL在我正在开发的应用程序中快速调整客户端图像大小。 我编写了一个GLSL着色器,对我正在缩小的图像执行简单的双线性过滤。

它基本上运作良好,但是有许多情况下需要进行大量调整,例如从2048x2048的图像缩小到110x110以生成缩略图。 在这些情况下,质量很差,模糊度太高。

我的当前GLSL着色器如下:

uniform float textureSizeWidth;\
uniform float textureSizeHeight;\
uniform float texelSizeX;\
uniform float texelSizeY;\
varying mediump vec2 texCoord;\
uniform sampler2D texture;\
\
vec4 tex2DBiLinear( sampler2D textureSampler_i, vec2 texCoord_i )\
{\
    vec4 p0q0 = texture2D(textureSampler_i, texCoord_i);\
    vec4 p1q0 = texture2D(textureSampler_i, texCoord_i + vec2(texelSizeX, 0));\
\
    vec4 p0q1 = texture2D(textureSampler_i, texCoord_i + vec2(0, texelSizeY));\
    vec4 p1q1 = texture2D(textureSampler_i, texCoord_i + vec2(texelSizeX , texelSizeY));\
\
    float a = fract( texCoord_i.x * textureSizeWidth );\
\
    vec4 pInterp_q0 = mix( p0q0, p1q0, a );\
    vec4 pInterp_q1 = mix( p0q1, p1q1, a );\
\
    float b = fract( texCoord_i.y * textureSizeHeight );\
    return mix( pInterp_q0, pInterp_q1, b );\
}\
void main() { \
\
    gl_FragColor = tex2DBiLinear(texture,texCoord);\
}');

TexelsizeX和TexelsizeY分别是纹理宽度的(1.0/纹理宽度)和高度。我希望实现一个更高质量的滤波技术,最好是[Lancosz][1]过滤器,它应该能够产生更好的结果,但是我貌似无法理解如何在GLSL中实现该算法,因为我对WebGL和GLSL都很陌生。请问有谁能指点一下我吗?

提前感谢。

1个回答

24
如果你正在寻找Lanczos重采样,下面是我在开源GPUImage库中使用的着色器程序:
顶点着色器:
 attribute vec4 position;
 attribute vec2 inputTextureCoordinate;

 uniform float texelWidthOffset;
 uniform float texelHeightOffset;

 varying vec2 centerTextureCoordinate;
 varying vec2 oneStepLeftTextureCoordinate;
 varying vec2 twoStepsLeftTextureCoordinate;
 varying vec2 threeStepsLeftTextureCoordinate;
 varying vec2 fourStepsLeftTextureCoordinate;
 varying vec2 oneStepRightTextureCoordinate;
 varying vec2 twoStepsRightTextureCoordinate;
 varying vec2 threeStepsRightTextureCoordinate;
 varying vec2 fourStepsRightTextureCoordinate;

 void main()
 {
     gl_Position = position;

     vec2 firstOffset = vec2(texelWidthOffset, texelHeightOffset);
     vec2 secondOffset = vec2(2.0 * texelWidthOffset, 2.0 * texelHeightOffset);
     vec2 thirdOffset = vec2(3.0 * texelWidthOffset, 3.0 * texelHeightOffset);
     vec2 fourthOffset = vec2(4.0 * texelWidthOffset, 4.0 * texelHeightOffset);

     centerTextureCoordinate = inputTextureCoordinate;
     oneStepLeftTextureCoordinate = inputTextureCoordinate - firstOffset;
     twoStepsLeftTextureCoordinate = inputTextureCoordinate - secondOffset;
     threeStepsLeftTextureCoordinate = inputTextureCoordinate - thirdOffset;
     fourStepsLeftTextureCoordinate = inputTextureCoordinate - fourthOffset;
     oneStepRightTextureCoordinate = inputTextureCoordinate + firstOffset;
     twoStepsRightTextureCoordinate = inputTextureCoordinate + secondOffset;
     threeStepsRightTextureCoordinate = inputTextureCoordinate + thirdOffset;
     fourStepsRightTextureCoordinate = inputTextureCoordinate + fourthOffset;
 }

片段着色器:

 precision highp float;

 uniform sampler2D inputImageTexture;

 varying vec2 centerTextureCoordinate;
 varying vec2 oneStepLeftTextureCoordinate;
 varying vec2 twoStepsLeftTextureCoordinate;
 varying vec2 threeStepsLeftTextureCoordinate;
 varying vec2 fourStepsLeftTextureCoordinate;
 varying vec2 oneStepRightTextureCoordinate;
 varying vec2 twoStepsRightTextureCoordinate;
 varying vec2 threeStepsRightTextureCoordinate;
 varying vec2 fourStepsRightTextureCoordinate;

 // sinc(x) * sinc(x/a) = (a * sin(pi * x) * sin(pi * x / a)) / (pi^2 * x^2)
 // Assuming a Lanczos constant of 2.0, and scaling values to max out at x = +/- 1.5

 void main()
 {
     lowp vec4 fragmentColor = texture2D(inputImageTexture, centerTextureCoordinate) * 0.38026;

     fragmentColor += texture2D(inputImageTexture, oneStepLeftTextureCoordinate) * 0.27667;
     fragmentColor += texture2D(inputImageTexture, oneStepRightTextureCoordinate) * 0.27667;

     fragmentColor += texture2D(inputImageTexture, twoStepsLeftTextureCoordinate) * 0.08074;
     fragmentColor += texture2D(inputImageTexture, twoStepsRightTextureCoordinate) * 0.08074;

     fragmentColor += texture2D(inputImageTexture, threeStepsLeftTextureCoordinate) * -0.02612;
     fragmentColor += texture2D(inputImageTexture, threeStepsRightTextureCoordinate) * -0.02612;

     fragmentColor += texture2D(inputImageTexture, fourStepsLeftTextureCoordinate) * -0.02143;
     fragmentColor += texture2D(inputImageTexture, fourStepsRightTextureCoordinate) * -0.02143;

     gl_FragColor = fragmentColor;
 }

这个过程分两步进行,第一步进行水平降采样,第二步进行垂直降采样。 texelWidthOffsettexelHeightOffset uniform 交替设置为0.0和图像中单个像素的宽度或高度分数。

我在顶点着色器中硬计算纹理偏移量,因为这避免了我针对移动设备进行优化时出现依赖纹理读取,从而提高了性能。虽然有些冗长。

Lanczos重采样的结果:

Lanczos

普通双线性降采样:

Bilinear

最近邻降采样:

Nearest-neighbor


一个精心构建的答案。谢谢你。我应该能够从你发布的代码中找到答案。干杯! - gordyr
@gordyr - 很高兴听到这个消息。你的意思是你需要使用texelWidthOffset = 3.0 /(图像像素宽度)或texelWidthOffset = 1.0 /(3.0 *(图像像素宽度))吗?我生成上述图像时使用了texelWidthOffset = 1.0 /(图像像素宽度)和texelHeightOffset = 1.0 /(图像像素高度),但如果三倍因子适合你,就用它吧。 - Brad Larson
1
@Vitaly - 目前,边缘被夹住了(当你在边缘采样时,值会重复)。我注意到由此产生的图像质量几乎没有降低,但这与动态权重变化不同。这是性能的权衡。我在这里预先计算了sinc()值的权重,再次作为近似值以保持性能合理。与简单算术相比,在GPU上计算三角函数非常慢。 - Brad Larson
@BradLarson 还有一个问题 - 使用预构建的滤镜,存储在第二个纹理中(而不是SINC逼近),这样做可以吗?或者这种解决方案在GPU + webgl上也会有问题/限制? - Vitaly
我在周末花时间研究了WebGL lanzcos调整大小技术。此4点滤波器仅可调整一定数量的大小。为了实现3个叶片的Lanzcos,我不得不构建并且感到满意,动态着色器生成的结果。有时候需要多达120个点击,性能可能不是最佳的,但在浏览器中仍然非常快速。 - AndreaBogazzi
显示剩余5条评论

网页内容由stack overflow 提供, 点击上面的
可以查看英文原文,
原文链接