Freetype和OpenGL问题

6

嘿,我在使用Freetype 2库加载OpenGL时绘制文本时遇到了奇怪的问题。这是我看到的截图。

示例 http://img203.imageshack.us/img203/3316/freetypeweird.png

这里是我的代码片段,用于加载和渲染文本。

class Font
{
    Font(const String& filename)
    {
       if (FT_New_Face(Font::ftLibrary, "arial.ttf", 0, &mFace)) {
          cout << "UH OH!" << endl;
       }

       FT_Set_Char_Size(mFace, 16 * 64, 16 * 64, 72, 72);
    }

    Glyph* GetGlyph(const unsigned char ch)
    {
       if(FT_Load_Char(mFace, ch, FT_LOAD_RENDER))
          cout << "OUCH" << endl;

       FT_Glyph glyph;

       if(FT_Get_Glyph( mFace->glyph, &glyph ))
          cout << "OUCH" << endl;

       FT_BitmapGlyph bitmap_glyph = (FT_BitmapGlyph)glyph;

       Glyph* thisGlyph = new Glyph;
       thisGlyph->buffer = bitmap_glyph->bitmap.buffer;
       thisGlyph->width = bitmap_glyph->bitmap.width;
       thisGlyph->height = bitmap_glyph->bitmap.rows;

       return thisGlyph;
    }
};

相关的字形信息(宽度、高度、缓冲区)存储在以下结构体中:

struct Glyph {
   GLubyte* buffer;
   Uint width;
   Uint height;
};

最后,为了呈现它,我有一个名为RenderFont的类。
class RenderFont 
{
   RenderFont(Font* font)
   {
      mTextureIds = new GLuint[128];

      mFirstDisplayListId=glGenLists(128);
      glGenTextures( 128, mTextureIds );

      for(unsigned char i=0;i<128;i++)
      {
         MakeDisplayList(font, i);
      }
   }

   void MakeDisplayList(Font* font, unsigned char ch)
   {
      Glyph* glyph = font->GetGlyph(ch);

      glBindTexture( GL_TEXTURE_2D, mTextureIds[ch]);
      glTexParameteri(GL_TEXTURE_2D,GL_TEXTURE_MAG_FILTER,GL_LINEAR);
      glTexParameteri(GL_TEXTURE_2D,GL_TEXTURE_MIN_FILTER,GL_LINEAR);

      glTexImage2D(GL_TEXTURE_2D, 
                   0, 
                   GL_RGBA, 
                   glyph->width, 
                   glyph->height, 
                   0,
                   GL_ALPHA, 
                   GL_UNSIGNED_BYTE, 
                   glyph->buffer);

      glNewList(mFirstDisplayListId+ch,GL_COMPILE);
      glBindTexture(GL_TEXTURE_2D, mTextureIds[ch]);

      glBegin(GL_QUADS);
      glTexCoord2d(0,1); glVertex2f(0,glyph->height);
      glTexCoord2d(0,0); glVertex2f(0,0);
      glTexCoord2d(1,0); glVertex2f(glyph->width,0);
      glTexCoord2d(1,1); glVertex2f(glyph->width,glyph->height);
      glEnd();

      glTranslatef(16, 0, 0);

      glEndList();
   }

   void Draw(const String& text, Uint size, const TransformComponent* transform, const Color32* color)
   {
      glEnable(GL_TEXTURE_2D);
      glEnable(GL_BLEND);
      glBlendFunc(GL_SRC_ALPHA, GL_ONE_MINUS_SRC_ALPHA);

      glTranslatef(100, 250, 0.0f);

      glListBase(mFirstDisplayListId);

      glCallLists(text.length(), GL_UNSIGNED_BYTE, text.c_str());

      glDisable(GL_TEXTURE_2D);
      glDisable(GL_BLEND);

      glLoadIdentity();
   }

private:
   GLuint mFirstDisplayListId;
   GLuint* mTextureIds;
};

有人能看出任何奇怪的东西导致了这些乱码吗?奇怪的是,如果我改变字体大小或DPI,则一些正确显示的字母会变成乱码,而之前乱码的其他字母则会正确显示。

4个回答

8
我不熟悉FreeType,但从图片上看,字符的宽度似乎与缓冲区的大小没有直接关系(即glyph->buffer并没有指向大小为glyph->width*glyth->height字节的数组)。
我的猜测是,所有字符在内存中都有一个单一的宽度(而不是它们在屏幕上使用的大小),可能是所有字形宽度中最大的那个,但您使用每个字符的宽度加载它们,而不是正确的宽度。因此,只有使用完整宽度的字形是正确的。

这就是问题所在。我将所有内容复制到一个新的缓冲区中,该缓冲区具有一定的大小,并用空像素填充它,然后一切正常工作了。谢谢! - Morgan

4

使用:

glPixelStorei(GL_PACK_ALIGNMENT, 1);
glPixelStorei(GL_UNPACK_ALIGNMENT, 1);

这也让我很烦恼,但你需要告诉OpenGL使用你提供的间距而不是它期望的正常32位边界。图像的间距会改变,但OpenGL不知道在纹理创建之前调用这些函数以使用更小的打包对齐方式。我的做法是这样的:
// Convert the glyph to a bitmap.
FT_Glyph_To_Bitmap(&glyph, FT_RENDER_MODE_NORMAL, NULL, true);
FT_BitmapGlyph bitmap_glyph = (FT_BitmapGlyph)glyph;

// This reference will make accessing the bitmap easier
FT_Bitmap& bitmap = bitmap_glyph->bitmap;

int _Left = abs(bitmap_glyph->left);
int _Top = abs(bitmap_glyph->top);
int _Height = abs(bitmap.rows);
int _Width = _Left+abs(bitmap.width);

// If it's not a glyph or spacing, go to the next one
if ((_Width == 0 || _Height == 0) && !isspace(i))
    return;

advances[i] = max(_Width, face->glyph->advance.x >> 6);

vector<unsigned char> Data(_Height*_Width*2, 0);
for (int32 h=0; h < abs(bitmap.rows); ++h)
    for (int32 w=0; w < abs(bitmap.width); ++w)
    {
        int32 luminance = bitmap.buffer[h*bitmap.pitch + w];
        Data[(h*_Width + w + _Left)*2 + 0] = 255;
        Data[(h*_Width + w + _Left)*2 + 1] = luminance;
    }

我可以将255(白色)移动到字符串初始化函数中,然后仅使用FreeType中的值作为我的alpha值,但是这种方式似乎更具描述性,并且在我的使用中速度不是问题。

现在,地址和数据[0]包含了一个GL_LUMINANCE_ALPHA external格式,类型为GL_UNSIGNED_CHAR,大小为_Width*_Height。这应该会让做这件事情的人们的生活更加轻松。


1

你确定FT_Glyph实际上是一个位图字形吗?请确保首先使用{{link1:FT_Glyph_To_Bitmap}}。

或者,如果之后似乎不需要存储FT_Glyph,那么可以直接执行以下操作:

int error = FT_Load_Char(face, ch, FT_LOAD_RENDER);
if(error)
   return error;

FT_GlyphSlot slot = face->glyph;
FT_Bitmap bitmap = slot->bitmap;

// do stuff with this FT_Bitmap

请参阅此处有关FT_Bitmap的文档。请注意,下次调用FT_Load_Char时,bitmap中的数据将不再有效。

您还有一些内存管理问题。

  1. 您使用new Glyph来分配字形,但从未调用delete。由于您只需要临时创建一个字形以生成纹理和显示列表,因此应使用std::auto_ptr<Glyph>

  2. 您从未调用FT_Glyph_Done,因此分配的所有FT_Glyph都未被释放。


谢谢你关于内存管理的提示。我为了测试目的剥离了所有那部分代码,以确保我的数据不会在不应该被删除的时候意外删除。 - Morgan

-1
"

"16"应为字体大小,单位为点。因此,在翻译过程中应使用字形宽度而非"16"。此外,有些字母可能需要紧排以获得最佳排版效果。例如,如果不使用紧排,则"AV"可能看起来像"A V"。

"

网页内容由stack overflow 提供, 点击上面的
可以查看英文原文,
原文链接