为啥在从文件加载表面时转换 SDL 表面有效,但在从字体文件生成表面时无效

Posted

技术标签:

【中文标题】为啥在从文件加载表面时转换 SDL 表面有效,但在从字体文件生成表面时无效【英文标题】:Why does converting a SDL Surface work when the surface was loaded from a file but not when it was generated from a font file为什么在从文件加载表面时转换 SDL 表面有效,但在从字体文件生成表面时无效 【发布时间】:2017-03-22 08:44:05 【问题描述】:

在我的第二个项目中,我使用 opengl 和 SDL2。我想使用 SDL2 将文本渲染到表面,然后进行转换。

我已经使用 SDL 从文件中加载纹理,所以我有一个可以转换表面的函数。仍然当我提供由 TTF_Render 函数生成的表面时,结果是这样的:

现在我不知道为什么会发生这种情况,因此我们将不胜感激。

我正在使用 SDL_ttf 库来加载文件。 我正在使用 Visual Studio 2015 作为 ide。

这是我的转换函数:

GLuint JUMA_Texture::loadFromSurface(SDL_Surface *img, GLenum target, GLenum filtering) 
    GLuint TextureID = 0;
    glGenTextures(1, &TextureID);
    glBindTexture(GL_TEXTURE_2D, TextureID);
    std::cout << " got " << img;
    if (target == GL_TEXTURE_2D)
    
        glTexParameteri(target, GL_TEXTURE_MIN_FILTER, GL_NEAREST);
        glTexParameteri(target, GL_TEXTURE_MAG_FILTER, GL_NEAREST);
        glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_WRAP_S, GL_REPEAT);   // Set texture wrapping to GL_REPEAT
        glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_WRAP_T, GL_REPEAT);
    
    int Mode = GL_RGB;
    if (img->format->BytesPerPixel == 4) 
        glEnable(GL_BLEND);
        glBlendFunc(GL_SRC_ALPHA, GL_ONE_MINUS_SRC_ALPHA);
        transparent = true;
        Mode = GL_RGBA;
    

    glTexImage2D(GL_TEXTURE_2D, 0, Mode, img->w, img->h, 0, Mode, GL_UNSIGNED_BYTE, img->pixels);
    glGenerateMipmap(target);
    return TextureID;

我在发送到函数之前和之后打印了表面指针的地址,它们看起来相同。

此外,我正在使用 SDL_SaveBmp 将表面写入文件,看起来也很好。

编辑:

应要求,我现在将发布使用函数的代码以及我的着色器和纹理类的构造函数。

着色器构造器/加载器

printf("Loading shader");
    // 1. Retrieve the vertex/fragment source code from filePath
    std::string vertexCode;
    std::string fragmentCode;
    std::ifstream vShaderFile;
    std::ifstream fShaderFile;
    strcpy_s(Fragpath, fragmentPath);
    strcpy_s(Vertexpath, vertexPath);

    printf(".");
    // ensures ifstream objects can throw exceptions:
    vShaderFile.exceptions(std::ifstream::badbit);
    fShaderFile.exceptions(std::ifstream::badbit);
    try
    
        // Open files
        vShaderFile.open(vertexPath);
        fShaderFile.open(fragmentPath);
        std::stringstream vShaderStream, fShaderStream;
        // Read file's buffer contents into streams
        vShaderStream << vShaderFile.rdbuf();
        fShaderStream << fShaderFile.rdbuf();
        // close file handlers
        vShaderFile.close();
        fShaderFile.close();
        // Convert stream into string
        vertexCode = vShaderStream.str();
        fragmentCode = fShaderStream.str();
        printf(".");
    
    catch (std::ifstream::failure e)
    
        std::cout << "ERROR::SHADER::FILE_NOT_SUCCESFULLY_READ" << std::endl;
    
    const GLchar* vShaderCode = vertexCode.c_str();
    const GLchar * fShaderCode = fragmentCode.c_str();
    // 2. Compile shaders
    GLuint vertex, fragment;
    GLint success;
    GLchar infoLog[512];
    // Vertex Shader
    vertex = glCreateShader(GL_VERTEX_SHADER);
    glShaderSource(vertex, 1, &vShaderCode, NULL);
    glCompileShader(vertex);
    // Print compile errors if any
    glGetShaderiv(vertex, GL_COMPILE_STATUS, &success);
    printf(".");
    if (!success)
    
        glGetShaderInfoLog(vertex, 512, NULL, infoLog);
        std::cout << "ERROR::SHADER::VERTEX::COMPILATION_FAILED\n" << infoLog << std::endl;
    
    // Fragment Shader
    fragment = glCreateShader(GL_FRAGMENT_SHADER);
    glShaderSource(fragment, 1, &fShaderCode, NULL);
    glCompileShader(fragment);
    // Print compile errors if any
    glGetShaderiv(fragment, GL_COMPILE_STATUS, &success);
    if (!success)
    
        glGetShaderInfoLog(fragment, 512, NULL, infoLog);
        std::cout << "ERROR::SHADER::FRAGMENT::COMPILATION_FAILED\n" << infoLog << std::endl;
    
    printf(".");
    // Shader Program
    this->Program = glCreateProgram();
    glAttachShader(this->Program, vertex);
    glAttachShader(this->Program, fragment);
    glLinkProgram(this->Program);
    // Print linking errors if any
    glGetProgramiv(this->Program, GL_LINK_STATUS, &success);
    if (!success)
    
        glGetProgramInfoLog(this->Program, 512, NULL, infoLog);
        std::cout << "ERROR::SHADER::PROGRAM::LINKING_FAILED\n" << infoLog << std::endl;
    
    printf(".");
    // Delete the shaders as they're linked into our program now and no longer necessery
    glDeleteShader(vertex);
    glDeleteShader(fragment);
    printf("done\n");

着色器使用功能

void JUMA_Shader::Use()

    glUseProgram(this->Program);

纹理构造函数

printf("loading Texture");
    int pos;
    pos = filePath.find(".");
    if (filePath.substr(pos) == ".png") 

        IMG_Init(IMG_INIT_PNG);
    
    else if (filePath.substr(pos) == ".jpg")
        IMG_Init(IMG_INIT_JPG);

    SDL_Surface *img = IMG_Load(filePath.c_str());
    id = loadFromSurface(img,target,filtering);

Texture::loadFromSurface(注意:我还没有实现对 GL_BGR 和 GL_BGRA 的检查,但是我已经手动尝试了这两种模式,但目前没有不同的效果。)

GLuint JUMA_Texture::loadFromSurface(SDL_Surface *img, GLenum target, GLenum filtering) 
    GLuint TextureID = 0;
    glGenTextures(1, &TextureID);
    glBindTexture(GL_TEXTURE_2D, TextureID);
    std::cout << " got " << img;
    if (target == GL_TEXTURE_2D)
    
        glTexParameteri(target, GL_TEXTURE_MIN_FILTER, GL_NEAREST);
        glTexParameteri(target, GL_TEXTURE_MAG_FILTER, GL_NEAREST);
        glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_WRAP_S, GL_REPEAT);   // Set texture wrapping to GL_REPEAT
        glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_WRAP_T, GL_REPEAT);
    
    int Mode = GL_RGB;
    if (img->format->BytesPerPixel == 4) 
        glEnable(GL_BLEND);
        glBlendFunc(GL_SRC_ALPHA, GL_ONE_MINUS_SRC_ALPHA);
        transparent = true;
        Mode = GL_RGBA;
    

    glTexImage2D(GL_TEXTURE_2D, 0, Mode, img->w, img->h, 0, Mode, GL_UNSIGNED_BYTE, img->pixels);
    glGenerateMipmap(target);
    return TextureID;

纹理::使用

int JUMA_Texture::use(GLenum Channel) 
    glActiveTexture(Channel);   // Activate the texture unit first before binding texture
    glBindTexture(GL_TEXTURE_2D, id);

    if (transparent)
    
        glEnable(GL_BLEND);
        glBlendFunc(GL_SRC_ALPHA, GL_ONE_MINUS_SRC_ALPHA);

    
    return 1;

这也是我现在看到的(请注意,我已经再次检查,这不是我之前所说的为我的字体设置的颜色。我不知道这种蓝色来自哪里。我目前正在尝试解决这个问题)

最后是我的顶点着色器:

#version 330 core
layout (location = 0) in vec3 position;
layout (location = 1) in vec3 texcoords;
out vec2 texCoords;
uniform mat4 model;
uniform mat4 view;
uniform mat4 projection;
out vec4 pos;
void main()

    pos=gl_Position = projection*view*model*vec4(position,1.0f);
    texCoords=vec2(texcoords.xy);
;

还有我的片段着色器:

#version 330 core
out vec4 color;
in vec2 texCoords;
in vec4 pos;
uniform sampler2D ourTexture;
uniform vec4 mixCol;

void main()

    vec4 texColor = texture(ourTexture, texCoords);
    if(texColor.a < 0.1f)
         discard;

    color = texColor;
;

我的字体构造函数

    JUMA_Font::JUMA_Font(char *path, int size, SDL_Color color, char* text, char *uniform) 
    TTF_Init();
    font = TTF_OpenFont(path, 40);
    sourceSurface = TTF_RenderText_Blended(font, text, color);
    printf("%d %d %d %d", color.r, color.g, color.b, color.a);
;

将字体转换为纹理

JUMA_Texture convertToTexture() 
        JUMA_Texture _this;
        SDL_SaveBMP(sourceSurface, "out.bmp"); //outputs font correctly
        std::cout << "Expected " << sourceSurface;
        _this.id = _this.loadFromSurface(sourceSurface,GL_TEXTURE_2D,GL_NEAREST);

        return _this;
    

【问题讨论】:

我有点困惑。您添加的代码是从文件(纹理构造函数)加载纹理,您说它工作正常。还是这样吗? IE。当您从文件加载图像并将表面发送到loadFromSurface() 时,一切正常吗?在这种情况下,代码中有趣的部分是从字体 (TTF_Render*) 创建表面,但该字体仍然缺失。 好的,我正在添加完整的字体类...请按住 @Meyer 我已经添加了你想要的一切。图像仍然正确加载 @Meyer 我也可能不得不补充一点,即使在加载图像时透明度也不起作用。 @Meyer 在搞砸了一点后,我发现在` glTexImage2D(GL_TEXTURE_2D, 0, Mode, img->w, img->h, 0, Mode, GL_UNSIGNED_BYTE, img ->pixels);` 到 GL_BGRA 使矩形的颜色从蓝色变为我为字体选择的颜色。 【参考方案1】:

这看起来像您使用TTF_Render*_Solid()TTF_Render*_Shaded() 生成的表面。 但是,这些函数return an 8-bit palettized surface, OpenGL不明白。 这在您的函数中未检测到,您将源格式(模式)设置为 GL_RGB 或 GL_RGBA,在这种情况下两者都不正确。

作为一种解决方案,请确保使用TTF_Render*_Blended() 函数之一以混合模式呈现文本。 这些将创建一个完整的 BGRA 表面,然后可以与 glTexImage2D() 一起使用。

还要注意it is recommended 使用 glTexImage2D() 的特定内部格式,因此函数调用应如下所示:

glTexImage2D(GL_TEXTURE_2D, 0,
  GL_RGBA8,
  img->w, img->h, 0,
  GL_BGRA,
  GL_UNSIGNED_BYTE, img->pixels);

【讨论】:

我像你说的那样把函数改成了 TTF_Render_Blended 但现在整个四边形都用我指定的 SDL_Color 着色。我确定这不是着色器问题。 我能想到几个原因。确保 UV 坐标正确,并且确实将纹理映射到四边形上。确保采样正确的颜色通道。最后但并非最不重要的一点是,确保真正启用了 Alpha 混合。作为一个简单的测试,在片段着色器中使用类似这样的东西:if (sampledColor.a &lt; 0.5) discard;。如果文本被渲染(没有抗锯齿),那么 alpha 混合确实是问题所在。否则,如果您将完整的纹理加载代码以及相关的着色器代码添加到您的问题中,以供进一步审查,这将很有用。 我已经添加了你想要的所有功能。混合应该没问题。如果还有什么我应该提供的,请立即询问。另外我很抱歉造成混乱,但四边形的颜色实际上不是我最初使用字体的颜色。我弄错了。

以上是关于为啥在从文件加载表面时转换 SDL 表面有效,但在从字体文件生成表面时无效的主要内容,如果未能解决你的问题,请参考以下文章

纹理的 SDL 渲染器参数,但表面不需要

将 SDL 表面转换为 GL 纹理时出现问题

SDL2/表面/纹理/渲染

在 SDL 中,SDL_Quit() 是不是释放每个表面?

表面和纹理之间的区别(SDL/一般)

SDL:Listmodes 仅返回 640 x 480