glCreateShader 在 OSX 上抛出异常,为啥?
Posted
技术标签:
【中文标题】glCreateShader 在 OSX 上抛出异常,为啥?【英文标题】:glCreateShader throwing exception on OSX, why?glCreateShader 在 OSX 上抛出异常,为什么? 【发布时间】:2016-01-25 02:25:02 【问题描述】:我有一些代码,我直接按照教程生成三角形。作者正在 Windows 中编写他的代码,但他说这也可以在 OSX 中完成。我能够编译程序,但是当它遇到 glCreateShader 时会抛出异常。我到处看了看,但我不知道出了什么问题。这一定是一些新手的错误。有谁知道可能出了什么问题?
#include <iostream>
#include <string>
#include <Dunjun/Common.hpp>
#include <GL/glew.h>
#include <OpenGL/glext.h>
#include <OpenGL/gl.h>
#include <GLFW/glfw3.h>
#define GLOBAL static
#define internal static
#define LOCAL_PERSIST static
#define float32 float
#define float64 double
GLOBAL const int g_windowWidth = 854;
GLOBAL const int g_windowHeight = 480;
GLOBAL const char* g_gameTitle = "Dunjun";
GLFWwindow *toggleFullScreenWindow(GLFWwindow *window, int key);
void setColor(float32 red, float32 blue, float32 green, float32 alpha);
bool toggleExit(GLFWwindow *window, bool isRunning);
GLFWwindow* initialize_window(int width, int height, const char* title);
void init_glfw();
void init_glew();
void glfwHints();
int main(int argc, char **argv)
GLFWwindow *window = initialize_window(g_windowWidth, g_windowHeight, g_gameTitle);
float vertices[] =
+0.0f, -0.5f, //vertex 1
-0.5f, -0.5f, //vertex 2
+0.5f, -0.5f //vertex 3
;
const char* vertexShaderText =
"version 120\n"
"\n"
"attribute vec2 position"
"void main()"
""
" gl_position = vec4(position, 0.0, 1.0);"
""
;
const char* framentShaderText =
"version 120\n"
"\n"
"void main()"
""
" gl_FragColor = vec4(1.0, 0.0, 0.0, 1.0);"
""
;
GLuint vertexShader = glCreateShader(GL_VERTEX_SHADER);
glShaderSource(vertexShader, 1, &vertexShaderText, nullptr);
glCompileShader(vertexShader);
GLuint fragmentShader = glCreateShader(GL_FRAGMENT_SHADER);
glShaderSource(fragmentShader, 1, &vertexShaderText, nullptr);
glCompileShader(vertexShader);
GLuint shaderProgram = glCreateProgram();
glAttachShader(shaderProgram, vertexShader);
glAttachShader(shaderProgram, fragmentShader);
glBindAttribLocation(shaderProgram, 0, "position");
glLinkProgram(shaderProgram);
glUseProgram(shaderProgram);
GLuint vertexBufferObject;
glGenBuffers(1, &vertexBufferObject);
glBindBuffer(GL_ARRAY_BUFFER, vertexBufferObject);
glBufferData(GL_ARRAY_BUFFER, sizeof(vertices), vertices, GL_STATIC_DRAW);
/*
* GL_STATIC_DRAW Things that are static
* GL_DYNAMIC_DRAW Things that are changed but not to often
* GL_STREAM_DRAW THings that change all the time.
*/
bool running = true;
/* Loop until the user closes the window */
while (running)
/* Render here */
setColor(0.5f, 0.69f, 1.0f, 1.0f);
//draw things
glEnableVertexAttribArray(0);
glVertexAttribPointer(0, 2, GL_FLOAT, GL_FALSE, 0, nullptr);
glDrawArrays(GL_TRIANGLES, 0, 3);
glDisableVertexAttribArray(0);
/*Swap front and back buffers */
glfwSwapBuffers(window);
/*poll for and process events*/
glfwPollEvents();
running = toggleExit(window, running);
window = toggleFullScreenWindow(window, GLFW_KEY_F11);
glfwTerminate();
return EXIT_SUCCESS;
void glfwHints()
glfwWindowHint(GLFW_VERSION_MAJOR, 2);
glfwWindowHint(GLFW_VERSION_MINOR, 1);
void setColor(float32 red, float32 blue, float32 green, float32 alpha)
glClearColor(red, green, blue, alpha);
glClear(GL_COLOR_BUFFER_BIT);
bool toggleExit(GLFWwindow *window, bool isRunning)
if (glfwGetKey(window, GLFW_KEY_ESCAPE) ||
glfwWindowShouldClose(window))
isRunning = false;
return isRunning;
GLFWwindow* initialize_window(int width, int height, const char* title)
init_glfw();
/* Create a windowed mode window and its OpenGL context */
glfwHints();
GLFWwindow *window = glfwCreateWindow(width, height, title, nullptr, nullptr);
if (!window)
glfwTerminate();
exit(EXIT_FAILURE);
glfwMakeContextCurrent(window);
init_glew();
return window;
GLFWwindow *toggleFullScreenWindow(GLFWwindow *window, int key)
if (glfwGetKey(window, key))
LOCAL_PERSIST bool isFullScreen = false;
isFullScreen = !isFullScreen;
GLFWwindow *newWindow;
if (isFullScreen)
int count;
const GLFWvidmode *modes = glfwGetVideoModes(glfwGetPrimaryMonitor(), &count);
int monitorHeight = modes[count - 1].height;
int monitorWidth = modes[count - 1].width;
newWindow = glfwCreateWindow(monitorWidth, monitorHeight, g_gameTitle, glfwGetPrimaryMonitor(), window);
else
newWindow = glfwCreateWindow(g_windowWidth, g_windowHeight, g_gameTitle, nullptr, window);
glfwDestroyWindow(window);
glfwMakeContextCurrent(newWindow);
return newWindow;
void init_glew()
if(!glewInit())
std :: cout << "glew failed to init!";
exit(EXIT_FAILURE);
void init_glfw()
if (!glfwInit())
std :: cout << "glfw failed to init!";
exit(EXIT_FAILURE);
更新:我已编辑代码以包含建议的更改,但 glewInit() 返回错误值。还有什么可能是错的。
【问题讨论】:
【参考方案1】:您必须决定是否要使用 GLEW,然后始终如一地坚持下去。 Mac OS 不需要它,我建议避免使用它。但是有些人还是喜欢用它,所以这是你的选择。
你现在拥有的是:
#include <GL/glew.h>
#ifndef __APPLE__
#include <OpenGL/glext.h>
#include <OpenGL/gl.h>
#endif
...
#ifndef __APPLE__
if(!glewInit())
exit(EXIT_FAILURE);
#endif
您包含 GLEW 标头,但未初始化 GLEW。 GLEW 标头将包含 OpenGL 入口点的声明,但它们是函数指针,在 GLEW 初始化之前它将为空。所以如果你之后调用glCreateShader()
,它将是一个空函数指针。
要纠正这个问题,您需要包含原生 OpenGL 标头,其中包含实际 OpenGL 入口点的声明,而不仅仅是函数指针:
#ifdef __APPLE__
#include <OpenGL/gl.h>
#else
#include <GL/glew.h>
#endif
【讨论】:
我更新了我的代码以包含您建议的更改。然而 glewInit() 返回错误。 @BrianYeh 我不明白。glewInit()
如果您甚至没有在 Mac OS 上调用它,它怎么能返回 false?【参考方案2】:
glfwMakeContextCurrent(window);
必须在 初始化 GLEW 之前调用。如果您在main()
中交换glewInit()
和initialize_window()
的顺序,那么一切都应该正常
【讨论】:
我读到了这个。我的 glewInit() 在 OSX 下也有异常崩溃。然后我在某处读到,对于 OSX,你不需要 glewInit()。请参阅此处:***.com/questions/11212347/glewinit-fails-on-macos 请注意,我的 init_glew() 函数甚至没有在我的平台上调用。 @BrianYeh:真的,这更像是 GLEW 本身在 OS X 上是不需要的。但如果你确实使用 GLEW,你必须致电glewInit()
。
好的,我用您建议的更改更新了代码,glewInit() 返回错误,所以我不确定出了什么问题。
@BrianYeh 嗯,我也不确定。自从我拥有 Mac 以来已经两年了。但那时,我根本不知道自己在做什么。我只记得对于 GLEW 或 GLFW,OS X 上的情况略有不同,但我不记得具体是什么。我可能尝试过 GLEW 和 GLFW 以外的其他方法,或者我可能跳过了 GLEW以上是关于glCreateShader 在 OSX 上抛出异常,为啥?的主要内容,如果未能解决你的问题,请参考以下文章
为啥 FileSystemXmlApplicationContext 在存在的文件上抛出 FileNotFoundException
AVAudioRecorder 在 prepareToRecord 上抛出异常