Premiere&After Effects的实时预览插件开发
Posted tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Premiere&After Effects的实时预览插件开发相关的知识,希望对你有一定的参考价值。
一、介绍
Adobe Premiere和After Effects在影视编辑、渲染领域已经得到广泛应用。全景视频在相应工具拼接好后也可以导入Premiere/After Effects后也可进行剪辑、渲染。但由于全景视频存在畸变、视角、拼接技术等因素,即使平铺时也无法很好的查看场景细节。这对于视频剪辑带来一定的不变。如果能一边剪辑视频一边在全景播放器中查看效果,那便再好不过了。gopro旗下的Kolor eye视频播放器就实现了这样的一种功能。实际上这个功能做起来并不难,其实就是基于Adobe Premiere Transmitter插件实现的。当然,Kolor Eye播放器插件也不例外。
二、插件开发
下面就聊聊如何开发吧。Adobe Premiere插件开发使用C++语言,并且依赖官方提供的开发包。因此在正式动手前需要下载好Adobe Plugin SDK。在SDK中的Projects目录下即可打开Demo工程:
在TransmitterPlugin.h文件中,我们先把插件名称修改成自己需要的名字:
#define PLUGIN_DISPLAY_NAME L"Demo Preview"
其他地方保持原样。然后打开对应的cpp文件进行修改。这里要实现两个功能:
- 在恰当的时候启动外部全景播放器。
- 将视频流持续转发给外部全景播放器。
那么应该怎么做呢。TransmitterPlugin.cpp文件中主要注意两个方法即可:StartPlaybackClock()及PushVideo()方法。StartPlaybackClock()方法在即将播放视频的时候调用,我们选择在这个时候启动外部播放器是再自然不过了。这里通过进程枚举来判断外部播放器是否启动了。如果安装了外部播放器且没有启动,则启动播放器;否则直接利用已启动的播放器进行播放。
tmResult TransmitInstance::StartPlaybackClock( const tmStdParms* inStdParms, const tmInstance* inInstance, const tmPlaybackClock* inClock) { ... frameTimeInSeconds = (float)inClock->inStartTime / mTicksPerSecond; // If not yet playing, and called to play, // then register our UpdateClock function that calls the audio callback asynchronously during playback // Note that StartPlaybackClock can be called multiple times without a StopPlaybackClock, // for example if changing playback speed in the timeline. // If already playing, we the callbackContext doesn\'t change, and we let the current clock continue. if (!mPlaying && inClock->inPlayMode == playmode_Playing) { mPlaying = kPrTrue; if (installFlag && !FindProcessByName(wcsrchr(mLocation, L\'/\') + 1)) { HINSTANCE hInstance; hInstance = ShellExecute(NULL, TEXT("open"), mLocation, TEXT("previewplugin 2048 1024"), NULL, SW_SHOWNORMAL); LOGINFO(L"ShellExecute returns %d", (int)hInstance); } // Initialize the ClockInstanceData that the UpdateClock function will need // We allocate the data here, and the data will be disposed at the end of the UpdateClock function ... } return tmResult_Success; }
而PushVideo()根据字面意思就可以知道,是用来转发视频帧数据的,这也是为啥工程名叫Transmitter的原因。接下来,如何将视频帧数据传递给外部播放器呢?这里选择了Windows平台的内存共享技术。
tmResult TransmitInstance::PushVideo( const tmStdParms* inStdParms, const tmInstance* inInstance, const tmPushVideo* inPushVideo) { .... frameTimeInSeconds = (float)inPushVideo->inTime / mTicksPerSecond; mSuites.PPixSuite->GetBounds(inPushVideo->inFrames[0].inFrame, &frameBounds); videoSize[0] = (frameBounds.right - frameBounds.left); videoSize[1] = (frameBounds.bottom - frameBounds.top); // Since we have ARGB color space mode. mSuites.PPixSuite->GetPixelAspectRatio(inPushVideo->inFrames[0].inFrame, &parNum, &parDen); mSuites.PPixSuite->GetPixelFormat(inPushVideo->inFrames[0].inFrame, &pixelFormat); mSuites.SequenceInfoSuite->GetZeroPoint(inInstance->inTimelineID, &zeroPointTime); mSuites.SequenceInfoSuite->GetTimecodeDropFrame(inInstance->inTimelineID, &dropFrame); mSuites.PPixSuite->GetPixels(inPushVideo->inFrames[0].inFrame, PrPPixBufferAccess_ReadWrite, &pixelsBuffer); if (videoSize[0] <= 0 || videoSize[1] <= 0) { // Dispose of the PPix(es) when done! for (int i = 0; i < inPushVideo->inFrameCount; i++) { mSuites.PPixSuite->Dispose(inPushVideo->inFrames[i].inFrame); } return tmResult_Success; } resizePixels((unsigned int*)pixelsBuffer, videoSize[0], videoSize[1], SCALED_WIDTH, SCALED_HEIGHT); if (!startupFlag) { startupFlag = 1; // read registry and launch the player HKEY hKey; DWORD dwSize = MAX_PATH; DWORD dwType = REG_SZ; LPCTSTR studioPath = TEXT("studio"); LPCTSTR playerPath = TEXT("player"); if (ERROR_SUCCESS == RegOpenKeyEx(HKEY_CLASSES_ROOT, studioPath, 0, KEY_READ, &hKey) || ERROR_SUCCESS == RegOpenKeyEx(HKEY_CLASSES_ROOT, playerPath, 0, KEY_READ, &hKey)) { if (ERROR_SUCCESS == RegQueryValueEx(hKey, TEXT("install_location"), 0, &dwType, (LPBYTE)&mLocation, &dwSize)) { installFlag = 1; } RegCloseKey(hKey); } else { ret = MessageBox(NULL, TEXT("We failed to find your Studio/Player installation。"), TEXT("Information"), MB_ICONINFORMATION | MB_OKCANCEL); } if (installFlag) { HINSTANCE hInstance; hInstance = ShellExecute(NULL, TEXT("open"), mLocation, TEXT("previewplugin 2048 1024"), NULL, SW_SHOWNORMAL); LOGINFO(L"ShellExecute returns %d", (int)hInstance); } } // get memory file mapping for pixels buffer. if (hPixelsMappingFile == NULL) { hPixelsMappingFile = CreateFileMapping(INVALID_HANDLE_VALUE, NULL, PAGE_READWRITE, 0, RESIZED_BUFFER_SIZE, TEXT("pixels_buffer")); pbPixelsFile = (void*)MapViewOfFile(hPixelsMappingFile, FILE_MAP_ALL_ACCESS, 0, 0, 0); } if (hPixelsMappingFile != NULL && pbPixelsFile != NULL) { if (videoSize[0] / videoSize[1] == 2) { CopyMemory(pbPixelsFile, resizedBuffer, RESIZED_BUFFER_SIZE); FlushViewOfFile(pbPixelsFile, RESIZED_BUFFER_SIZE); } } ... return tmResult_Success; }
通过查找注册表判断是否安装外部全景播放器。如果已安装则通过安装路径直接启动,否则提示用户。每一帧的数据通过内存共享暴露给外部全景播放器。播放器只需读取这块共享内存即可。至此编码工作完成,简单的不能再简单。将编译好的插件复制到Premiere的插件目录即可查看效果。
三、注意事项
- 依赖库。如果插件依赖外部程序库,在安装的时候也要复制到插件安装目录,或者是windows系统目录,否则插件是无法正常加载的。要查看插件依赖哪些外部程序库,可以使用VS附带的dumpbin命令:dumpbin /imports。有的时候安装可能会混淆32位和64位程序,那么还阔以通过dumpbin /headers查看程序库的版本。
- Premiere/After Effects使用的是ARGB颜色模型。因此在利用外部程序库处理时,可能需要进行适当的转换。
- 权限问题。在高版本的windows上,VS调试系统盘的程序时需要以管理员权限运行打开工程,否则是无法启动程序调试的。
四、参考链接
1. https://forums.adobe.com/thread/1661575
2. http://www.kolor.com/kolor-eyes/
以上是关于Premiere&After Effects的实时预览插件开发的主要内容,如果未能解决你的问题,请参考以下文章
苹果系统After Effect的(23 :: 46) 问题~~~~(满意答案会加分)
CSS 中的 &::before 和 &::after 是啥? [关闭]