Android Camera提取出来的yuv源数据怎么提取y,u,v分量

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Android Camera提取出来的yuv源数据怎么提取y,u,v分量相关的知识,希望对你有一定的参考价值。

android
camera采集到的可以是yuv420sp也可以食yuv420p。我知道yuv420中yuv的分布。现在主要有个前提是从Android
Camera
中采集到的yuv420数据,这个byte[]的长度是一倍的视频宽高乘积,不是1.5倍。在jni里面获取到的长度又确实是1.5倍,但是在jni里面转换为jbyte*
的长度还是1倍,就不知道怎么弄了~
查看原帖>>
参考技术A Camera默认的预览格式是 NV21,4:2:0 结构的,每个U、V用于4个Y
参考下下面的代码
**
* Converts YUV420 NV21 to ARGB8888
*
* @param data byte array on YUV420 NV21 format.
* @param width pixels width
* @param height pixels height
* @retur a ARGB8888 pixels int array. Where each int is a pixels ARGB.
*/
public static int[] convertYUV420_NV21toARGB8888(byte [] data, int width, int height)
int size = width*height;
int offset = size;
int[] pixels = new int[size];
int u, v, y1, y2, y3, y4;

// i along Y and the final pixels
// k along pixels U and V
for(int i=0, k=0; i < size; i+=2, k+=1)
y1 = data[i ]&0xff;
y2 = data[i+1]&0xff;
y3 = data[width+i ]&0xff;
y4 = data[width+i+1]&0xff;

v = data[offset+k ]&0xff;
u = data[offset+k+1]&0xff;
v = v-128;
u = u-128;

pixels[i ] = convertYUVtoARGB(y1, u, v);
pixels[i+1] = convertYUVtoARGB(y2, u, v);
pixels[width+i ] = convertYUVtoARGB(y3, u, v);
pixels[width+i+1] = convertYUVtoARGB(y4, u, v);

if (i!=0 && (i+2)%width==0)
i+=width;


return pixels;


private static int convertYUVtoARGB(int y, int u, int v)
int r,g,b;

r = y + (int)(1.402f*u);
g = y - (int)(0.344f*v + 0.714f*u);
b = y + (int)(1.772f*v);
r = r>255? 255 : r<0 ? 0 : r;
g = g>255? 255 : g<0 ? 0 : g;
b = b>255? 255 : b<0 ? 0 : b;
return 0xff000000 | (r<<16) | (g<<8) | b;
本回答被提问者和网友采纳

将 Android camera2 api YUV_420_888 转换为 RGB

【中文标题】将 Android camera2 api YUV_420_888 转换为 RGB【英文标题】:Convert Android camera2 api YUV_420_888 to RGB 【发布时间】:2015-08-11 05:15:41 【问题描述】:

我正在编写一个应用程序,该应用程序获取相机信息,将其转换为 rgb,以便进行一些处理。

它在使用 NV21 Yuv 格式的旧相机实现上运行良好。 我遇到的问题是新的 Yuv 格式 YUV_420_888。在发送 YUV_420_888 yuv 格式而不是 NV21 (YUV_420_SP) 格式的新 Camera2 Api 中,图像不再正确转换为 RGB。

谁能告诉我应该如何将 YUV_420_888 转换为 RGB?

谢谢

【问题讨论】:

那是针对较旧的相机实施,这对我没有帮助。不过谢谢。 有人把YUV_420_888转成NV21(YUV_420_SP)吗? @ConstantinGeorgiu,上述问题你解决了吗? 我的解决方案将 media.image 作为输入并返回位图 ***.com/a/35994288/5148048)。 看看这个link我用这个方法解决我的问题。 【参考方案1】:

Camera2 YUV_420_888 到 Java 中的 RGB Mat(opencv)

@Override
    public void onImageAvailable(ImageReader reader)
        Image image = null;

        try 
            image = reader.acquireLatestImage();
            if (image != null) 

                byte[] nv21;
                ByteBuffer yBuffer = mImage.getPlanes()[0].getBuffer();
                ByteBuffer uBuffer = mImage.getPlanes()[1].getBuffer();
                ByteBuffer vBuffer = mImage.getPlanes()[2].getBuffer();

                int ySize = yBuffer.remaining();
                int uSize = uBuffer.remaining();
                int vSize = vBuffer.remaining();

                nv21 = new byte[ySize + uSize + vSize];

                //U and V are swapped
                yBuffer.get(nv21, 0, ySize);
                vBuffer.get(nv21, ySize, vSize);
                uBuffer.get(nv21, ySize + vSize, uSize);

                Mat mRGB = getYUV2Mat(nv21);



            
         catch (Exception e) 
            Log.w(TAG, e.getMessage());
        finally
            image.close();// don't forget to close
        
    



    public Mat getYUV2Mat(byte[] data) 
    Mat mYuv = new Mat(image.getHeight() + image.getHeight() / 2, image.getWidth(), CV_8UC1);
    mYuv.put(0, 0, data);
    Mat mRGB = new Mat();
    cvtColor(mYuv, mRGB, Imgproc.COLOR_YUV2RGB_NV21, 3);
    return mRGB;

【讨论】:

这是我找到的最快的方法。其他转换有 for 循环,这会减慢实时处理处理方案的速度。 请注意,这仅在底层缓冲区为 NV21 时有效,即当 uBuffer 和 vBuffer 重叠时,请参阅***.com/a/52740776/192373。 非常适合将 Android CameraX 图像分析帧 (YUV) 转换为 RBG,谢谢。【参考方案2】:

在我的方法中,我使用 OpenCV Mat 和脚本 https://gist.github.com/camdenfullmer/dfd83dfb0973663a7974

首先,使用上面链接中的代码将 YUV_420_888 图像转换为 Mat。

*mImage 是我在 ImageReader.OnImageAvailableListener 中获得的 Image 对象

Mat mYuvMat = imageToMat(mImage);

public static Mat imageToMat(Image image) 
    ByteBuffer buffer;
    int rowStride;
    int pixelStride;
    int width = image.getWidth();
    int height = image.getHeight();
    int offset = 0;

    Image.Plane[] planes = image.getPlanes();
    byte[] data = new byte[image.getWidth() * image.getHeight() * ImageFormat.getBitsPerPixel(ImageFormat.YUV_420_888) / 8];
    byte[] rowData = new byte[planes[0].getRowStride()];

    for (int i = 0; i < planes.length; i++) 
        buffer = planes[i].getBuffer();
        rowStride = planes[i].getRowStride();
        pixelStride = planes[i].getPixelStride();
        int w = (i == 0) ? width : width / 2;
        int h = (i == 0) ? height : height / 2;
        for (int row = 0; row < h; row++) 
            int bytesPerPixel = ImageFormat.getBitsPerPixel(ImageFormat.YUV_420_888) / 8;
            if (pixelStride == bytesPerPixel) 
                int length = w * bytesPerPixel;
                buffer.get(data, offset, length);

                if (h - row != 1) 
                    buffer.position(buffer.position() + rowStride - length);
                
                offset += length;
             else 


                if (h - row == 1) 
                    buffer.get(rowData, 0, width - pixelStride + 1);
                 else 
                    buffer.get(rowData, 0, rowStride);
                

                for (int col = 0; col < w; col++) 
                    data[offset++] = rowData[col * pixelStride];
                
            
        
    

    Mat mat = new Mat(height + height / 2, width, CvType.CV_8UC1);
    mat.put(0, 0, data);

    return mat;

我们有 1 个通道的 YUV Mat。为 BGR(还不是 RGB)图像定义新的 Mat:

Mat bgrMat = new Mat(mImage.getHeight(), mImage.getWidth(),CvType.CV_8UC4);

我刚开始学习 OpenCV,所以这不一定是 4 通道 Mat,而是可以是 3 通道,但它适用于我。 现在我使用转换颜色方法将我的 yuv Mat 更改为 bgr Mat。

Imgproc.cvtColor(mYuvMat, bgrMat, Imgproc.COLOR_YUV2BGR_I420);

现在我们可以进行所有的图像处理,比如寻找轮廓、颜色、圆圈等。要将图像打印回屏幕上,我们需要将其转换为位图:

Mat rgbaMatOut = new Mat();
Imgproc.cvtColor(bgrMat, rgbaMatOut, Imgproc.COLOR_BGR2RGBA, 0);
final Bitmap bitmap = Bitmap.createBitmap(bgrMat.cols(), bgrMat.rows(), Bitmap.Config.ARGB_8888);
Utils.matToBitmap(rgbaMatOut, bitmap);

我在单独的线程中处理所有图像,因此要设置我的 ImageView,我需要在 UI 线程上执行此操作。

runOnUiThread(new Runnable() 
                    @Override
                    public void run() 
                        if(bitmap != null) 
                            mImageView.setImageBitmap(bitmap);
                        
                    
                );

【讨论】:

【参考方案3】:

您是否尝试过使用此脚本?这是yydcdut 在this 问题上发布的答案

https://github.com/pinguo-yuyidong/Camera2/blob/master/camera2/src/main/rs/yuv2rgb.rs

【讨论】:

【参考方案4】:

Use Shyam Kumar 的答案不适用于我的手机,但 Daniel Więcek 的答案是正确的。我调试它,发现 planes[i].getRowStride() 是 1216,planes[i].getPixelStride() 是 2。而图像宽度和高度都是1200。

因为我的声誉是 3,所以我不能发表评论,只能发布答案。

【讨论】:

您可以在此处找到从 Image 到 NV21(可以馈送到 OpenCV)的优化 Java 转换器:***.com/a/52740776/192373。请注意,在大多数情况下,renderscript conversion 会比 CPU 更快,并且不需要 OpenCV。【参考方案5】:

比上面提到的“imageToMat”快大约 10 倍 - 上面的函数是这段代码:

Image image = reader.acquireLatestImage();
...
Mat yuv = new Mat(image.getHeight() + image.getHeight() / 2, image.getWidth(), CvType.CV_8UC1);
ByteBuffer buffer = image.getPlanes()[0].getBuffer();
final byte[] data = new byte[buffer.limit()];
buffer.get(data);
yuv.put(0, 0, data);
...
image.close();

【讨论】:

我看不出您的答案如何正确...imageToMat 和我测试过的更简单的函数会产生两个不同的字节数组。如果 OpenCV 可以从 Camera2 api 处理这种新的 YUV 格式,那就太好了。但是下一个转换: Imgproc.cvtColor(mYuvMat, bgrMat, mgproc.COLOR_YUV2BGR_I420);至关重要,对于我的所有测试,只有 imageToMat 产生了良好的结果。如果有 YUV2BGR_CAMERA2_API 你的答案会更好。也许现在是。现在是两个月后;) 这可能适用于某些设备,其中 yBuffer(即image.getPlanes(0))实际上是完整的 NV21 直接缓冲区。这种情况很少见。【参考方案6】:

所以我遇到了完全相同的问题,我有一个代码从 OnPreviewFrame() 中获取旧的 YUV_420_SP 格式字节 [] 数据并将其转换为 RGB。

这里的关键是 byte[] 中的“旧”数据为 YYYYYY...CrCbCrCbCrCb,而来自 Camera2 API 的“新”数据分为 3 个平面:0=Y,1=Cb, 2=Cr.,您可以从中获取每个字节[]s。因此,您需要做的就是将新数据重新排序为与“旧”格式匹配的单个数组,您可以将其传递给现有的 toRGB() 函数:

Image.Plane[] planes = image.getPlanes(); // in YUV220_888 format
int acc = 0, i;
ByteBuffer[] buff = new ByteBuffer[planes.length];

for (i = 0; i < planes.length; i++) 
   buff[i] = planes[i].getBuffer();
   acc += buff[i].capacity();

byte[] data = new byte[acc],
   tmpCb = new byte[buff[1].capacity()] , tmpCr = new byte[buff[2].capacity()];

buff[0].get(data, 0, buff[0].capacity()); // Y
acc = buff[0].capacity();

buff[2].get(tmpCr, 0, buff[2].capacity()); // Cr
buff[1].get(tmpCb, 0, buff[1].capacity()); // Cb

for (i=0; i<tmpCb.length; i++) 
    data[acc] = tmpCr[i];
    data[acc + 1] = tmpCb[i];
    acc++;

..现在 data[] 的格式与旧的 YUV_420_SP 一样。

(希望它对某人有所帮助,尽管已经过去了很多年......)

【讨论】:

您的答案看起来很有希望,确实让我免于崩溃到转换后的位图。可悲的是,生成的位图只有绿色和灰色的步幅...... 请注意,这只适用于底层缓冲区为 YV12 的情况,即当 uBuffer 和 vBuffer 的 pixelStride=1 时。

以上是关于Android Camera提取出来的yuv源数据怎么提取y,u,v分量的主要内容,如果未能解决你的问题,请参考以下文章

Unity 渲染YUV数据 ---- 以Unity渲染Android Camera数据为例子

Unity 渲染YUV数据 ---- 以Unity渲染Android Camera数据为例子

Unity 渲染YUV数据 ---- 以Unity渲染Android Camera数据为例子

Android Camera2 ImageReader 图像格式 YUV

Android camera2 曝光问题。在使用 YUV ImageReader 的情况下预览过度曝光

安卓camera2 API获取YUV420_888格式详解