我在ARKit应用程序中使用预先训练的CoreML模型,从ARCamera中捕获图像并将其放入CVPixelBuffer中进行处理:
let pixelBuffer: CVPixelBuffer? = sceneView.session.currentFrame?.capturedImage
ARKit可以捕获YCbCr格式的像素缓冲区。要在iPhone显示器上正确渲染这些图像,需要访问像素缓冲区的luma
和chroma
平面,并使用float4x4 ycbcrToRGBTransform
矩阵将全范围YCbCr值转换为sRGB。
但我想知道是否可以在CVPixelBuffer中更改捕获的AR图像的分辨率?
怎么做呢?我需要一个尽可能低的处理。
1条答案
按热度按时间eeq64g8w1#
是的,你能做到。这就是方法!
用法:
参考:https://github.com/hollance/CoreMLHelpers/tree/master/CoreMLHelpers