如何将WebCamTexture中的Color32 []图像转换为iOS中的UIImage?
有谁知道如何有效地做到这一点? 我正在使用EncodeToPNG()函数,但性能非常慢。
我正在尝试使用WebCamTexture捕获Ipad摄像头图像,并将其发送到Objective C端进行一些处理。 我注意到可以发送纹理的本地地址,但我应该如何在ObjC端处理它? 有没有人有任何提示?
谢谢!
正如你所说的EncodeToPNG上的性能太慢了,你需要做的是在摄像头源从iOS(objc)发送到Unity的WebCamTexture之前,将代码挂钩到代码中。
我们使用了一种名为CameraCaptureKit的插件(https://www.assetstore.unity3d.com/en/#!/content/56673),在等待Flash和防抖转换时冻结发送给Unity的图像上。
在由Unity生成的xcode项目中,您可以打开CameraCapture.mm并找到该功能。
- (void)captureOutput:(AVCaptureOutput*)captureOutput didOutputSampleBuffer:(CMSampleBufferRef)sampleBuffer fromConnection:(AVCaptureConnection*)connection
然后,您可以通过修改此代码来修改发送到Unity WebCamTexture的图像。 UnityDidCaptureVideoFrame是您想插入的代码。
intptr_t tex = (intptr_t)CMVideoSampling_SampleBuffer(&self->_cmVideoSampling, sampleBuffer, &self->_width, &self->_height);
UnityDidCaptureVideoFrame(tex, self->_userData);
干杯
链接地址: http://www.djcxy.com/p/68313.html上一篇: How to convert a Color32[] image from WebCamTexture to a UIImage in iOS?