如何使用位图数据设置视频帧捕获
我正在为使用Flash的android实现增强现实应用程序。 为了让应用程序在我的Android手机上运行(nexus One),电话摄像头也必须启动。 所以我需要2层一个用于背景,这是我的手机相机的反馈,另一个是在这种情况下来自away3d的视图。
因此,设置一个BitmapData对象来保存最新的网络摄像头静止帧的信息,我可以做到这一点。
如果我使用papervision3D库和FLARToolkit,则使用本视频教程中找到的以下代码部分设置BitmapData:
//import libraries
import org.libspark.flartoolkit.core.raster.rgb.FLARRgbRaster_BitmapData;
import org.libspark.flartoolkit.detector.FLARSingleMarkerDetector;
private function setupCamera():void
{
vid = new Video(640, 480);
cam = Camera.getCamera();
cam.setMode(320, 240, 10);
vid.attachCamera(cam);
addChild(vid);
}
private function setupBitmap():void
{
bmd = new BitmapData(640, 480);
bmd.draw(vid);
raster = new FLARRgbRaster_BitmapData(bmd);
detector = new FLARSingleMarkerDetector(fparams, mpattern, 80);
}
private function loop(e:Event):void
{
if(detector.detectMarkerLite(raster, 80) && detector.getConfidence() > 0.5)
{
vp.visible = true;
detector.getTransformMatrix(trans);
container.setTransformMatrix(trans);
bre.renderScene(scene, camera, vp);
}
else{
vp.visible = false}
}
catch(e:Error){}}}}
但是,为了实现我的应用程序,我使用Away3D引擎和FLARManager,以及做这件事的方式与我所能理解的非常不同。 我已经实现了下面的代码,但唯一的想法就是在3D视图的前面显示Flash Camera,并且我无法检查我的应用程序是否工作,因为当我没有向我显示任何3D对象时将标记放置在屏幕前方。
我的代码是:
//Setting Up Away3DLite Camera3D
import com.transmote.flar.camera.FLARCamera_Away3DLite;
private var camera3D:FLARCamera_Away3DLite;
this.camera3D = new FLARCamera_Away3DLite(this.flarManager, new Rectangle(0, 0, this.stage.stageWidth, this.stage.stageHeight));
//Setting Up the bitmapData
private function bitmap():void
{
c = Camera.getCamera();
c.setMode(320,240,10)
this.v.attachCamera(c);
addChild(this.v);
bmd = new BitmapData(640,480);
bmd.draw(this.v);
}
你能帮我找出我怎么把这两个结合起来?
我会非常感谢我能从你那里得到的任何建议。
谢谢
为了隔离你的问题,我会尽力把这两件事情分开,并确保每个部分的工作第一。 这听起来像你有相机部分工作,尝试做一些3D(没有AR)绘制立方体或东西。 然后尝试实施AR,但让它做一些简单的事情,例如追踪事物或使对象可见或不可见。 然后开始合并它们。
链接地址: http://www.djcxy.com/p/27901.html