如何使用位图数据设置视频帧捕获

我正在为使用Flash的android实现增强现实应用程序。 为了让应用程序在我的Android手机上运行(nexus One),电话摄像头也必须启动。 所以我需要2层一个用于背景,这是我的手机相机的反馈,另一个是在这种情况下来自away3d的视图。

因此,设置一个BitmapData对象来保存最新的网络摄像头静止帧的信息,我可以做到这一点。

如果我使用papervision3D库和FLARToolkit,则使用本视频教程中找到的以下代码部分设置BitmapData:

//import libraries
 import org.libspark.flartoolkit.core.raster.rgb.FLARRgbRaster_BitmapData;   
 import org.libspark.flartoolkit.detector.FLARSingleMarkerDetector;


 private function setupCamera():void
            {
                vid = new Video(640, 480);
                cam = Camera.getCamera();
                cam.setMode(320, 240, 10);
                vid.attachCamera(cam);
                addChild(vid);
            }   

            private function setupBitmap():void
            {
                bmd = new BitmapData(640, 480);
                bmd.draw(vid);
                raster = new FLARRgbRaster_BitmapData(bmd);
                detector = new FLARSingleMarkerDetector(fparams, mpattern, 80);
            }



private function loop(e:Event):void
            {
                if(detector.detectMarkerLite(raster, 80) && detector.getConfidence() > 0.5)
                {
                    vp.visible = true;
                    detector.getTransformMatrix(trans);
                    container.setTransformMatrix(trans);
                    bre.renderScene(scene, camera, vp);
                    }
                    else{
                    vp.visible = false}
                    }
            catch(e:Error){}}}}

但是,为了实现我的应用程序,我使用Away3D引擎和FLARManager,以及做这件事的方式与我所能理解的非常不同。 我已经实现了下面的代码,但唯一的想法就是在3D视图的前面显示Flash Camera,并且我无法检查我的应用程序是否工作,因为当我没有向我显示任何3D对象时将标记放置在屏幕前方。

我的代码是:

//Setting Up Away3DLite Camera3D
import com.transmote.flar.camera.FLARCamera_Away3DLite;

private var camera3D:FLARCamera_Away3DLite;

this.camera3D = new FLARCamera_Away3DLite(this.flarManager, new Rectangle(0, 0, this.stage.stageWidth, this.stage.stageHeight));

  //Setting Up the bitmapData 
  private function bitmap():void
{
    c = Camera.getCamera();
    c.setMode(320,240,10)
    this.v.attachCamera(c);
    addChild(this.v);         
    bmd = new BitmapData(640,480); 
    bmd.draw(this.v);
   }

你能帮我找出我怎么把这两个结合起来?

我会非常感谢我能从你那里得到的任何建议。

谢谢


为了隔离你的问题,我会尽力把这两件事情分开,并确保每个部分的工作第一。 这听起来像你有相机部分工作,尝试做一些3D(没有AR)绘制立方体或东西。 然后尝试实施AR,但让它做一些简单的事情,例如追踪事物或使对象可见或不可见。 然后开始合并它们。

链接地址: http://www.djcxy.com/p/27901.html

上一篇: How to set Video Frame Capture Using Bitmap Data

下一篇: Adobe Flash 10 GPU and Adobe AIR for Android