【AR实验室】mulberryAR : ORBSLAM2+VVSION

  • 时间:
  • 浏览:0
  • 来源:极速快3_快3计划三期必中_极速快3计划三期必中

本文转载请注明出处 —— polobymulberry-博客园

0x00 - 前言


mulberryAR是我业余时间弄的另另1个AR引擎,目前主要支持单目视觉SLAM+3D渲染,因此支持iOS端,因此该引擎能够很方便地移植到Android端。slam模块使用的是ORB-SLAM2,3d渲染模块使用的是VVSION渲染引擎。该引擎目前实现的功能为简单的3D模型摆放,用户能够对3D模型进行平移、旋转和缩放。

先放两张mulberryAR的效果图。

0x01 - 单目视觉SLAM模块


单目视觉SLAM模块采用的是ORB-SLAM2。ORB-SLAM2是目前比较优秀的视觉SLAM系统,其输入为图像视频流,通过SLAM计算出每帧图像对应的相机位姿以及许多行态点对应的3D位置。不过mulberryAR目前只用到了每帧对应的相机位姿。

目前mulberryAR对ORB-SLAM2越来越做越多的修改,因此为了集成进mulberryAR中,能够对ORB-SLAM2的接口做出许多修改以适应iOS系统的移动设备。许多每项主要参考两份资料:

  • ORB_SLAM_iOS ORB-SLAM在iOS上的移植,作者去除了ORB-SLAM对ROS的依赖,并使用了iOS的Metal和Scene Kit进行渲染。相比ORB-SLAM2,还能够依赖boost库。
  • ORB-SLAM2注释版 作者对ORB-SLAM2进行了删改地注释,换成了BoW(Bag of Word)的二进制文件加载措施。

修改1:ORB-SLAM2里边使用了BoW(Bag of Word)进行行态匹配。其中的BoW是通过加载ORB-SLAM2原始文件中的ORBvoc.txt获取的,不过移动端直接加载ORBVoc.txt文本文件来构建BoW非常耗时,在苹果机54 75s上要几分钟时间。使用ORB-SLAM2注释版中Vocabulary/bin_vocabulary.cpp能够将ORBVoc.txt转换为ORBVoc.bin。因此使用该版本DBoW2和g2o替换ORB-SLAM2中的DBoW2和g2o,ORB-SLAM2注释版里边的/Thirdparty/DBoW2/DBoW2/TemplatedVocabulary.h换成了loadFromBinaryFile函数,能够直接加载ORBVoc.bin,在苹果机54 75s换成载的时间也降到小于3秒钟。

修改2:ORB-SLAM2源码中的示例获取图像视频流的措施是通过解析预先补救好的视频文件,而mulberryAR能够通过苹果机54 7设备实时捕捉图像视频。这能够能使用iOS的视频捕捉模块。一开始 捕捉措施参考了我时候的博客【AR实验室】OpenGL ES绘制相机(OpenGL ES 1.0版本)中的0x02 - AVCaptureSession获取拍摄内容小节。获取到了图像就能够调用ORB-SLAM2中的System::TrackMonocular函数求解位姿。注意TrackMonocular很耗时,好多好多 亲戚亲戚其他同学都都都都 构建另另1个DISPATCH_QUEUE_SERIAL类型的守护进程,并将TrackMonocular抛给它。另外在主守护进程dispatch_get_main_queue()中利用TrackMonocular得到的相机位姿进行绘制。

修改3:图形学中绘制另另1个很糙要的矩阵:模型视图矩阵ModelView,却说将3D模型从模型局部坐标系转化到相机坐标系的另另1个转化矩阵。注意TrackMonocular函数返回的Tcw能够一定的转化能够作为模型视图矩阵,许多步删改参考了ORB_SLAM_iOS中的补救措施,原困我删改都是的是很清楚为什么么么在在要越来越补救,尤其是两处取负号的每项,好多好多 此处将代码列出供亲戚亲戚其他同学都都都都 参考。

// poseR = mCurrentFrame.mTcw.rowRange(0,3).colRange(0,3);
// 当前帧变化矩阵的旋转每项
cv::Mat R = _slam->getCurrentPose_R();
// poseT = mCurrentFrame.mTcw.rowRange(0,3).col(3);
// 当前帧变化矩阵的平移每项
cv::Mat T = _slam->getCurrentPose_T();

// 将旋转矩阵转化为四元数,注意qy和qz的取了负号。
float qx,qy,qz,qw;
qw = sqrt(1.0 + R.at<float>(0,0) + R.at<float>(1,1) + R.at<float>(2,2)) / 2.0;
qx = (R.at<float>(2,1) - R.at<float>(1,2)) / (4*qw);
qy = -(R.at<float>(0,2) - R.at<float>(2,0)) / (4*qw);
qz = -(R.at<float>(1,0) - R.at<float>(0,1)) / (4*qw);
// 将四元数转化为旋转矩阵,即r1、r2、r3。因此将平移矩阵填充到r4。
// 注意其中T.at<float>(1)和T.at<float>(2)取了负号。
vec4f r1(1 - 2*qy*qy - 2*qz*qz, 2*qx*qy + 2*qz*qw, 2*qx*qz - 2*qy*qw, 0);
vec4f r2(2*qx*qy - 2*qz*qw, 1 - 2*qx*qx - 2*qz*qz, 2*qy*qz + 2*qx*qw, 0);
vec4f r3(2*qx*qz + 2*qy*qw, 2*qy*qz - 2*qx*qw, 1 - 2*qx*qx - 2*qy*qy, 0);
vec4f r4(T.at<float>(0), -T.at<float>(1), -T.at<float>(2), 1);

0x02 – 3D渲染引擎模块


3D渲染引擎模块使用的是VVSION渲染引擎。选则这款渲染引擎也是尝试过好多好多 许多渲染措施才决定的,主要代表为cocos2d-x、vvsion和原生opengl es。下面对着本身措施的优缺点进行对比。

  cocos2d-x vvsion 原生opengl es
优点 1.支持的渲染组件很充裕,基本不可之后 期换成新的功能 1.相对于cocos2d-x整体轻巧,易于集成和二次修改。

2.能够直接传递模型视图矩阵,何必 进行转化。
1.删改能够根据其他同学的需求开发出相应的模块,不用困于已有的功能模块。
缺点 1.体积较大

2.亲戚亲戚其他同学都都都都 此处获取到的为原生的模型视图矩阵,怎么才能 才能 直接把模型视图矩阵传递给cocos2d-x的绘制模块就成为了另另1个什么的疑问。我尝试了好多好多 措施都越来越成功,原困原困本身对cocos2d-x删改都是很糙熟悉,好多好多 放弃。
1.越来越cocos2d-x的功能多 1.工作量巨大!

vvsion本身支持许多简单的渲染功能,比如模型的导入和渲染,使用的是opengl es 2.0。不过还处在哪几个过高 ,mulberryAR对此进行了优化。

修改1:它本身提供的模型渲染过于简单,却说简单的贴图,此处mulberryAR在原始shader中换成了diffuse功能,主却说将模型的法向传入,做光照补救。

// vertex shader
attribute vec4 position;
attribute vec2 texCoord0;
attribute vec4 normal;

varying vec2 v_texCoord;
varying vec4 v_normal;

uniform mat4 matProjViewModel;
// ModelView.inverse().transpose()
uniform mat4 matNormal;

void main()
{
    v_texCoord = texCoord0;
    v_normal = matNormal * normal;
    gl_Position = matProjViewModel * position;
}

// fragment shader
precision highp float;

uniform sampler2D texture0;
varying vec2 v_texCoord;
varying vec4 v_normal;

void main()
{
    gl_FragColor =  texture2D( texture0, v_texCoord);
    vec3 lightDir = vec3(0.0, 0.0, 1.0); // 假设光照方向
    // 求解diffuse
    float dotRes = dot(normalize(v_normal.xyz), normalize(lightDir));
    float diffuse = min(max(dotRes, 0.0), 1.0);
    gl_FragColor.rgb = vec3(diffuse * gl_FragColor.rgb);
}

修改2:获取到的相机图像能够进行显示,此处,mulberryAR使用了贴纹理的措施进行渲染。亲戚亲戚其他同学都都都都 使用了另另1个camera.obj的平面模型作为相机图像的展示平面,只需每次将camera.obj的纹理更新为相机图像即可。此处能够注意一下两点:

  • camera.obj的显示使用的是正投影,因此注意其深度1值设置大许多,补救遮挡住了前面的模型。
  • NPOT(No Power of Two)纹理的设置选项,其中Wrap措施要设置为GL_CLAMP_TO_EDGE,Mag/Min Filter措施设置为GL_LINEAR,因此何必 产生MinMap。因此纹理会显示为黑色。

修改3:为了提高模型的真实感,增加了fake shadow的效果,也什么都越来越模型底部换成一块圆形的阴影。也什么都越来越模型底部换成了另另1个fakeshadow.obj的模型,因此贴上透明的圆形阴影纹理。优点是简单,节省计算资源,因此还能够够考虑真实的光照方向。

0x03 - mulberryAR性能效果分析


视频效果展示(腾讯视频链接):

mulberryAR Demo:https://v.qq.com/x/page/c03635umclb.html

mulberryAR在苹果机54 75s上Release版本测试为6FPS。可见其帧率还无法令人满意,主却说提取ORB行态许多步耗时比较多,后期会再此基础上做一定优化。下表中ExtractORB表示每帧ORB行态提取的耗时,TrackMonocular为每帧的整个SLAM系统的耗时。

另外,ORB-SLAM2的初始化调快,丢失还还可以够快速找回。整体来说,算不算目前最好的单目视觉SLAM了。

0x04 - 参考资料


  • ORB-SLAM2
  • ORB_SLAM_iOS
  • ORB-SLAM2注释版
  • VVSION渲染引擎
  • 【AR实验室】OpenGL ES绘制相机(OpenGL ES 1.0版本)
  • https://zhuanlan.zhihu.com/computercoil