首页> 中国专利> 基于图像采集的Visual Map数据库建立方法及利用该数据库的室内定位方法

基于图像采集的Visual Map数据库建立方法及利用该数据库的室内定位方法

摘要

基于图像采集的Visual Map数据库建立方法及利用该数据库的室内定位方法,涉及室内定位导航领域。本发明是为了解决无线电信号在室内由于受到门的开启及闭合、人的走动、墙壁阻挡的多重因素影响,导致WLAN定位精度低的问题。本发明首先通过建立离线Visual Map,并提取用户智能手机所拍相片的特征点与Visual Map中各位置指纹上图像的特征点进行匹配,随后采用对极几何精确的估计出用户位置。本发明适用于室内定位场合。

著录项

  • 公开/公告号CN104484881A

    专利类型发明专利

  • 公开/公告日2015-04-01

    原文格式PDF

  • 申请/专利权人 哈尔滨工业大学;

    申请/专利号CN201410810776.X

  • 发明设计人 谭学治;关凯;马琳;郭士增;

    申请日2014-12-23

  • 分类号G06T7/00(20060101);G06K9/46(20060101);

  • 代理机构23109 哈尔滨市松花江专利商标事务所;

  • 代理人岳泉清

  • 地址 150001 黑龙江省哈尔滨市南岗区西大直街92号

  • 入库时间 2023-12-17 04:36:06

法律信息

  • 法律状态公告日

    法律状态信息

    法律状态

  • 2019-07-05

    专利权的转移 IPC(主分类):G06T7/73 登记生效日:20190614 变更前: 变更后: 申请日:20141223

    专利申请权、专利权的转移

  • 2017-05-10

    授权

    授权

  • 2015-04-29

    实质审查的生效 IPC(主分类):G06T7/00 申请日:20141223

    实质审查的生效

  • 2015-04-01

    公开

    公开

说明书

技术领域

本发明涉及室内定位导航领域。

背景技术

随着智能手机的普及,位置定位服务越来越受到人们的重视。而现如今的卫星定位系统只是解决了室外定位的问题,在室内环境中,卫星信号会受到严重的衰减导致定位精度的严重损失。近年来基于WLAN的室内定位方法由于其部署方便,得到了比较广泛的研究,但是目前的研究成果显示,其定位精度受室人流疏密、墙壁遮挡等因素的影响较大。基于视觉的定位方法的研究始于机器人定位领域,但是近年来随着具有摄像头的智能手机的发展及手机计算能力的提升,基于视觉的室内定位方法由于其所需设备简单,除用户配备摄像头的智能手机外无需添加其他硬件设备,且受影响因素相对较少等特点而得到广泛的关注。

发明内容

本发明是为了解决无线电信号在室内由于受到门的开启及闭合、人的走动、墙壁阻挡的多重因素影响,导致WLAN定位精度低的问题,从而提供一种基于图像采集的Visual Map数据库建立方法及利用该数据库的室内定位方法。

基于图像采集的Visual Map数据库建立方法,它由以下步骤实现:

步骤一、根据需要定位的室内环境,选择坐标原点P0(X0,Y0),建立二维直角坐标系;

步骤二、从坐标原点开始,沿x轴每隔1米、沿y轴每隔0.5m建立一个参考点,每个参考点分别按照0°,90°,180°,270°的角度,或按照45°,135°,225°,315°的角度均匀间隔采集4幅图像,并计算出该参考点采集图像时相机的旋转矩阵Rr

步骤三、采用128点SURF算法对每个参考点在4个角度采集到的图像进行特征点提取,并与步骤一所得坐标系中参考点的坐标和步骤二获得的旋转矩阵Rr相对应并存储,完成离线阶段Visual Map数据库的建立。

利用上述Visual Map数据库的室内定位方法,它由以下步骤实现:

步骤A、在线阶段,将需要定位服务用户提供的图像采用128点SURF算法进行特征点信息的提取;

步骤B、对图像的特征点采用KNN算法,在Visual Map数据库中检索出与所提供特征点最匹配的k幅图像的特征点,并记录k个特征点相应的位置坐标P(X,Y)和旋转矩阵Rr

步骤C、采用RANSAC算法,剔除匹配图像与用户所提供图像间的误匹配点;

步骤D、筛选出每对匹配图像中的8对匹配点,使用对极几何进行精确定位,完成室内定位。

步骤C中,采用RANSAC算法,剔除匹配图像与用户所提供图像间的误匹配点的方法包括以下步骤:

步骤C1、从匹配点中选择4对匹配点,并计算单应矩阵H;

步骤C2、根据步骤C1计算获得的单应矩阵H计算其余匹配点在对应图像中的理论坐标;

步骤C3、令i的值加1,计算第i个匹配点理论坐标与实际坐标的欧氏距离;i的处始值为0;

步骤C4、判断步骤C3获得的欧氏距离是否小于预设的欧氏距离阈值t,如果判断结果为是,则步骤C5;如果判断结果为否,则返回执行步骤C3;

步骤C5、令n的值加1,并判断n的值是否大于预设迭代次数n0;如果判断结果为是,则结束;如果判断结果为否,则返回执行步骤C1;

n表示迭代次数,初始值为0。

步骤D中采用对极几何进行精确定位的方法包括以下步骤:

步骤D1、采用8点法求基本矩阵F,基本矩阵F是两幅图像约束关系的数学描述,对极几何中基本矩阵F的基本关系式为:

X'TFX=0              (1)

其中,X和X'分别表示两幅匹配图像中的一对匹配点在其像素坐标系中的坐标;筛选出步骤C所述每对匹配图像中的8对匹配点Xi(ui,vi,1),Xi'(ui',vi',1),i=1,2,…,8代入公式(2)中,令基本矩阵F={fij}(i=1,2,3;j=1,2,3),如公式(2)所示:

>u1u1u1v1u1v1u1v1v1v1u1v11...........................u8u8u8v8u8v8u8v8v8v8u8v81f=0---(2)>

通过求解该线性方程组来计算基本矩阵F;

其中,f=(f11,f12,f13,f21,f22,f23,f32,f32,f33)T

步骤D2、计算建立Visual Map数据库所用相机的内部参数矩阵K1,并计算待定位用户的相机内部参数矩阵K2;相机内部参数矩阵K由公式(3)给出:

>K=kufkucotθu00kvf/sinθv0001---(3)>

其中,f为相机焦距,ku和kv表示相机的像素点尺寸,u0和v0分别表示图像的尺寸即图像坐标系中u轴和v轴所包含像素点的个数,θ表示图像坐标系中u轴和v轴之间的夹角;

根据公式(4)求得本质矩阵E:

Ε=K2TFK1                 (1)

步骤D3、由于步骤D2计算出的本质矩阵E包含了用户拍照位置与数据库中匹配图像所处位置之间的旋转矩阵R和转移向量t,如公式(5)所示,

E=[t]×R                (5)

其中,[]×表示反对称矩阵,如公式(6)所示,

>x1x2x3×=0-x3x2x30-x1-x2x10---(6)>

则通过本质矩阵E求出旋转矩阵R和转移向量t;

步骤D4、在步骤D3中求出的转移向量t是以用户拍照位置为参考系得出的,此步将其转换至步骤A的坐标系中,如公式(7)所示,

tw=-Rr-1R-1t             (7)

其中,tw表示在规定的世界坐标系中用户拍照位置与匹配图像位置之间的方向向量,Rr-1表示匹配图像在被采集时相机的旋转矩阵的逆矩阵;

步骤D5、已知世界坐标系中两幅图像的方向向量及其中一个匹配图像的二维位置坐标(Xd,Yd),确定一条过匹配图像的直线,如公式(8)所示,

>y=tw(2)tw(1)·(x-Xd)+Yd---(8)>

其中,tw是步骤四得出的转移向量,是一个3×1的列向量,tw(2)代表tw第二行的元素,同理tw(1)代表tw第一行的元素;

步骤D6、将粗匹配得到的k幅图像分别和用户上传图像求出4条直线,该4条直线存在若干交点,采用公式(9)完成最优点,即:定位结果的确定:

>minx,y{Njdij(xi,yi)}---(9)>

其中,dij(xi,yi)表示第i(i=1,2,...,6)个交点到第j(j=1,2,3,4)个直线的距离Nj表示第j个直线所对应的图像与用户提供图像的匹配点数,dij(xi,yi)表达式如公式(10)表示:

>dij(xi,yi)=|aixi+biyi+ci|ai2+bi2---(10)>

其中ai=t(2)bi=-t(1)ci=-t(2)xi+t(1)yi,xi和yi表示第i个交点的位置坐标。

步骤D3中从本质矩阵E恢复旋转矩阵R和转移矩阵t的算法,它包括以下步骤:

步骤D31、将3×3阶的本质矩阵E分解为E=[ea eb ec]的形式,其中,ea,eb,ec为3×1阶列向量;对ea,eb,ec三个列向量两两求外积得ea×eb,ea×ec和eb×ec,并选出其中幅值最大的一组;设ea×eb结果的幅值最大;

步骤D32、根据公式(11)和公式(12),分别计算出矩阵V=[va vb vc]以及矩阵U=[ua ub uc]:

>vc=(ea×eb)/|ea×eb|va=ea/|ea|vb=vc×va---(11)>

>ua=Eva/|Eva|ub=Evb/|Evb|uc=ua×ub---(12)>

步骤D33、构造矩阵D形式如下:

>D=010-100001---(13)>

根据矩阵V和矩阵U,得出转移向量t如公式(14)所示:

t=[u13 u23 u33]                   (14)

其中,u13表示矩阵U第1行第3列的元素,u23表示矩阵U第2行第3列的元素,u33表示矩阵U第3行第3列的元素;

旋转矩阵R如公式(15)所示:

>Ra=UDVTRb=UDTVT---(15)>

看出旋转矩阵R有两个取值Ra或Rb

步骤D34、构造矩阵Ha=[Ra|t],Hb=[Ra|-t],Hc=[Rb|t],Hd=[Ra|-t];其中,Ha=[Ra|t]表示3×3阶的旋转矩阵R和3×1阶的转移向量t合并成为4×4阶的向量Ha,如公式(16)所示:

>Ha=Rat01×31---(16)>

Hb,Hc,Hd的构造方式同理;

步骤D35、令向量P=[1,1,1,1]T,并计算L1=HaP,L2=HbP,L3=HcP,L4=HdP,当Li(i=1,2,3,4)满足条件(17)时,取Li对应的R和t作为最终的旋转矩阵R和转移向量t:

>Li(3)>0Li(4)>0---(17)>

其中,Li是4×1阶的列向量,Li(3)和Li(4)分别表示向量Li的第3行第1列元素和第4行第1列元素。

本发明使用图像采集的Visual Map建立方式记录每个参考点的位置、相机的旋转矩阵和SURF算法得出的特征点信息,对需要定位的用户手机所拍摄的相片提取特征点,将其与数据库中各图像的特征点进行匹配,选出匹配度最高的若干幅图像及与其相对应的图像的位置信息和旋转矩阵,之后使用RANSAC算法剔除匹配图像中的误匹配点,最后使用对极几何完成对用户位置的估计。本发明WLAN定位精度高。

附图说明

图1是本发明的基于图像采集的Visual Map建立及室内定位方法过程示意图。

图2是对参考点位置指纹信息和相应的图像信息采集的示意图。

图3是RANSAC算法的流程示意图。

具体实施方式

具体实施方式一、基于图像采集的Visual Map数据库建立方法,它包括下述步骤:

步骤一:根据需要定位的室内环境,选择合适的坐标原点P0(X0,Y0),建立二维直角坐标系;

步骤二:从坐标原点开始,沿x轴每隔1米,沿y轴每隔0.5m建立一个参考点,每个参考点采集4幅图像,分别按照0°,90°,180°,270°或45°,135°,225°,315°的角度均匀间隔进行图像采集,如图3所示。并计算出该参考点采集图像时相机的旋转矩阵Rr

步骤三:采用128点SURF算法对每个参考点4个角度采集到的图像进行特征点提取,并与步骤一所得坐标系中参考点的坐标和步骤二获得的旋转矩阵相对应,最终完成离线阶段Visual Map的建立。

具体实施方式二、利用具体实施方式一所述的Visual Map数据库的室内定位方法,它由以下步骤实现:

步骤A、在线阶段,将需要定位服务用户提供的图像在手机端采用128点SURF算法进行特征点信息的提取,并将特征点传送至服务器;

步骤B、对图像的特征点采用KNN算法,在服务器中检索出与所提供特征点最匹配的k幅图像的特征点,并记录k个特征点相应的位置坐标P(X,Y)和旋转矩阵Rr

步骤C、采用RANSAC算法,剔除匹配图像与用户所提供图像间的误匹配点,提高定位精度,该算法流程图如图4所示。其中t表示预先设定的欧氏距离的阈值,n表示迭代次数,初始值为0,n0表示预先设定的迭代次数;

步骤D、筛选出每对匹配图像中的8对匹配点,使用对极几何进行精确定位,并将位置信息从服务器传送至用户手机端,完成定位。

基于对极几何的精细室内定位方法。它包括下述步骤:

步骤D1、采用8点法求基本矩阵F。基本矩阵F是两幅图像约束关系的数学描述。对极几何中基本矩阵F的基本关系式为:

X'TFX=0                (1)

其中,X和X'分别表示两幅匹配图像中的一对匹配点在其像素坐标系中的坐标。将实施方式一中步骤七得到的8对匹配点Xi(ui,vi,1),Xi'(ui',vi',1),i=1,2,…,8代入公式(2)中,令基本矩阵F={fij}(i=1,2,3;j=1,2,3),如公式(2)所示:

>u1u1u1v1u1v1u1v1v1v1u1v11...........................u8u8u8v8u8v8u8v8v8v8u8v81f=0---(2)>

其中,f=(f11,f12,f13,f21,f22,f23,f32,f32,f33)T

直接通过求解该线性方程组来计算基本矩阵F。

步骤D2、计算建立Visual Map数据库所用相机的内部参数矩阵K1,并计算待定位用户的相机内部参数矩阵K2。相机内部参数矩阵K由公式(3)给出:

>K=kufkucotθu00kvf/sinθv0001---(3)>

其中,f为相机焦距,ku,kv表示相机的像素点尺寸,u0,v0表示图像的尺寸即图像坐标系中u轴和v轴所包含像素点的个数,θ表示图像坐标系中u轴和v轴之间的夹角,如图所示。在此基础上,由公式(4)求得本质矩阵E:

Ε=K2TFK1                 (4)

步骤D3、由于步骤D2计算出的本质矩阵E包含了用户拍照位置与数据库中匹配图像所处位置之间的旋转矩阵R和转移向量t,如公式(5)所示:

E=[t]×R                  (5)

其中,[]×表示反对称矩阵,如公式(6)所示:

>x1x2x3×=0-x3x2x30-x1-x2x10---(6)>

从而可以通过本质矩阵E求出R和t。

步骤D4、在步骤D3中求出的转移向量t是以用户拍照位置为参考系得出的,此步将其转换至步骤A的坐标系中,如公式(7)所示:

tw=-Rr-1R-1t                 (7)

其中tw表示在规定的世界坐标系中用户拍照位置与匹配图像位置之间的方向向量,Rr-1表示匹配图像在被采集时相机的旋转矩阵的逆矩阵。

步骤D5:已知世界坐标系中两幅图像的方向向量及其中一个图像(这里指匹配图像)的二维位置坐标(Xd,Yd),可确定一条过匹配图像的直线,如公式(8)所示:

>y=tw(2)tw(1)·(x-Xd)+Yd---(8)>

其中,tw是步骤四得出的转移向量,是一个3×1的列向量,tw(2)代表tw第二行的元素,同理tw(1)代表tw第一行的元素。

步骤D6:将粗匹配得到的k幅图像分别和用户上传图像按照上述步骤求出4条直线,该4条直线存在若干交点,采用公式(9)完成最优点即定位结果的确定:

>minx,y{Njdij(xi,yi)}---(9)>

其中dij(xi,yi)表示第i(i=1,2,...,6)个交点到第j(j=1,2,3,4)个直线的距离,Nj表示第j个直线所对应的图像与用户提供图像的匹配点数,dij(xi,yi)表达式如公式(10)表示:

>dij(xi,yi)=|aixi+biyi+ci|ai2+bi2---(10)>

其中:ai=t(2),bi=-t(1),ci=-t(2)xi+t(1)yi,xi和yi表示第i个交点的位置坐标。

从本质矩阵E恢复旋转矩阵R和转移矩阵t的算法,它包括以下步骤:

步骤D31、将3×3阶的本质矩阵E分解为E=[ea eb ec]的形式,其中:ea,eb,ec为3×1阶列向量。对ea,eb,ec三个列向量两两求外积得ea×eb,ea×ec和eb×ec,并选出其中幅值最大的一组。为便于一下步骤的执行,这里假设ea×eb结果的幅值最大。

步骤D32、根据公式(11)和公式(12),分别计算出矩阵V=[va vb vc]以及矩阵U=[ua ub uc]:

>vc=(ea×eb)/|ea×eb|va=ea/|ea|vb=vc×va---(11)>

>ua=Eva/|Eva|ub=Evb/|Evb|uc=ua×ub---(12)>

步骤D33:构造矩阵D形式如下:

>D=010-100001---(13)>

矩阵V和矩阵U,得出转移向量t如公式(14)所示,

t=[u13 u23 u33]               (14)

其中u13表示矩阵U第1行第3列的元素,u23表示矩阵U第2行第3列的元素,u33表示矩阵U第3行第3列的元素。旋转矩阵R如公式(15)所示,

>Ra=UDVTRb=UDTVT---(15)>

可以看出旋转矩阵R有两个取值Ra或Rb

步骤D34:构造矩阵Ha=[Ra|t],Hb=[Ra|-t],Hc=[Rb|t],Hd=[Ra|-t]。其中Ha=[Ra|t]表示3×3阶的旋转矩阵R和3×1阶的转移向量t合并成为4×4阶的向量Ha,如公式(16)所示,

>Ha=Rat01×31---(16)>

Hb,Hc,Hd的构造方式同理。

步骤D35:令向量P=[1,1,1,1]T,并计算L1=HaP,L2=HbP,L3=HcP,L4=HdP,当Li(i=1,2,3,4)满足条件(17)时,取Li对应的R和t作为最终的旋转矩阵R和转移向量t。

>Li(3)>0Li(4)>0---(17)>

其中,Li是4×1阶的列向量,Li(3)和Li(4)分别表示向量Li的第3行第1列元素和第4行第1列元素。

本发明首先通过建立离线Visual Map,并提取用户智能手机所拍相片的特征点与Visual Map中各位置指纹上图像的特征点进行匹配,随后采用对极几何估计出用户的位置。视觉定位系统分为两步即建立Visual Map的离线阶段和在线的位置估计阶段。

在离线阶段建立的Visual Map如表1所示。

表1

RP1(X1,Y1)Rr1f11f12……f1mRP2(X2,Y2)Rr2f21f22……f2m……………………………………RPn(Xn,Yn)Rrnfn1fn2……fnm

其中,Rri(i=1,2,…,n)表示采集第i副图片时相机的旋转矩阵,fij(i=1,2,…,n,j=1,2,…,m)表示对第i副图片采用SURF算法得到的第j个特征向量。

Visual Map是由参考点(Reference Point,简称RP)组成,参考点包含三部分信息,分别是参考点的物理位置、在该位置上以不同角度拍摄的若干张相片的旋转矩阵及每张照片中代表每个特征点信息的特征向量,其中,n表示参考点个数与每个参考点不同拍摄角度数量的乘积,m表示每幅图像使用SURF算法提取的特征点个数。这里采用SURF算法进行特征点的提取,是因为该算法对旋转、尺度缩放、亮度变化保持不变形,对视角变化、仿射变换、噪声也保持一定程度的稳定性。

在线阶段采用的定位方式是用SURF算法提取用户智能手机所拍摄相片的特征点,并将其与数据库中各图像的特征点进行匹配,选出匹配度最高的若干幅图像及与其相对应的图像的位置信息和旋转矩阵,之后使用RANSAC(Random,Sample Consensus)算法剔除匹配图像中的误匹配点,最后使用对极几何完成对用户位置的估计。

去获取专利,查看全文>

相似文献

  • 专利
  • 中文文献
  • 外文文献
获取专利

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号