首页 / 专利库 / 软件 / 虚拟产品体验 / 基于单视角RGBD传感器的虚拟试鞋方法

基于单视RGBD传感器的虚拟试方法

阅读:386发布:2020-05-15

专利汇可以提供基于单视RGBD传感器的虚拟试方法专利检索,专利查询,专利分析的服务。并且基于单视 角 RGBD 传感器 的虚拟试 鞋 方法,设置工作区域,将RGBD相机的视角 覆盖 工作区域;用户站在工作区域内,RGBD相机采集其数据,然后确定脚部的 位置 、方向和大小;将鞋的三维模型投影至当前相机视角下,并与实时场景的RGB数据进行融合。本 发明 可以实时地进行用户脚部与 鞋类 产品的三维模型的融合,并可以在任意视角下进行展示,完全模拟了用户面对试鞋镜真实试鞋的视觉效果体验。可以精准计算用户的脚部尺寸,消除了复杂的用户操作。,下面是基于单视RGBD传感器的虚拟试方法专利的具体信息内容。

1.一种基于单视RGBD传感器的虚拟试方法,其特征在于包括如下步骤:
步骤一,设置工作区域,将RGBD相机的视角覆盖工作区域;
步骤二,用户站在工作区域内,RGBD相机采集其数据,然后确定脚部的位置、方向和大小;
步骤三,将鞋的三维模型投影至当前相机视角下,并与实时场景的RGB数据进行融合。
2.根据权利要求1所述的基于单视角RGBD传感器的虚拟试鞋方法,其特征在于:步骤一中,确定RGBD相机与世界坐标系的关系,设定RGB传感器采集的彩色图像信息为Ic,深度传感器采集的深度图像信息为Id,深度图像信息上的任意像素点为p(u,v),其值为该点的深度信息记为d,该像素点对应的世界坐标系下的三维点Pw(x,y,z),存在如下关系:
3.根据权利要求1所述的基于单视角RGBD传感器的虚拟试鞋方法,其特征在于:步骤一中,选取若干地面的像素点及其坐标,利用矩阵的SVD分解算法拟合得到参数A,B,C,D,从而定位了在以深度传感器相机坐标系为世界坐标系的地面平面,p(u,v)对应的三维点Pw(x,y,z)均处于同一平面S:f(A,B,C,D)=0下,满足:S:A*(P)w(x)+B*(P)w(y)+C*(P)w(z)+D=0(2)。
4.根据权利要求3所述的基于单视角RGBD传感器的虚拟试鞋方法,其特征在于:步骤一中,在世界坐标系中设虚拟深度传感器Cv,设定它内外参数Kv,Rv2d和tv2d,根据Cd和Cv的坐标关系,通过将Cd获取的深度信息Id映射到Cv得到新视角下的场景点之间的深度关系图像数据Iv。
5.根据权利要求4所述的基于单视角RGBD传感器的虚拟试鞋方法,其特征在于:Cv相对于Cd的外参变换H4×4关系满足:
根据H可以获得外参数Rv2d和tv2d。
6.根据权利要求1所述的基于单视角RGBD传感器的虚拟试鞋方法,其特征在于:步骤二中,在用户进入有效区域前,积累采集场景的深度信息,加权平均后定义为背景深度信息当用户进入有效区域后实时采集到的每一深度信息 与之做差,小于一定阈值的点为是背景点,赋零值;反之,则认为该像素点为前景点,赋当前帧的深度值,即:
其中th为深度传感器的系统误差。
7.根据权利要求2所述的基于单视角RGBD传感器的虚拟试鞋方法,其特征在于:步骤二中,将Cd拍摄到的深度信息转化为三维点,然后利用Cv从上向下观测得到脚步的顶视信息;根据公式(1) 上每一个有效像素点pd都可以得到Cv相机坐标系下的三维点Pd,然后通过Cv的内参Kv以及相对于Cd的外参数Rv2d和tv2d反投影得到像素点pv,进而得到Iv,即:
8.根据权利要求7所述的基于单视角RGBD传感器的虚拟试鞋方法,其特征在于:在各自计算过程的最后一步加入连通域检测机制,选取最大的连通域作为脚部信息的待选区域,从而将剩余的区域作为噪声区域进行过滤。
9.根据权利要求8所述的基于单视角RGBD传感器的虚拟试鞋方法,其特征在于:步骤二中,在顶视图Iv的脚部区域中以各像素点在图像中的位置(u,v)进行最小二乘拟合,得到直线L1:y=k1x+b,该直线为脚部的主方向。
10.根据权利要求9所述的基于单视角RGBD传感器的虚拟试鞋方法,其特征在于:步骤三中,对于鞋三维模型进行预处理,将其坐标系的原点移动至脚后跟中心,x轴方向指向脚尖方向,y轴方向垂直于脚底面向上;在渲染环境的世界坐标系下,将模型移动到Ph点后缩放至Pt与脚尖重合;
然后,在渲染环境的世界坐标系下,设置一个与Cc完全一致的相机;利用渲染算法进行渲染得到RGB渲染帧数据Is,该数据的有效区域即为鞋类产品在用户脚部方向和位置投影在Cc视角下的具体视觉效果;无效区域置零值;
最后,将Cc视角下的渲染帧Is有效像素逐一融合至Cc视角下拍摄帧数据Ic,形成最终的融合数据,推至显示设备,供用户进行视觉效果体验。

说明书全文

基于单视RGBD传感器的虚拟试方法

技术领域

[0001] 本发明涉及计算机三维图形处理领域,具体地说是一种基于单视角RGBD传感器的虚拟试鞋方法。

背景技术

[0002] 随着互联网技术的兴起,全球产业进入了互联网时代。在日常的生产生活中,网络购物日益成为一种主流的消费模式。对于网络购买鞋类产品时,选择理想样式,和合适的尺码成为了用户的一大困扰。究其原因,单一利用卖家拍摄的单一平面鞋类展示效果作为选择样式的依据,与用户实际的心理预期有一定的差距。另外,中国鞋类厂商的鞋码标准使用不广泛,常用欧码或美码代替;而不同厂商、不同鞋类产品之间鞋码,造成码数不准、尺码混乱的问题很难解决。这两个原因导致了商家面临退货率飙升的问题,同时浪费了物流业的社会效率。
[0003] 随着三维重建、VR/AR和AI等技术以及计算机CPU/GPU处理器性能的爆发式发展,虚拟试鞋业务随之兴起。利用计算机视觉计算机图形学和计算成像等领域的相关技术,厂商可以预先对鞋类产品进行三维建模,在用户挑选鞋类产品时可以实时的进行预览对应产品的三维影像,或者利用AR/VR穿戴式设备,将鞋类产品模型与用户场景进行融合,使得用户在挑选过程中能够实时模拟自身穿着该产品的实际视觉效果。
[0004] 当前虚拟试鞋技术大致分为三类:
[0005] 1.直接在互联网页面上展示由三维重建技术获得的鞋类产品的三维模型的立体效果,用户可以通过操作完成不同视角的预览鞋类产品。这类技术大大提升了以往只能靠卖家拍摄的单一平面鞋类展示效果。但是,这种技术对于用户而言,仍然无法得知该类产品的穿着效果以及鞋码的选择。
[0006] 2.利用VR/AR穿戴式设备,将三维重建技术获得的鞋类产品的三维模型投射到现实场景,利用计算机视觉等相关技术,对人体和鞋进行融合,继而获得用户穿戴该类产品的视觉效果。但是,一方面受到用户视角和AR/VR视场角等相关方面的原因,很难有理想的效果;另一方面,对于用户而言,购置VR/AR设备以及配套的计算单元,成本相当高。
[0007] 3.利用三维重建技术的脚部建模设备进行虚拟试鞋。用户只需要站立在设备的相关区域,设备经过一段时间利用机器视觉和三维重建技术对人体脚部进行测量和计算,最终完成脚部的三维建模,然后与鞋类产品的三维模型进行适配。这种方案对于鞋码检测较为精准,但是一方面由于设备规格的限制,用户无法进行多角度的移动旋转脚部进行全方位视觉体验;另一方面由于造价较高,对于用户而言成本较高。另外,即使由商家购置相关设备用于线下虚拟试鞋体验,由于设备需要精准对脚部进行三维建模,需要用户进行脱鞋站立,同时脚部建模过程持续一段时间,存在一定的不方便。
[0008] CN201610008004.3号中国专利申请公开了三维虚拟试鞋方法和系统,将使用者的脚部模型和鞋模型结合起来,实现了虚拟鞋子与真实顾客脚形的融合,通过试穿效果的动态展示,顾客可在最短时间内快速浏览不同鞋子款式的试穿效果,还可以观看不同饰品、背景下的试穿效果,可以避免物流资源的浪费以及退换货带来的时间浪费,提高网络购鞋的用户体验。该方案利用采集设备进行完整的人员脚部模型重建,然后去做与鞋模型的贴合,增加了计算过程,较为复杂。
[0009] CN201710336343.9号中国专利申请公开了本发明公开了一种试鞋系统,包括用于获取三维脚部数据并存储至脚型数据库的足部三维扫描装置、用于调取三维脚部数据与鞋型数据库中的三维鞋型数据且进行比对并推送适合鞋子的控制终端以及将购买者引导至实体店的移动终端,能够先进行虚拟试鞋,购买者通过虚拟试鞋挑选好自己所需要的鞋子之后,在通过移动终端引导购买者去实体店进行实体试鞋。该方案同样要对对脚部进行重建。
[0010] 此外,还有诸如CN201710413212.6号专利申请所公开的一种线上辅助测量脚码大小的方法,步骤是:1、用户信息获取;2、服务器自动运算;3、服务器提供用户鞋码信息,具有测试方便、快捷、可以自助完成,大大方便人们在线上买鞋的方便程度。即用特制的标定卡去做脱鞋后脚步大小测量的,并且他对用户拍摄的角度有严格的限定。
[0011] CN201810848062.6号中国专利申请公开一种在线虚拟试鞋方法,包括:在用户脚部穿戴空间标记袜的情况下,获取所述用户的脚部图像;销售终端用预设三维脚部模型对比用户的脚部图像后生成用户脚部三维模型;销售终端从用户脚部三维模型上获取用户脚部尺寸;销售终端根据鞋码选用预存的三维鞋模型,并投射到用户脚部三维模型上,生成试三维试鞋模型。在线虚拟试鞋方法可使消费者在买鞋前通过虚拟现实技术在线虚拟试鞋,提高消费者在线买鞋的合脚率,该方案利用特制的袜子制作标记,来进行对脚部关键点进行提取,然后同样要做脚部三维重建。

发明内容

[0012] 本发明为解决现有的问题,旨在提供一种基于单视角RGBD传感器的虚拟试鞋方法。
[0013] 为了达到上述目的,本发明采用的技术方案包括如下步骤:
[0014] 步骤一,设置工作区域,将RGBD相机的视角覆盖工作区域;
[0015] 步骤二,用户站在工作区域内,RGBD相机采集其数据,然后确定脚部的位置、方向和大小;
[0016] 步骤三,将鞋的三维模型投影至当前相机视角下,并与实时场景的RGB数据进行融合。
[0017] 进一步地,步骤一中,确定RGBD相机与世界坐标系的关系,设定RGB传感器采集的彩色图像信息为Ic,深度传感器采集的深度图像信息为Id,深度图像信息上的任意像素点为p(u,v),其值为该点的深度信息记为d,该像素点对应的世界坐标系下的三维点Pw(x,y,z),存在如下关系:
[0018]
[0019] 进一步地,步骤一中,选取若干地面的像素点及其坐标,利用矩阵的SVD分解算法拟合得到参数A,B,C,D,从而定位了在以深度传感器相机坐标系为世界坐标系的地面平面,p(u,v)对应的三维点Pw(x,y,z)均处于同一平面S:f(A,B,C,D)=0下,满足:
[0020] 1.S:A*(P)w(x)+B*(P)w(y)+C*(P)w(z)+D=0(2)。
[0021] 进一步地,步骤一中,在世界坐标系中设虚拟深度传感器Cv,设定它内外参数Kv,Rv2d和tv2d,根据Cd和Cv的坐标关系,通过将Cd获取的深度信息Id映射到Cv得到新视角下的场景点之间的深度关系图像数据Iv。
[0022] 进一步地,Cv相对于Cd的外参变换H4×4关系满足:
[0023]
[0024] 根据H可以获得外参数Rv2d和tv2d。
[0025] 进一步地,步骤二中,在用户进入有效区域前,积累采集场景的深度信息,加权平均后定义为背景深度信息 当用户进入有效区域后实时采集到的每一深度信息与之做差,小于一定阈值的点为是背景点,赋零值;反之,则认为该像素点为前景点,赋当前帧的深度值,即:
[0026]
[0027] 其中th为深度传感器的系统误差。
[0028] 进一步地,步骤二中,将Cd拍摄到的深度信息转化为三维点,然后利用Cv从上向下观测得到脚步的顶视信息;根据公式(1) 上每一个有效像素点pd都可以得到Cv相机坐标系下的三维点Pd,然后通过Cv的内参Kv以及相对于Cd的外参数Rv2d和tv2d反投影得到像素点pv,进而得到Iv,即:
[0029]
[0030] 进一步地,在各自计算过程的最后一步加入连通域检测机制,选取最大的连通域作为脚部信息的待选区域,从而将剩余的区域作为噪声区域进行过滤。
[0031] 进一步地,步骤二中,在顶视图Iv的脚部区域中以各像素点在图像中的位置(u,v)进行最小二乘拟合,得到直线L1:y=k1x+b,该直线为脚部的主方向。进一步地,步骤三中,对于鞋三维模型进行预处理,将其坐标系的原点移动至脚后跟中心,x轴方向指向脚尖方向,y轴方向垂直于脚底面向上;在渲染环境的世界坐标系下,将模型移动到Ph点后缩放至Pt与脚尖重合。
[0032] 然后,在渲染环境的世界坐标系下,设置一个与Cc完全一致的相机;利用渲染算法进行渲染得到RGB渲染帧数据Is,该数据的有效区域即为鞋类产品在用户脚部方向和位置投影在Cc视角下的具体视觉效果;无效区域置零值;
[0033] 最后,将Cc视角下的渲染帧Is有效像素逐一融合至Cc视角下拍摄帧数据Ic,形成最终的融合数据,推至显示设备,供用户进行视觉效果体验。
[0034] 和现有技术相比,本发明针对上述虚拟试鞋业务的现状,利用单视角的RGBD相机实现虚拟试鞋效果。首先,可以实时地进行用户脚部与鞋类产品的三维模型的融合,并可以在任意视角下进行展示,同时用户无需有任何额外的(例如脱鞋,站立在相关设备上等待计算建模等)操作过程,完全模拟了用户面对试鞋镜真实试鞋的视觉效果体验。其次,本发明可以在用户感受虚拟试鞋的视觉效果体验过程中,精准计算用户的脚部尺寸,该部分数据可以作为用户选择鞋类产品鞋码的参考依据。最后,本发明利用单视角的RGBD相机,相对于其他产品,成本较低;同时消除了复杂的用户操作,便于使用。附图说明
[0035] 图1为本发明实施例的所使用的系统的结构示意图;
[0036] 图2为侧视深度传感器Cd和虚拟顶视深度传感器Cv相机坐标系关系示意图;
[0037] 图3a为本发明实施例的操作说明图;
[0038] 图3b、3c为脚部在侧视深度传感器Cd和虚拟顶视深度传感器Cv视角下的掩码图;
[0039] 图4a、4b为脚部在侧视和顶视数据联合计算关键数据的示意图。

具体实施方式

[0040] 现结合附图对本发明作进一步地说明。
[0041] 参见图1至图4b,图1至图4b展示的是本发明的一个实施例,构建一个虚拟试鞋工作区域,区域正前方配置一套显示设备,显示设备下方放置一款RGBD相机,视角覆盖工作区域。当用户站在区域内,RGBD相机对区域内进行数据采集,然后利用计算机视觉相关技术定位用户的脚的位置、方向和大小,然后根据三维空间几何关系,利用计算机图形学相关渲染技术将已存在的鞋类产品的三维模型投影至当前相机视角下,并于实时场景的RGB数据进行融合,并投射至显示设备中,从而完成虚拟试鞋的视觉效果展示。
[0042] 计算世界坐标系与相机坐标系。
[0043] 由于本实施例中只存在一台RGBD相机,设置深度传感器Cd所在的相机坐标系与世界坐标系重合;根据现有相机标定理论及技术,可以得到在世界坐标系下,RGB传感器Cc相对于深度传感器的外参数,即RGB传感器相对于深度传感器的旋转矩阵Rc2d和平移矩阵tc2d。同时,可以得到RGB传感器的内参数Kc和深度传感器的内参数Kd。本实施例设定RGB传感器采集的彩色图像信息为Ic,深度传感器采集的深度图像信息为Id。同时设定深度图像信息上的任意像素点为p(u,v),其值为该点的深度信息,记为d,该像素点对应的世界坐标系下的三维点Pw(x,y,z)。二者存在如下关系:
[0044]
[0045] 其中(cx,cy)为深度传感器的光心参数,(fx,fy)为深度传感器的横向和纵向的焦距数据,它们都来源于深度传感器的内参数Kc。
[0046] 然后计算基于深度信息的地面信息拟合及顶视虚拟相机。首先参见图1,虚拟试鞋有效区域(传感器可以覆盖的区域)在没有人员走动的情况下,可以认为完全是一片平整的地面(而且事实上在系统部署过程中,可以完全保证这一点)。当无人员走动的情况下,深度传感器对这一区域进行采集的深度信息在世界坐标系下应该是一个平面。由此可以知道,Id上任意一个有效像素点p(u,v)(所谓有效是指深度传感器实际采集的深度图像信息实际存在部分零值点,为无效点)对应的三维点Pw(x,y,z)均处于同一平面S:f(A,B,C,D)=0下,即满足:
[0047] S:A*(P)w(x)+B*(P)w(y)+C*(P)w(z)+D=0(7)
[0048] 由公式(2)可以得知为了拟合这个平面,至少需要多于四个点位数据。所以在当前无人员走动的深度图像信息中选取属于该地面平面的若干像素点(为了减少误差,点位应该多于4个;为了防止过拟合,点位应该少于20个),并求出对应的三维坐标点。然后利用矩阵的SVD分解算法,拟合得到参数A,B,C,D。从而定位了在以深度传感器相机坐标系为世界坐标系的地面平面S:f(A,B,C,D)=0。
[0049] 其次,由于系统中RGB传感器采集到的是人员脚部的侧视信息(侧视的目的是最大限度的获取有效脚部信息),但由于相机的倾角和人员站立的位置关系,使得侧视传感器无法根据采集的深度信息判定人员脚部和其他部位的深度关系,所以需要在世界坐标系中部署一台虚拟深度传感器Cv。这台传感器不是真实存在的,但一经设定它内外参数Kv,Rv2d和tv2d,根据Cd和Cv的坐标关系,可以将Cd获取的深度信息Id映射到Cv得到新视角下的场景点之间的深度关系图像数据Iv。考虑到虚拟试鞋的场景因素,Cv应该部署在场景有效区域的正上方并垂直于地面向下拍摄,这样可以使得Iv中地面处于同一深度,且用户的脚部深度信息始终处于距离地面一定高度的范围内。为了便于计算,我们设定Cv的内参与Cd一致,即Kv=Kd。如图2所示,设xv轴平行于Cd的odxdyd平面平行且平行于地面S。即: 由上述分析可知Cv垂直于地面向下拍摄,故其zv轴与地面平面方程的法线向量n=(A,B,C)一致。即: 综合 和 易知 为了是Cv能够最大限度的获取有效数据,故Cv的原点ov设定于Cd的zd轴与地面交点Pi(x,y,z)的正上方l处,即其中l可以根据Cd的实际高度估算。由上述一系列分析,可以得到Cv相对于Cd的外参变换H4×4关系满足:
[0050]
[0051] 从而根据H可以获得外参数Rv2d和tv2d。
[0052] 至此,整个系统(视觉采集和场景)可以用Cd,Cv的内外参数、深度信息以及地面平面S:(A,B,C,D)描述。Cc仅用于最终的针对用户的虚拟试鞋效果展示。接着提取基于深度信息的脚部信息。当用户站立在系统的有效区域内,Cc和Cd可以实时采集到包含用户腿部、脚部以及和场景环境的融合RGB图像和深度数据。对于定位脚部而言,首要的任务是完成对用户腿部和脚部与场景环境的分割。
[0053] 传统的分割利用RGB的相关信息(边缘、前后景关系等)进行分割算法和抠图算法的计算,很难做到实时性。所以针对虚拟试鞋系统的特殊性(相机系统固定,拍摄区域为固定平面),本实施例在用户进入有效区域前,积累采集场景的深度信息,加权平均后定义为背景深度信息 当用户进入有效区域后实时采集到的每一帧深度信息 与之做差,小于一定阈值的点我们认为是背景点,赋零值;反之,则认为该像素点为前景点,赋当前帧的深度值,即:
[0054]
[0055] 其中th为深度传感器的系统误差。 即在误差允许范围内只包含用户腿部和脚部深度信息。
[0056] 顶视虚拟相机深度数据的恢复。根据公式(6), 上每一个有效像素点pd都可以得到Cv相机坐标系下的三维点Pd,然后通过Cv的内参Kv以及相对于Cd的外参数Rv2d和tv2d反投影得到像素点pv,进而得到Iv,即
[0057]
[0058] 这个操作过程相当于将Cd拍摄到的深度信息转化为三维点云,然后利用Cv从上向下观测,得到的顶视信息。值得注意的是,为了排除腿部运动导致Iv中脚部信息被腿部信息遮挡,所以公式(10)中Z小于一定阈值的将直接被舍弃。这个阈值可以定义为l-h,其中l为上文提到的Cv相对于地面的距离,它将是Iv计算过程中Z的最大值,h为一般脚底到脚踝距离,设定为250mm。
[0059] 此外,在 和Iv均会随机出现一定的离散噪声,为了保证脚部数据的准确性,需要去除这些随机散点噪声。可以在各自计算过程的最后一步加入连通域检测机制,并选取最大的连通域作为脚部信息的待选区域,从而将剩余的区域作为噪声区域进行过滤。
[0060] 至此,参见图3a至图3c,得到了脚部(近似脚底到脚踝部分)的侧视信息 以及顶视信息(Iv)。其中,Iv中脚部数据部分缺失,并未完整的脚形,是因为其数据来源于侧视图,只能拍摄到前侧数据。
[0061] 基于顶视图的脚部位置计算及方向预测。在顶视图Iv的脚部区域中以各像素点在图像中的位置(u,v)进行最小二乘拟合,得到直线L1:y=k1x+b,该直线为该脚的主方向。因为顶视脚部信息近似一个实心脚印的区域,最小二乘拟合得到的直线大概率的会从脚尖和脚后跟的位置穿过,从而初步定位了脚的方向。同时,用户侧位站立的时候,脚底轮廓应为有效区域的下边缘。故在下边缘采样一定的深度信息,根据公式(10)同样可以得到Iv中对应的一系列点,利用这些点单独进行最小二乘拟合,同样可以得到脚的主方向直线L2:y=k2x+b。由于计算方式的不同,L1和L2存在一定的夹角,最终取L1和L2最小夹角的角平分线作为脚的主方向L:y=kx+b。然后利用k和-1/k两个斜率遍历需按照脚部区域的边界,最终Iv中脚部区域由La:y=kx+bmin、Lb:y=kx+bmax、Lc:y=-1/kx+bmin和Ld:y=-1/kx+bmax四条直线围成的矩形区域所确定。
[0062] 至此,参见图4a、图4b,确定了Cv视角下脚部的主方向(L:y=kx+b)以及位置信息(La,Lb,Lc,Ld四条直线合围的矩形区域)。
[0063] 基于融合相机视角的脚部方向综合预测。由于L所确定的主方向是双向的,所以我们还需要进一步确定脚尖方向(或者脚后跟方向),从而唯一确定用户脚部的前向(或者后向)。经过观察人类脚部构造可知,脚踝距离脚尖的距离一定远远大于脚踝距离脚后跟的距离。同时侧视图中,由于前视相机和场景的关系,可以得知脚踝一定高于脚底(即脚踝的像素纵向位置小于脚底的像素纵向位置)。由此两点,产生如下计算方案:
[0064] 在侧视图中,统计脚部区域的像素纵向位置,得到最大值vmax(认为是脚底最低处)和最小值vmin(认为是脚踝最高处)
[0065] 在侧视图中统计脚部区域的像素纵向位置v
[0066] 根据公式(6)和公式(10)将上述像素点集合重投影映射到顶视深度信息中,形成顶视深度数据的一个像素集合点,并计算这个集合的位置中心,记为pc。过点pc、斜率为-1/k的直线记为Le:y-yp=-1/k(x-xp)。直线L分别于Lc,Le,Ld交于一点,分别记为pllc、plle和plld,如图4a、图4b所示。
[0067] 如果||pllc-p11e||2>||plld-p11e||2,则认为pllc为脚尖位置,反之则认为plld为脚尖位置。
[0068] 至此,本实施例确定了Cv视角下的脚部的主方向,包括脚尖位置pt和脚后跟位置ph。
[0069] 脚部关键数据生成(渲染数据和脚长数据)。Cv视角下的脚尖位置pt和脚后跟位置ph,根据公式(6),易得在Cv视角下的三维坐标点 和 另在 的正上方设置一点 即和 其中thz是小于Cv视角下地面Z的任意数据。由于向量和向量 相互垂直,故 和 三个点确定了用户脚部在三维空间中的位置、方
向和大小。根据Cv的外参,该三个点可转化为世界坐标系下的三个点Pt、Ph和Pu。向量PhPt的方向确定了脚部的方向,模值确定了脚长。该脚长数据可作为用户选择鞋码的参考依据。鞋类产品渲染结果与实时场景帧数据融合。首先,对于鞋类产品的三维模型进行预处理,将其坐标系的原点移动至脚后跟中心,x轴方向指向脚尖方向,y轴方向垂直于脚底面向上。在渲染环境的世界坐标系下,将模型移动到Ph点后缩放至Pt与脚尖重合。
[0070] 然后,在渲染环境的世界坐标系下,设置一个与Cc完全一致的相机(包括内外参数)。然后利用渲染算法进行渲染得到RGB渲染帧数据Is,该数据的有效区域即为鞋类产品在用户脚部方向和位置投影在Cc视角下的具体视觉效果;无效区域置零值。
[0071] 最后将Cc视角下的渲染帧Is有效像素逐一融合至Cc视角下拍摄帧数据Ic,形成最终的融合数据,推至显示设备,供用户进行视觉效果体验。
[0072] 本实施例完全模拟了用户面对试鞋镜真实试鞋的视觉效果体验。可以实时地进行用户脚部与鞋类产品的三维模型的融合,并可以在任意视角下进行展示,同时用户无需有任何额外的诸如脱鞋、等待重建等操作过程;
[0073] 本实施例可以在用户感受虚拟试鞋的视觉效果体验过程中,精准计算用户的脚部尺寸,该部分数据可以作为用户选择鞋类产品鞋码的参考依据;
[0074] 本实施例利用单视角的RGBD相机,相对于其他产品成本很低,同时消除了复杂的用户操作。
[0075] 上面结合附图及实施例描述了本发明的实施方式,实施例并不构成对本发明的限制,本领域内熟练的技术人员可依据需要做出调整,在所附权利要求的范围内做出各种变形修改均在保护范围内。
高效检索全球专利

专利汇是专利免费检索,专利查询,专利分析-国家发明专利查询检索分析平台,是提供专利分析,专利查询,专利检索等数据服务功能的知识产权数据服务商。

我们的产品包含105个国家的1.26亿组数据,免费查、免费专利分析。

申请试用

分析报告

专利汇分析报告产品可以对行业情报数据进行梳理分析,涉及维度包括行业专利基本状况分析、地域分析、技术分析、发明人分析、申请人分析、专利权人分析、失效分析、核心专利分析、法律分析、研发重点分析、企业专利处境分析、技术处境分析、专利寿命分析、企业定位分析、引证分析等超过60个分析角度,系统通过AI智能系统对图表进行解读,只需1分钟,一键生成行业专利分析报告。

申请试用

QQ群二维码
意见反馈