三维空间定位传感器及互动显示系统和3D图像生成方法 |
|||||||
申请号 | CN201610051788.8 | 申请日 | 2016-01-26 | 公开(公告)号 | CN105717487A | 公开(公告)日 | 2016-06-29 |
申请人 | 神画科技(深圳)有限公司; | 发明人 | 那庆林; 麦浩晃; 黄彦; | ||||
摘要 | 本 发明 涉及三维空间 定位 传感器 及互动显示系统和3D图像生成方法,三维空间定位传感器包括:红外光发射单元,发射至少三束红外光 信号 到目标面;测距监控单元,获取反射到测距监控单元的时间;信息处理单元,根据各束红外光发出和返回的时间差,得出相对目标面的测距定位信息。本发明通过三维空间定位传感器得出相对目标面的测距定位信息,让显示系统根据互动遥控单元相对显示面的测距定位信息和红外光在显示面的 位置 信息生成与互动遥控单元位置对应的3D图像和/或其运动轨迹,可让握持互动遥控单元的用户看到与其站立位置对应的3D图像,如3D物体由互动遥控单元向显示面发射出的子弹、飞镖等3D物体向显示面移动的运动轨迹,让3D效果更加逼真。 | ||||||
权利要求 | 1.一种三维空间定位传感器(11),其特征在于,包括红外光发射单元(111)、测距监控单元(112)、信息处理单元(113); |
||||||
说明书全文 | 三维空间定位传感器及互动显示系统和3D图像生成方法技术领域[0001] 本发明涉及图像显示和图像生成成像领域,更具体地说,涉及一种三维空间定位传感器及互动显示系统和图像生成方法。 背景技术[0002] 相关技术中的互动显示系统中,对遥控器的定位通常是通过单点判断与显示单元的位置信息,另外,互动显示系统的图像也是通过预设好的文件进行显示,效果比较单一,缺乏真实的三维空间感。 发明内容[0003] 本发明要解决的技术问题在于,提供一种改进的三维空间定位传感器及互动显示系统和3D图像生成方法。 [0004] 本发明解决其技术问题所采用的技术方案是:构造一种三维空间定位传感器,包括红外光发射单元、测距监控单元、信息处理单元; [0007] 信息处理单元,根据各束红外光光信号分别由所述红外光发射单元发出和返回到所述测距监控单元时的时间差,得出相对所述目标面的测距定位信息。 [0008] 优选地,所述至少三束红外光信号的光轴之间相互按照预定的空间夹角设置。 [0009] 优选地,所述红外光发射单元包括至少三个红外发射器,所述信息处理单元包括用以调制多个红外光发射器的信号的调制电路单元。 [0010] 优选地,所述信息处理单元包括用于计算各束红外光信号分别由所述红外光发射单元发出和返回到所述测距监控单元时的时间差的计时电路单元。 [0011] 优选地,所述测距监控单元包括镜头单元、以及光电探测器单元,所述镜头单元用于将从所述显示面反射回的红外光反射到所述光电探测器单元,所述光电探测器单元分别采集反射返回的红外光信号。 [0013] 优选地,所述测距监控单元包括用于采集所述红外光信号的发射和返回的CMOS单元。 [0014] 本发明还构造一种互动显示系统,包括显示单元和互动遥控单元,[0015] 所述互动遥控单元包括所述的三维空间定位传感器和用于和所述显示单元通信连接的第一通讯单元; [0016] 所述互动遥控单元的三维空间定位传感器发射红外光信号到所述显示单元的显示面,得出所述互动遥控单元相对所述显示面的测距定位信息; [0017] 所述第一通讯单元与所述显示单元通信连接,将所述互动遥控单元相对所述显示面的测距定位信息发送给所述显示单元; [0018] 所述互动显示系统还包括用于获取所述互动遥控单元的红外光信号在所述显示面的位置信息、并反馈给所述显示单元的系统监控单元。 [0019] 优选地,所述互动显示系统还包括3D眼镜单元,所述3D眼镜单元包括所述的三维空间定位传感器和用于和所述显示单元通信连接的第二通讯单元; [0020] 所述3D眼镜单元的三维空间定位传感器发射红外光信号到所述显示单元的显示面,得出所述3D眼镜单元相对所述显示面的测距定位信息; [0021] 所述第二通讯单元与所述显示单元通信连接,将所述3D眼镜单元相对所述显示面的测距定位信息发送给所述显示单元; [0022] 所述系统监控单元获取所述3D眼镜单元的红外光信号在所述显示面的位置信息、并反馈给所述显示单元。 [0023] 优选地,所述互动显示系统还包括算法单元,所述算法单元根据所述互动遥控单元和/或所述3D眼镜单元的测距定位信息和其红外光发射在所述显示面的位置信息,计算所述互动遥控单元和/或所述3D眼镜单元相对于所述显示面的空间位置以及相对于彼此之间的空间位置。 [0024] 优选地,所述空间位置包括所述互动遥控单元、所述3D眼镜单元相对于所述显示面的距离与角度或所述互动遥控单元、所述3D眼镜单元相互之间的距离与角度。 [0025] 优选地,所述互动遥控单元采用的红外光信号波长与3D眼镜单元采用的红外光信号波长不同。 [0026] 优选地,所述系统监控单元包括用于分开所述互动遥控单元和3D眼镜单元不同波长的红外光的分光棱镜以及两个分别用于采集所述互动遥控单元和3D眼镜单元红外光信号位置的传感器。 [0027] 本发明还构造一种互动显示系统的3D图像生成方法,所述互动显示系统包括显示单元、互动遥控单元以及系统监控单元,所述互动遥控单元包括所述的三维空间定位传感器,所述3D图像生成方法包括以下步骤: [0028] S1、所述互动遥控单元的三维空间定位传感器发射红外光信号到所述显示单元的显示面,所述互动显示系统得出所述互动遥控单元相对所述显示面的测距定位信息; [0029] S2、所述系统监控单元实时获取所述互动遥控单元所发射的红外光信号在所述显示单元的显示面的位置信息,依据所述位置信息决定所述3D图像和/或其动作轨迹的第一基点; [0030] S3、利用所述互动遥控单元相对所述显示面的位置信息生成由所述第一基点向所述显示面的底边偏移一定距离得到第二基点; [0031] S4、根据所述互动遥控单元相对所述显示面的位置信息以及所述第一基点、第二基点的位置信息,生成3D物件的3D图像和/或其动作轨迹;所述第一基点对应的3D图像和/或其运动轨迹为零视差图像,所述第二基点对应的3D图像和/或其运动轨迹为负视差图像,其负视差数值之绝对值随步骤S1中测距数值的增减而同方向增减。 [0032] 优选地,所述互动显示系统还包括3D眼镜单元,所述3D眼镜单元包括所述的三维空间定位传感器; [0033] 所述步骤S1还包括:所述3D眼镜单元的三维空间定位传感器发射红外光信号到所述显示单元的显示面,所述互动显示系统得出所述3D眼镜单元相对所述显示面的测距定位信息、以及计算所述互动遥控单元和3D眼镜单元相互之间的空间位置信息; [0034] 所述步骤S2还包括:所述系统监控单元实时获取所述3D眼镜单元所发射的红外光信号在所述显示单元的显示面的位置信息; [0035] 所述步骤S3还包括:根据所述3D眼镜单元与互动遥控单元顶端或其他部位的空间虚拟连线延伸到显示画面的落点决定显示3D图像和/或其动作轨迹的第二基点。 [0036] 实施本发明的三维空间定位传感器及互动显示系统和3D图像生成方法,具有以下有益效果:本发明通过三维空间定位传感器得出相对目标面的定位信息,让显示系统根据互动遥控单元相对显示面的定位信息生成与互动遥控单元位置对应的3D图像和/或其运动轨迹,可让握持互动遥控单元的用户看到与其站立位置对应的3D图像,如3D物体由互动遥控单元的对应位置向显示面发射出的子弹、飞镖等3D物体向显示面移动的运动轨迹,让3D效果更加的逼真。附图说明 [0037] 下面将结合附图及实施例对本发明作进一步说明,附图中: [0038] 图1是本发明实施例中的三维空间定位传感器发射红外光信号到显示面进行定位的原理示意图; [0039] 图2是图1中红外光发射单元呈夹角的各红外发射器排布示意图; [0040] 图3是本发明实施例中的三维空间定位传感器的测距监控单元包括镜头单元和光电探测器单元时的原理示意图; [0041] 图4是本发明实施例中的三维空间定位传感器的测距监控单元包括一维度CMOS单元时的原理示意图; [0042] 图5是本发明实施例中的互动显示系统的互动遥控单元向显示面发射红外光信号时的示意图; [0043] 图6是本发明实施例中的互动显示系统的互动遥控单元、3D眼睛单元分别向显示面发射红外光信号时的示意图; [0044] 图7是图6中的互动遥控单元发射到显示面后得到第一基点的示意图; [0045] 图8是由图7中的第一基点得出第二基点时的示意图; [0046] 图9是根据图8中的第一基点、第二基点生成的位于第一基点、第二基点连线两侧、左右眼分别睁开时看到的实际3D图像; [0047] 图10是戴上3D眼镜单元看图9中生成的实际3D图像时呈现的3D效果的3D图像; [0048] 图11是根据互动遥控单元、3D眼镜单元相对显示面及相互之间的定位信息生成的位于第一基点、第二基点连线两侧、左右眼分别睁开时看到的实际3D图像; [0049] 图12是戴上3D眼镜单元看图11中生成的实际3D图像时呈现的3D效果的3D图像。 具体实施方式[0050] 为了对本发明的技术特征、目的和效果有更加清楚的理解,现对照附图详细说明本发明的具体实施方式。 [0051] 如图1所示,本发明一个优选实施例中的三维空间定位传感器11包括红外光发射单元111、测距监控单元112、信息处理单元113;红外光发射单元111包括三个红外发射器,三个红外发射器发射三束红外光信号到目标面的不同位置,进一步地,目标面即为显示单元的显示面S,显示面S可以为平面或弧面。 [0052] 测距监控单元112获取红外光信号发射到目标面后反射到测距监控单元112的时间;信息处理单元113根据各束红外光光信号分别由红外光发射单元111发出和返回到测距监控单元112时的时间差,得出红外光线经过的路线长度,从而得出相对目标面的测距定位信息,测距定位信息包括相对于显示面S的至少三束红外光飞行距离信息。红外光的发出时间可以由系统设定获得,也可通过测距监控单元112获得。 [0053] 如图2、及图5至图7所示,三束红外光信号的光轴之间相互按照预定的空间夹角设置,三束红外光信号在空间内呈夹角,发射到显示面S后的三个点可以形成一个三角形,则可结合与显示面S之间的测距定位信息进一步计算出三维空间定位传感器11的至少三束红外光对于显示面S的入射角度,准确定位三维空间定位传感器11相对显示面S的位置,如遥控枪等互动遥控单元1的枪口到目标点的距离及枪的射击轴线与显示面S的角度,定位更加准确。 [0054] 在其他实施例中,红外光发射单元111也可发射三束以上的红外光信号到目标面的不同位置,并由各束红外光光信号分别由红外光发射单元111发出和返回到测距监控单元112时的时间差,得出相对目标面的测距定位信息。 [0055] 如图3、图4所示,信息处理单元113包括用以调制多个红外光发射器的信号的调制电路单元1131以及用于计算各束红外光信号分别由红外光发射单元111发出和返回到测距监控单元112时的时间差的计时电路单元1132,调制电路单元1131调制多个红外光发射器的信号,信息处理单元113由每束光发出与返回的时间差计算每束红外光线由射出点到显示面S的长度,从而计算出三维空间定位传感器11相对显示面S的测距定位信息。 [0056] 如图4所示,测距监控单元112包括用于采集红外光信号的发射和返回的CMOS单元1121。CMOS单元1121上带有镜头。确定红外光的发出时间可以利用系统设定,在发射光信号时系统及时记录,得出发出时间,反馈给信息处理单元113。红外光发射到显示面S后产生反射,被CMOS单元1121捕捉到返回的红外光信号,得出返回到测距监控单元112的时间,反馈给信息处理单元113,让信息处理单元113根据时间差得出红外光线经过的路线长度,从而得出三维空间定位传感器11相对目标面的测距定位信息。 [0057] 如图3所示,在其他实施例中,测距监控单元112包括镜头单元、以及光电探测器单元1123。镜头单元用于将从显示面S反射回红外光穿透到显示面S和将发射的红外光反射到光电探测器单元1123。光电探测器单元1123采集由显示面S反射返回的红外光信号,将光线信息反馈给信息处理单元113。光电探测器单元1123也可采集红外光的起始发出,当然也可由系统采集。 [0058] 红外光发射单元111还包括分光棱镜单元1111,设置在红外光的发射方向上,分光棱镜单元1111镀有半反半透性质的膜片,用于透射部分红外光信号到显示面S,并反射部分红外光信号到测距监控单元112用于光信号起始时间的采集。在红外光经过分光棱镜单元1111时,一路光经膜片反射到测距监控单元112上,将光线信息反馈给信息处理单元113,得出发出的时间;另外一路光穿透射向显示面S,再反射到测距监控单元112,得出返回的时间。信息处理单元113由每束光到达的时间差计算红外光线由射出点到显示面S的长度,从而计算出三维空间定位传感器11相对显示面S的测距定位信息。 [0059] 如图5所示,本发明一个优选实施例中的互动显示系统包括显示单元和互动遥控单元1,显示单元可为显示屏、投影仪等,显示单元的显示面S为显示屏的显示面S或投影仪的投影的画面所在面。互动遥控单元1被用户握在手中,互动遥控单元1通常为遥控枪等游戏手柄,与显示单元之间互动,对应的生成与握持互动遥控单元1的位置相适应的3D图像,让3D图像更加的真实。 [0060] 互动遥控单元1包括三维空间定位传感器11和用于和显示单元通信连接的第一通讯单元12。在互动遥控单元1与显示单元互动时,互动遥控单元1的三维空间定位传感器11发射红外光信号到显示单元的显示面S,得出互动遥控单元1相对显示面S的测距定位信息。第一通讯单元12与显示单元通信连接,将互动遥控单元1相对显示面S的测距定位信息发送给显示单元。 [0061] 互动显示系统还包括用于获取互动遥控单元1的红外光信号在显示面S的位置信息、并反馈给显示单元的系统监控单元3,红外光发射到显示面S后,系统监控单元3获取红外光在显示面S的位置信息。如图7所示,系统监控单元3在捕捉画面红外光信号时画面上有至上三个红外光,如果应用需要确定互动遥控单元1的光轴,则可能采用计算方法获取三点的中点或其他参数,更利于应用操作。 [0062] 如图6所示,互动显示系统还包括3D眼镜单元2,3D眼镜单元2被用户戴在头上,互动遥控单元1被用户握在手中,互动遥控单元1、3D眼镜单元2与显示单元之间互动,对应的生成与握持互动遥控单元1的位置、人眼位置相适应的3D图像,让3D图像更加的真实。 [0063] 进一步地,3D眼镜单元2包括三维空间定位传感器11和用于和显示单元通信连接的第二通讯单元22。3D眼镜单元2的三维空间定位传感器11发射红外光信号到显示单元的显示面S,得出3D眼镜单元2相对显示面S的测距定位信息。第二通讯单元22与显示单元通信连接,将3D眼镜单元2相对显示面S的测距定位信息发送给显示单元,该测距定位信息包括3D眼镜单元2相对于显示面S的距离等信息。同时,系统监控单元3获取3D眼镜单元2的红外光信号在显示面S的位置信息、并反馈给显示单元。如图7所示,通过将3D眼镜单元2的至少三束红外光斑在显示面S定位,可以通过算法计算出3D眼镜单元2中心相对于显示面S的轴线角度,更利于后续应用的开展。 [0064] 互动显示系统还包括算法单元,算法单元根据互动遥控单元1、3D眼镜单元2的测距定位信息和其红外光发射在显示面S的位置信息,计算互动遥控单元1、3D眼镜单元2相对于显示面S的空间位置以及相对于彼此之间的空间位置。空间位置包括相对于显示面S的距离与角度,可准确得出互动遥控单元1、3D眼镜单元2相对显示面S的位置及摆向等。 [0065] 为了方便计算得出互动遥控单元1、3D眼镜单元2的空间位置信息,互动遥控单元1采用的红外光信号波长与3D眼镜单元2采用的红外光信号波长不同。对应的,系统监控单元3包括用于分开互动遥控单元1和3D眼镜单元2不同波长的红外光的分光棱镜31以及两个分别用于采集互动遥控单元1和3D眼镜单元2红外光信号位置的传感器32,传感器32可为CMOS芯片、CCD芯片,互动遥控单元1和3D眼镜单元2的红外光分开后分别射向两个传感器32,进而能分别得出互动遥控单元1、3D眼镜单元2的空间位置信息。 [0066] 结合图7、图8所示,显示单元根据互动遥控单元1相对显示面S的测距定位信息及其红外光信号在显示面S的位置信息,生成对应的3D图像显示出来,可让握持互动遥控单元1的用户看到与其站立位置对应的3D图像,让3D效果更加的逼真。 [0067] 显示单元上的3D图像生成方法包括以下步骤: [0068] S1、互动遥控单元1的三维空间定位传感器11发射红外光信号到显示单元的显示面S,所述互动显示系统得出互动遥控单元1相对显示面S的测距定位信息;该测距定位信息可包括互动遥控单元1相对于显示面S的距离等信息。 [0069] S2、系统监控单元3实时获取互动遥控单元1所发射的红外光信号在显示单元的显示面S的位置信息,依据位置信息决定3D图像和/或其动作轨迹的第一基点K。优选地,该第一基点K为遥控枪等互动遥控单元1的射击轴线与延伸到显示面上的点,在其他实施例中,可以为三束红外光的中心位置,在其他实施例中,第一基点K也可为其他位置。 [0070] S3、如图8所示,利用互动遥控单元1相对显示面S的测距定位信息生成由第一基点K向显示面S的底边偏移一定距离得到第二基点J。由于使用人站立后,互动遥控单元1被用户握持时通常是在眼睛的下方,显示面S在使用人的前方,所以从互动遥控单元1射出的子弹、飞镖等应该是从显示面S下方射出,才可以得到子弹、飞镖等由使用人手持的互动遥控单元1方向附近射向画面的效果。因此,得到的第二基点J应该位于第一基点K和显示面S的底边之间。 [0071] S4、根据互动遥控单元1相对显示面S的测距定位信息以及第一基点K、第二基点J的位置信息,生成3D物件的3D图像和/或其动作轨迹。第一基点K对应的3D图像和/或其运动轨迹为零视差图像,第二基点J对应的3D图像和/或其运动轨迹为负视差图像,其负视差数值之绝对值随步骤S1中测距数值的增减而同方向增减。这是因为,使用人距离显示面S越远,测距距离越长,此时需要图像运动轨迹起始点距离显示面S也越远,从而需要第二基点J更大的负视差数值画面达到表现效果。 [0072] 如图9所示,生成的3D物件的3D图像和/或其动作轨迹包括在第一基点K、第二基点J的连线线段两侧分别生成在左眼、右眼单独睁开时能看到的实际图像或动作轨迹,在第一基点K的图像为零视差,在第一基点K的下方的图像为负视差,在第一基点K上方的图像为正视差。如图10所示,当戴上3D眼镜后,就看到3D效果的3D图像,以及看到3D物体由互动遥控单元1的方向附近位置向显示面S发射出的子弹、飞镖等3D物体向显示面S移动的运动轨迹。 [0073] 如图11所示,在用户同时戴上3D眼镜单元2和握持互动遥控单元1时,可根据3D眼镜单元2和互动遥控单元1相对显示面S的测距定位信息,在显示单元上生成出与人眼位置、互动遥控单元1更对应的真实的3D效果。对应的,其操作步骤包括: [0074] 步骤S1还包括:3D眼镜单元2的三维空间定位传感器11发射红外光信号到显示单元的显示面S,所述互动显示系统得出3D眼镜单元2相对显示面S的测距定位信息、以及计算出互动遥控单元1和3D眼镜单元2相互之间的空间位置信息; [0075] 步骤S2还包括:系统监控单元3实时获取3D眼镜单元2所发射的红外光信号在显示单元的显示面S的位置信息,进而可以得出互动遥控单元1、3D眼镜单元2、显示面S之间的位置关系。 [0076] 步骤S3还包括:在得出互动遥控单元1、3D眼镜单元2的空间位置后,根据3D眼镜单元2与互动遥控单元1顶端或其他部位的空间虚拟连线延伸到显示画面的落点决定显示3D图像和/或其动作轨迹的第二基点J。 [0077] 生成的3D物件的3D图像和/或其动作轨迹包括在第一基点K、第二基点J的连线线段两侧分别生成在左眼、右眼单独睁开时能看到的实际图像或动作轨迹,在第一基点K的图像为零视差,在第一基点K的下方的图像为负视差,在第一基点K上方的图像为正视差。 [0078] 如图12所示,用户戴上3D眼镜后看到的图像,是例如子弹直接从枪型互动遥控单元1的枪口发出,穿过枪口所指的显示面S位置射向远方直至消失。3D效果的3D物体及其运动轨迹不会与互动遥控单元1产生偏移,视觉效果更加的逼真。 [0079] 可以理解地,上述各技术特征可以任意组合使用而不受限制。 |