首页 / 专利库 / 人工智能 / 机器学习 / 人工神经网络 / 人工神经元 / 一种基于深度学习的司机、乘客行为分析与预警系统

一种基于深度学习的司机、乘客行为分析与预警系统

阅读:697发布:2020-05-11

专利汇可以提供一种基于深度学习的司机、乘客行为分析与预警系统专利检索,专利查询,专利分析的服务。并且本 发明 公开了一种基于 深度学习 的司机、乘客行为分析与预警系统,包括车辆 位置 信息获取模 块 、司机与乘客行为获取模块、司机与乘客行为分析模块、语音预警与报警模块与数据存储模块;通过摄像头获取视频信息,计算乘客与司机的距离,进而使用AlexNet 算法 对司机的驾驶行为进行分析,使用深度学习算法AlexNet与Mask RCNN分别对乘客的表情与动作进行分析,并结合语音分析,给出司机与乘客行为分析结果,将分析结果与 阈值 进行比较,进而运行三级预警操作,此系统能及时发现公交车内危害驾驶的行为,并给出预警措施,保障了乘客生命安全。,下面是一种基于深度学习的司机、乘客行为分析与预警系统专利的具体信息内容。

1.一种基于深度学习的司机、乘客行为分析与预警系统,其特征在于,包括:车辆位置信息获取模、司机与乘客行为获取模块、司机与乘客行为分析模块、语音预警与报警模块与数据存储模块;
所述车辆位置信息获取模块,用于获取车辆的位置信息;
所述司机与乘客行为获取模块,用于获取司机与乘客的视频数据;
所述司机与乘客行为分析模块,用于计算乘客与司机之间的距离,进而对公交车司机驾驶行为以及乘客的表情、动作、音频进行分析,得出司机与乘客的行为分析结果;
所述语音预警与报警模块,通过语音警示嫌疑人与司机并提醒其它乘客采取干预措施,报警模块用于报警操作;
所述数据存储模块,用于存储卷积神经网络模型、位置信息、视频与音频数据。
2.根据权利要求1所述的一种基于深度学习的司机、乘客行为分析与预警系统,其特征在于:所述的车辆位置信息获取模块,通过GPS获取车辆的位置信息,输入到数据存储模块中。
3.根据权利要求1所述的一种基于深度学习的司机、乘客行为分析与预警系统,其特征在于:所述的司机与乘客行为获取模块中,通过安装主摄像头、副摄像头组成双目视觉摄像头,调整摄像头度使其能采集到驾驶员所处位置视频信息,两个摄像头同时进行录像操作;通过安装的麦克获取车厢内音频信息,将获取到的视频、音频信息输入到数据存储模块中。
4.根据权利要求1所述的一种基于深度学习的司机、乘客行为分析与预警系统,其特征在于:所述的司机与乘客行为分析模块包含:测距子模块、司机行为分析子模块、乘客行为分析子模块,司机与乘客行为分析模块工作过程包含如下步骤:
步骤4.1:读取数据存储模块中主摄像头和副摄像头获取到的两个视频,运行测距模块中的双目测距算法,对乘客到司机的距离进行计算;
步骤4.2:当乘客与司机的距离大于安全距离阈值D时,只运行司机行为分析模块对司机的驾驶行为进行分析;
步骤4.3:当乘客与司机的距离小于安全距离阈值D时,只对乘客行为进行分析。
5.根据权利要求4所述的一种基于深度学习的司机、乘客行为分析与预警系统,其特征在于:所述步骤4.2中的司机驾驶行为分为正常行驶、接打电话、与他人攀谈、离开座位四类,系统读取存储模块中主摄像头获取到的视频,选取每一秒视频内的关键图像,输入到AlexNet算法中计算司机处于非正常驾驶状态的概率;
非正常驾驶状态概率计算如下:
5.1AlexNet模型的训练:使用包含正常行驶、接打电话、与他人攀谈、离开座位驾驶状态图片各5000张作为训练图片,调整图片大小为227×227,将AlexNet算法最后的全连接层修改为4个神经元,然后输入训练集的图片进行训练,输出四种驾驶状态的概率值,即正常行驶的概率为P正常、接打电话的概率为P电话、与他人攀谈的概率为P攀谈、离开座位的概率为P离开,模型训练好的标准分类为准确率不小于98%;
5.2模型的使用:读取数据存储模块中的主摄像头获取的视频数据,选取每一秒内的关键帧图像,将图像调整为227×227大小,输入到训练好的AlexNet模型中获得司机处于非正常驾驶行为的概率为P非正常,其计算公式为:
P非正常=1-P正常                                                 (1)。
6.根据权利要求4所述的一种基于深度学习的司机、乘客行为分析与预警系统,其特征在于:所述步骤4.3中的对乘客行为分析具体过程如下:
6.1:读取存储模块中主摄像头获取到的视频,选取其一秒视频内的关键帧图像;
6.2:分析乘客脸部信息,计算乘客表情处于愤怒状态的概率P怒,将关键帧图像输入到Mask RCNN中对乘客动作进行分析,计算动作因子m,获取数据存储模块中的音频对音频进行分析计算音量因子h;
6.3:将乘客脸部信息、乘客动作信息与乘客音频信息的分析结果进行汇总得出乘客非正常行为得分S。
7.根据权利要求6所述的一种基于深度学习的司机、乘客行为分析与预警系统,其特征在于:所述的6.2中的乘客处于愤怒状态的概率P怒的计算方式为:
7.1AlexNet模型的训练:使用包含高兴、生气、沮丧、正常的脸部图片各5000张作为训练图片,调整图片大小为227×227,将AlexNet算法最后的全连接层修改为4个神经元,然后输入训练集的图片进行训练,输出四种表情的概率值,即高兴的概率P悦、生气的概率P怒、沮丧的概率P丧,正常表情的概率P正,模型训练好的标准分类为准确率不小于98%;
7.2模型的使用:读取数据存储模块中的主摄像头获取的视频数据,选取每一秒内的关键帧图像,使用Python中的Dlib模块选取包含乘客脸部图像数据,将图像调整为227×227大小,输入到训练好的AlexNet模型中获得乘客表情处于愤怒状态的概率P怒。
8.根据权利要求6所述的一种基于深度学习的司机、乘客行为分析与预警系统,其特征在于:所述的6.2中动作因子m的计算过程为:
8.1Mask RCNN模型训练:使用coco人体姿态数据集,训练Mask RCNN模型,输出17个人体关键点坐标,人体关键点格式为:0-鼻子,1-左眼,2-右眼3-左,4-右耳,5-左肩,6-右肩,7-左肘关节,8-右肘关节,9-左手腕,10-右手腕,11-左臀部,12-右臀部,13-左膝盖,14-右膝盖,15-左脚腕,16-右脚腕;
8.2获取乘客人体关键点矩阵:乘客行为分析模块读取存储模块中的主摄像头获取的视频信息,获取每一秒中的关键点图像,将图像输入到Mask R-CNN算法中,获取乘客的17个关键点坐标信息,本系统只考虑一个乘客对司机的攻击行为,本系统只使用包含左手腕、右手腕、左肘关节、右肘关节、左膝盖、右膝盖、左脚腕,右脚腕8个具有攻击性的关键点,令0、
1、2、3、4、5、6、7分别代表乘客的左手腕、右手腕、左肘关节、右肘关节、左膝盖、右膝盖、左脚腕,右脚腕,这八个关键点的坐标形成乘客人体关键点矩阵为:
令 与 分别表示乘客的第i个人体关键点的横坐标与纵坐标;
8.3获取司机关键点矩阵:乘客行为分析模块读取存储模块中的主摄像头获取的视频信息,获取每一秒中的关键点图像,将图像输入到Mask R-CNN算法中,获取司机的右眼、右肘关节、右臀部关键点,并对方向盘的中心位置做人工标注,令0、1、2分别代表代表司机的右眼、右肘关节、右臀部,令 与 分别表示司机的第j个人体
关键点的横坐标与纵坐标,令 与 分别代表方向盘中心的横坐标与纵坐标,则司机的关键点矩阵为:
8.4计算动作因子m:令dij(i∈{0,1,2,3,4,5,6,7},j∈{0,1,2,3})代表乘客的第i个关键点与司机的第j个关键点的欧式距离,
乘客对司机的攻击性用一个横向量 表示,则
选取向量 中最小的元素dmin,计算动作因子m:
其中d手臂表示一个成年人的胳膊与手的长度之和。
9.根据权利要求6所述的一种基于深度学习的司机、乘客行为分析与预警系统,其特征在于:所述的6.2中音量因子h的计算过程为:
运行乘客行为分析模块,通过麦克风获取乘客的声音音量大小V,令Vmax表示人类发出的最大音量,则音量因子h的计算公式为:
10.根据权利要求6所述的一种基于深度学习的司机、乘客行为分析与预警系统,其特征在于:所述的6.3中乘客非正常行为得分S的计算过程为:
将生气概率P怒,公式(6)计算出的动作危险因子m和公式(7)计算出的音量因子h进行加权求和得到综合行为得分S,S的公式如下:
S=w0*P怒+w1*m+w2*h                          (8)
公式(8)中,w0,w1和w2分别表示生气概率P怒的权重,动作危险因子m的权重和音量因子h的权重,S值越大表示乘客对行驶安全的危害越大。
11.根据权利要求1所述的一种基于深度学习的司机、乘客行为分析与预警系统,其特征在于:所述的语音预警与报警模块,语音预警与报警模块与车内的广播系统相连,用于控制广播的预警内容,无论启动司机行为分析模块还是乘客行为分析模块,预警系统一直运行;其报警操作使用SIM卡及配套设备进行报警操作,其报警内容在安装设备前录制完毕。
12.根据权利要求10所述的一种基于深度学习的司机、乘客行为分析与预警系统,其特征在于:所述的语音预警按照司机或乘客行为的危害程度由小到大分为三级预警、二级预警、一级预警,三级预警表述如下:
三级预警:当司机非正常驾驶概率P非正常∈[p0,p1),或者乘客非正常行为得分S∈[s0,s1),预警系统开始提醒司机安全驾驶,或者劝说非正常乘客远离司机;
二级预警:当司机非正常驾驶概率P非正常∈[p1,p2),或者乘客非正常行为得分S∈[s1,s2),预警系统警告司机安全驾驶,或者警告乘客停止危险行为;
一级预警:当司机非正常驾驶概率P非正常≥p2,或者乘客非正常行为得分S≥s2,预警系统开始报警,并广播其他乘客制止非正常乘客。
13.根据权利要求11所述的一种基于深度学习的司机、乘客行为分析与预警系统,其特征在于:所述的开始报警,报警系统与110联网,将报警内容发送到110。
14.根据权利要求1所述的一种基于深度学习的司机、乘客行为分析与预警系统,其特征在于:所述的数据存储模块,使用安装在系统上的TF内存卡。

说明书全文

一种基于深度学习的司机、乘客行为分析与预警系统

技术领域

[0001] 本发明属于视觉识别技术领域,尤其涉及一种基于深度学习的司机、乘客行为分析与预警系统。

背景技术

[0002] 随着视频监控技术的发展,视频监控技术被广泛的应用于各种公共场合,现有的识别特征主要有动作、音频,表情。其中基于动作识别的文献有:[罗会兰,王婵娟,卢飞.视频行为识别综述[J].通信学报.2018,39(06):169-180.]、《基于上肢推搡检测大家行为的方法-201210591495.0》、《基于上肢高度检测打架行为的方法-201210591527.7》;基于音频识别的文献有《:音视频联合分析的打架斗殴检测系统-200920291779.1》;基于面部识别的文献的有:《基于面部识别的检测打架行为的方法-201210587739.8》。专利《一种基于视觉的运营车辆人员异常行为检测方法审中-实审申请号:201910229246.9》,该专利基于动作进行判断,分析特征单一,忽略了乘客抢夺方向盘的行为。当发生危害驾驶的行为时无法预警或者报警,阻止行为的恶化;本专利将动作、表情、语音三个维度的信息进行整合分析,并且在分析动作时对抢夺方向盘的行为也做出分析,在遇到不同的情况时进行相关的预警或者报警操作,保证了车辆的安全行驶。
[0003] 专利《一种基于多列融合卷积神经网络的驾驶员行为识别方法-201810692685.9》提及到一种对驾驶员行为分析的方法,但是该专利只是对驾驶员的行为进行分析,没有对乘客的行为进行分析,造成无法避免因乘客造成的危险,本专利将司机和乘客均作为分析的对象,进一步保证行驶安全。
[0004] 特别的,公交车内人员复杂、密集,当乘客出现乘客干扰司机或者殴打司机行为时,会对行驶安全造成巨大的威胁。现有的视频监控只能起到记录的作用,出现事故后还是需要人员去查看,无法处理突发情况,使用深度卷积神经网络可以对乘客以及司机的行为进行分析,关键点获取算法Mask RCNN结构如文献[He K,Gkioxari G,Dollar P,et al.Mask R- CNN[J].IEEE Transactions on Pattern  Analysis&Machine Intelligence.2017,PP(99):1.]所述,这种算法的出现使得行为分析变的简单易行。

发明内容

[0005] 本发明目的在于克服上述现在技术的不足,提出一种融合司机与乘客的语音、表情和动作多特征的一种基于深度学习的司机、乘客行为分析与预警系统,可以准确分析司机和乘客的行为信息,判定是否危害行驶安全并采取不同级别的预警措施,保证了行驶安全。
[0006] 为了解决以上存在的技术问题,本发明的技术方案是:一种基于深度学习的司机、乘客行为分析与预警系统,包括:车辆位置信息获取模、司机与乘客行为获取模块、司机与乘客行为分析模块、语音预警与报警模块与数据存储模块;
车辆位置信息获取模块,用于获取车辆的位置信息;
司机与乘客行为获取模块,用于获取司机与乘客的视频数据;
司机与乘客行为分析模块,用于计算乘客与司机之间的距离,进而对公交车司机驾驶行为以及乘客的表情、动作、音频进行分析,得出司机与乘客的行为分析结果;
语音预警与报警模块,通过语音警示嫌疑人与司机并提醒其它乘客采取干预措施,报警模块用于报警操作;
数据存储模块,用于存储卷积神经网络模型、位置信息、视频与音频数据;
本发明的车辆位置信息获取模块,通过GPS获取车辆的位置信息,输入到数据存储模块中。
[0007] 本发明的司机与乘客行为获取模块中,通过安装主摄像头、副摄像头组成双目视觉摄像头,调整摄像头度使其能采集到驾驶员所处位置视频信息,两个摄像头同时进行录像操作;通过安装的麦克获取车厢内音频信息,将获取到的视频、音频信息输入到数据存储模块中。
[0008] 本发明的司机与乘客行为分析模块包含:测距子模块、司机行为分析子模块、乘客行为分析子模块,司机与乘客行为分析模块工作过程包含如下步骤:步骤一:读取数据存储模块中主摄像头和副摄像头获取到的两个视频,运行测距模块中的双目测距算法,对乘客到司机的距离进行计算;
步骤二:当乘客与司机的距离大于安全距离阈值D时,只运行司机行为分析模块对司机的驾驶行为进行分析;
步骤三:当乘客与司机的距离小于安全距离阈值D时,只对乘客行为进行分析。
[0009] 其中步骤二中司机驾驶行为分为正常行驶、接打电话、与他人攀谈、离开座位四类,系统读取存储模块中主摄像头获取到的视频,选取每一秒视频内的关键图像,输入到 AlexNet算法中计算司机处于非正常驾驶状态的概率。
[0010] 非正常驾驶状态概率计算如下:1.AlexNet模型的训练:使用包含正常行驶、接打电话、与他人攀谈、离开座位驾驶状态图片各5000张作为训练图片,调整图片大小为227×227,将AlexNet算法最后的全连接层修改为4个神经元,然后输入训练集的图片进行训练,输出四种驾驶状态的概率值,即正常行驶的概率为P正常、接打电话的概率为P电话、与他人攀谈的概率为P攀谈、离开座位的概率为 P离开,模型训练好的标准分类为准确率不小于98%;
2.模型的使用:读取数据存储模块中的主摄像头获取的视频数据,选取每一秒内的关键帧图像,将图像调整为227×227大小,输入到训练好的AlexNet模型中获得司机处于非正常驾驶行为的概率为P非正常,其计算公式为:
P非正常=1-P正常     (1)。
[0011] 步骤三中对乘客行为分析具体过程如下:1:读取存储模块中主摄像头获取到的视频,选取其一秒视频内的关键帧图像;
2:分析乘客脸部信息,计算乘客表情处于愤怒状态的概率,将关键帧图像输入到Mask RCNN中对乘客动作进行分析,计算动作因子,获取数据存储模块中的音频对音频进行分析计算音量因子;
3:将乘客脸部信息、乘客动作信息与乘客音频信息的分析结果进行汇总得出乘客非正常行为得分S。
[0012] 乘客行为分析过程中,乘客处于愤怒状态的概率P怒的计算方式为:1:AlexNet模型的训练:使用包含高兴、生气、沮丧、正常的脸部图片各5000张作为训练图片,调整图片大小为227×227,将AlexNet算法最后的全连接层修改为4个神经元,然后输入训练集的图片进行训练,输出四种表情的概率值,即高兴的概率P悦、生气的概率P怒、沮丧的概率P丧,正常表情的概率P正,模型训练好的标准分类为准确率不小于98%;
2:模型的使用:读取数据存储模块中的主摄像头获取的视频数据,选取每一秒内的关键帧图像,使用Python中的Dlib模块选取包含乘客脸部图像数据,将图像调整为227×227大小,输入到训练好的AlexNet模型中获得乘客表情处于愤怒状态的概率P怒。
[0013] 乘客行为分析过程中,动作因子m的计算过程为:1:Mask RCNN模型训练:使用coco人体姿态数据集,训练Mask RCNN模型,输出17个人体关键点坐标,人体关键点格式为:0-鼻子,1-左眼,2-右眼3-左,4-右耳,5-左肩,6- 右肩,
7-左肘关节,8-右肘关节,9-左手腕,10-右手腕,11-左臀部,12-右臀部,13-左膝盖,14-右膝盖,15-左脚腕,16-右脚腕;
2:获取乘客人体关键点矩阵:乘客行为分析模块读取存储模块中的主摄像头获取的视频信息,获取每一秒中的关键点图像,将图像输入到Mask R-CNN算法中,获取乘客的17个关键点坐标信息,本系统只考虑一个乘客对司机的攻击行为,本系统只使用包含左手腕、右手腕、左肘关节、右肘关节、左膝盖、右膝盖、左脚腕,右脚腕8个具有攻击性的关键点,令 0、1、
2、3、4、5、6、7分别代表乘客的左手腕、右手腕、左肘关节、右肘关节、左膝盖、右膝盖、左脚腕,右脚腕,这八个关键点的坐标形成乘客人体关键点矩阵为:
令 与 分别表示乘客的第i个人体关键点的横坐标与纵坐标;
3:获取司机关键点矩阵:乘客行为分析模块读取存储模块中的主摄像头获取的视频信息,获取每一秒中的关键点图像,将图像输入到Mask R-CNN算法中,获取司机的右眼、右肘关节、右臀部关键点,并对方向盘的中心位置做人工标注,令0、1、2分别代表代表司机的右眼、右肘关节、右臀部,令 与 分别表示司机的第j个人体关键
点的横坐标与纵坐标,令 与 分别代表方向盘中心的横坐标与纵坐标,则司机的关键点矩阵为:
4计算动作因子m:令dij(i∈{0,1,2,3,4,5,6,7},j∈{0,1,2,3})代表乘客的第i个关键点与司机的第j个关键点的欧式距离,
乘客对司机的攻击性用一个横向量 表示,则
选取向量 中最小的元素dmin,计算动作因子m:
其中d手臂表示一个成年人的胳膊与手的长度之和。
乘客行为分析过程中,音量因子h的计算过程为:
运行乘客行为分析模块,通过麦克风获取乘客的声音音量大小V,令Vmax表示人类发出的最大音量,则音量因子h的计算公式为:
[0014] 乘客行为分析过程中,乘客非正常行为得分S的计算过程为:将生气概率P怒,公式(6)计算出的动作危险因子m和公式(7)计算出的音量因子h进行加权求和得到综合行为得分S,S的公式如下:
S=w0*P怒+w1*m+w2*h       (8)
其中,w0,w1和w2分别表示生气概率P怒的权重,动作危险因子m的权重和音量因子h的权重,S值越大表示乘客对行驶安全的危害越大。
[0015] 本发明语音预警与报警模块,语音预警与报警模块与车内的广播系统相连,用于控制广播的预警内容,无论启动司机行为分析模块还是乘客行为分析模块,预警系统一直运行;其报警操作使用SIM卡及配套设备进行报警操作,其报警内容在安装设备前录制完毕。
[0016] 本发明中语音预警按照司机或乘客行为的危害程度由小到大分为三级预警、二级预警、一级预警,三级预警表述如下:三级预警:当司机非正常驾驶概率P非正常∈[p0,p1),或者乘客非正常行为得分S∈[s0,s1),预警系统开始提醒司机安全驾驶,或者劝说非正常乘客远离司机;
二级预警:当司机非正常驾驶概率P非正常∈[p1,p2),或者乘客非正常行为得分S∈[s1,s2),预警系统警告司机安全驾驶,或者警告乘客停止危险行为;
一级预警:当司机非正常驾驶概率P非正常≥p2,或者乘客非正常行为得分S≥s2,预警系统开始报警,并广播其他乘客制止非正常乘客。
[0017] 本发明的报警系统与110联网,将报警内容发送到110。
[0018] 本发明的数据存储模块,使用安装在系统上的TF内存卡。附图说明
[0019] 图1为本发明原理示意图。
[0020] 图2为系统运行原理图。

具体实施方式

[0021] 下面结合附图和具体实施方式对本发明做进一步详细的说明。
[0022] 如图1所示,一种基于深度学习的司机、乘客行为分析与预警系统,包括:车辆位置信息获取模块、司机与乘客行为获取模块、司机与乘客行为分析模块、语音预警与报警模块与数据存储模块;优选的本发明采用NVIDIA JETSON NANO嵌入式GPU开发板进行系统实现。
[0023] 车辆位置信息获取模块,用于获取车辆的位置信息;司机与乘客行为获取模块,用于获取司机与乘客的视频数据;
司机与乘客行为分析模块,用于计算乘客与司机之间的距离,进而对公交车司机驾驶行为以及乘客的表情、动作、音频进行分析,得出司机与乘客的行为分析结果;
语音预警与报警模块,通过语音警示嫌疑人与司机并提醒其它乘客采取干预措施,报警模块用于报警操作;
数据存储模块,用于存储卷积神经网络模型、位置信息、视频与音频数据。
[0024] 本发明的车辆位置信息获取模块,优选的使用waveshare L76X GPS模块连接系统,每秒获取一次车辆的经纬度和高度信息,输入到数据存储模块中。
[0025] 本发明的司机与乘客行为获取模块中,安装IMX219-77IR Camera摄像头两枚,分别作为主摄像头、副摄像头,并组成双目视觉摄像头,调整摄像头角度使其能采集到驾驶员所处位置视频信息,并调整角度,当有乘客进入画面时正好距离司机2m,两个摄像头同时进行录像操作;通过安装的麦克风获取车厢内音频信息,将获取到的视频、音频信息输入到数据存储模块中。
[0026] 本发明的司机与乘客行为分析模块包含:测距子模块、司机行为分析子模块、乘客行为分析子模块,如图2所示,司机与乘客行为分析模块工作过程包含如下步骤:步骤一:读取数据存储模块中主摄像头和副摄像头获取到的两个视频,运行测距模块中的双目测距算法,对出现在画面的所有乘客到司机的距离进行计算,测距算法为双目测距算法,使用opencv数据库U中的双目视觉喜爱空间坐标计算方法,对出现在图像中所有乘客进行测距操作;
步骤二:当乘客与司机的距离大于安全距离阈值D时,只运行司机行为分析模块对司机的驾驶行为进行分析,D的取值为1.5m;
步骤三:当乘客与司机的距离小于安全距离阈值D时,只对乘客行为进行分析。
[0027] 其中步骤二中司机驾驶行为分为正常行驶、接打电话、与他人攀谈、离开座位四类,系统读取存储模块中主摄像头获取到的视频,选取每一秒视频内的关键帧图像,输入到 AlexNet算法中计算司机处于非正常驾驶状态的概率。
[0028] 非正常驾驶状态概率计算如下:1.AlexNet模型的训练:使用包含正常行驶、接打电话、与他人攀谈、离开座位驾驶状态图片各5000张作为训练图片,优选的使用百度的PaddlePaddle实现AlexNet算法,AlexNet网络的结构如下:
卷积层1:输入图像规格:1080×720×3,经过预处理变为227×227×3,使用的96个大小规格为11×11×3的过滤器Filter,或者称为卷积核,步长为4进行特征提取,激活函数使用RELU并进行3×3步长为2池化操作。
[0029] 卷积层2:使用256个5X5大小的过滤器Filter(步长1)进行进一步提取特征,然后进行RELU激活操作,最后进行3X3步长为2的降采样操作。
[0030] 卷积层3:使用的384个大小规格为3×3的过滤器Filter步长为1,进行特征提取。
[0031] 卷积层4:使用的384个大小规格为3×3的过滤器Filter步长为1,进行特征提取。
[0032] 卷积层5:使用的256个大小规格为3×3的过滤器Filter步长为1,进行特征提取。
[0033] 全连接层6:这里使用4096个神经元,将卷积层5处理后的矩阵使用4096个6×6 的过滤器Filter将6×6×256的矩阵转换为4096的矩阵。
[0034] 全连接层7:这里使用4096个神经元,将全连接层6处理后的数据进行计算,输出大小为4096。
[0035] 全连接层8:这里使用4个神经元,将全连接层7处理后的作为x进行输入,输出四种驾驶状态的概率值,即正常行驶的概率为P正常、接打电话的概率为P电话、与他人攀谈的概率为P攀谈、离开座位的概率为P离开,模型训练好的标准分类为准确率不小于98%;2.模型的使用:读取数据存储模块中的主摄像头获取的视频数据,选取每一秒内的关键帧图像,将图像调整为227×227大小,输入到训练好的AlexNet模型中获得司机处于非正常驾驶行为的概率为P非正常,其计算公式为:
P非正常=1-P正常       (1)。
[0036] 步骤三中对乘客行为分析具体过程如下:1:读取存储模块中主摄像头获取到的视频,选取其一秒视频内的关键帧图像,本系统使用的摄像头模组一秒可以获取30帧,选择第1、5、10、15、20、25、30帧作为一秒内的关键帧;
2:分析乘客脸部信息,计算乘客表情处于愤怒状态的概率,将关键帧图像输入到Mask RCNN中对乘客动作进行分析,计算动作因子,获取数据存储模块中的音频对音频进行分析计算音量因子;
3:将乘客脸部信息、乘客动作信息与乘客音频信息的分析结果进行汇总得出乘客非正常行为得分S。
[0037] 乘客行为分析过程中,乘客处于愤怒状态的概率P怒的计算方式为:1:AlexNet模型的训练:使用包含高兴、生气、沮丧、正常的脸部图片各5000张作为训练图片,优选的使用百度公司的PaddlePaddle框架实现AlexNet算法,调整图片大小为227× 
227,将AlexNet算法最后的全连接层修改为4个神经元,然后输入训练集的图片进行训练,输出四种表情的概率值,即高兴的概率P悦、生气的概率P怒、沮丧的概率P丧,正常表情的概率P正,模型训练好的标准分类为准确率不小于98%;
2:模型的使用:读取数据存储模块中的主摄像头获取的视频数据,选取每一秒内的关键帧图像,使用Python中的Dlib模块选取包含乘客脸部图像数据,将图像调整为227×227大小,输入到训练好的AlexNet模型中获得乘客表情处于愤怒状态的概率P怒,经过计算 P怒=0.56。
[0038] 乘客行为分析过程中,动作因子m的计算过程为:1:Mask RCNN模型训练:优选的使用百度的PaddlePaddle实现Mask RCNN算法,使用 coco人体姿态数据集,训练Mask RCNN模型,输出17个人体关键点坐标,人体关键点格式为:
0-鼻子,1-左眼,2-右眼3-左耳,4-右耳,5-左肩,6-右肩,7-左肘关节,8-右肘关节,9-左手腕,10-右手腕,11-左臀部,12-右臀部,13-左膝盖,14-右膝盖,15-左脚腕, 16-右脚腕;
2:获取乘客人体关键点矩阵:乘客行为分析模块读取存储模块中的主摄像头获取的视频信息,获取每一秒中的关键点图像,将图像输入到Mask R-CNN算法中,获取乘客的17个关键点坐标信息,本系统只考虑一个乘客对司机的攻击行为,本系统只使用包含左手腕、右手腕、左肘关节、右肘关节、左膝盖、右膝盖、左脚腕,右脚腕8个具有攻击性的关键点,令 0、1、
2、3、4、5、6、7分别代表乘客的左手腕、右手腕、左肘关节、右肘关节、左膝盖、右膝盖、左脚腕,右脚腕,这八个关键点的坐标形成乘客人体关键点矩阵为:
设图像的左上角为坐标原点,向左为x正半轴,向下
为y正半轴,单位为像素
3:获取司机关键点矩阵:乘客行为分析模块读取存储模块中的主摄像头获取的视频信息,获取每一秒中的关键点图像,将图像输入到Mask R-CNN算法中,获取司机的右眼、右肘关节、右臀部关键点,并对方向盘的中心位置做人工标注,司机的关键点矩阵为:
4计算动作因子m:令dij(i∈{0,1,2,3,4,5,6,7},j∈{0,1,2,3})代表乘客的第i个关键点与司机的第j个关键点的欧式距离, 乘客对司机的攻击性
用一个横向量 表示,则
选取向量 中最小的元素 dmin=22.33,设d手臂为图中乘客肩膀到手腕的距离,经过计算得出,d手臂=67.65计算动作因子 其中d手臂表示一个成年人的胳膊与手腕
的长度之和,经计算m为 0.84。
乘客行为分析过程中,音量因子h的计算过程为:
运行乘客行为分析模块,通过麦克风获取乘客的声音音量大小V为35分贝,令Vmax表示人类发出的最大音量,为99分贝,则音量因子h为:
[0039] 乘客行为分析过程中,乘客非正常行为得分S的计算过程为:将生气概率P怒,动作危险因子m和音量因子h进行加权求和得到综合行为得分S, S=
0.2*0.56+0.7*0.84+0.1*0.35=0.735其中,w0,w1和w2分别取0.2,0.7和0.1,S值越大表示乘客对行驶安全的危害越大。
[0040] 本发明语音预警与报警模块,语音预警与报警模块与车内的广播系统相连,用于控制广播的预警内容,无论启动司机行为分析模块还是乘客行为分析模块,预警系统一直运行;其报警操作使用SIM卡及配套设备进行报警操作,其报警内容在安装设备前录制完毕。
[0041] 本发明中语音预警按照司机或乘客行为的危害程度由小到大分为三级预警、二级预警、一级预警,三级预警表述如下:三级预警:当司机非正常驾驶概率P非正常∈[p0,p1),或者乘客非正常行为得分S∈[s0,s1),预警系统开始提醒司机安全驾驶,或者劝说非正常乘客远离司机;
二级预警:当司机非正常驾驶概率P非正常∈[p1,p2),或者乘客非正常行为得分S∈[s1,s2),预警系统警告司机安全驾驶,或者警告乘客停止危险行为;
一级预警:当司机非正常驾驶概率P非正常≥p2,或者乘客非正常行为得分S≥s2,预警系统开始报警,并广播其他乘客制止非正常乘客;
对本系统进行12场测试,分别为第1,2,3场,距离司机1.5m处大声辱骂司机,第4,5,6场距离司机1m处,大声辱骂司机,第7,8,9场乘客与司机发生肢体冲突,不再辱骂司机,第10,
11,12场司机与别人交谈,其中规定第1,2,3场计算出的乘客非正常行为得分大于0.2小于 
0.5即代表测试成功,第4,5,6场计算出的乘客非正常行为得分大于0.5小于0.7即为测试成功,第7,8,9场计算出的乘客非正常行为得分大于0.7,即代表测试成功,第10,11,12场,计算出概率大于0.8即为测试成功,这12场中第3场测试失败,成功率为91.7%,系统达到较为准确的结果,经过测试,p0,p1,p2分别取0.2,0.5,0.7;s0,s1,s2分别取0.2,0.5,0.7可以准确判断司机与乘客的行为。
[0042] 本发明的报警系统与110联网,将报警内容发送到110,报警系统与当地的网上报警相连,发送内容为:公交车次、经纬度、司机姓名、发送前车内图像10张。
[0043] 本发明的数据存储模块,使用安装在系统上的TF内存卡,使用闪迪的128G内存卡进行储存。
[0044] 以上所述一种基于深度学习的司机、乘客行为分析与预警系统,仅本发明的较佳方法,故凡依照本发明专利申请范围所述的特征及原理所做的等效变化或修饰,均包括本发明专利申请范围内。
高效检索全球专利

专利汇是专利免费检索,专利查询,专利分析-国家发明专利查询检索分析平台,是提供专利分析,专利查询,专利检索等数据服务功能的知识产权数据服务商。

我们的产品包含105个国家的1.26亿组数据,免费查、免费专利分析。

申请试用

分析报告

专利汇分析报告产品可以对行业情报数据进行梳理分析,涉及维度包括行业专利基本状况分析、地域分析、技术分析、发明人分析、申请人分析、专利权人分析、失效分析、核心专利分析、法律分析、研发重点分析、企业专利处境分析、技术处境分析、专利寿命分析、企业定位分析、引证分析等超过60个分析角度,系统通过AI智能系统对图表进行解读,只需1分钟,一键生成行业专利分析报告。

申请试用

QQ群二维码
意见反馈