百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术分类 > 正文

辅助驾驶技术——基于mediapipe的驾驶人睡意检测

ztj100 2024-10-30 05:12 46 浏览 0 评论

什么是MediaPipe

MediaPipe 是一款由 Google Research 开发并开源的多媒体机器学习模型应用框架。在谷歌,一系列重要产品,如 、Google Lens、ARCore、Google Home 以及 ,都已深度整合了 MediaPipe。

MediaPipe 的核心框架由 C++ 实现,并提供 Java 以及 Objective C 等语言的支持。MediaPipe 的主要概念包括数据包(Packet)、数据流(Stream)、计算单元(Calculator)、图(Graph)以及子图(Subgraph)。

利用机器学习,进行人体33个2D姿态检测与评估

MediaPipe不仅可以进行人体姿态检测,手势识别,人脸检测与识别外,还可以进行3D物体对象检测等等,本期我们就基于MediaPipe的人脸检测来进行驾驶人的睡意检测。

MediaPipe Face Mesh

MediaPipe Face Mesh是一种脸部几何解决方案,即使在移动设备上,也可以实时估计468个3D脸部界标(dlib才能检测出68点)。它采用机器学习(ML)来推断3D表面几何形状,只需要单个摄像机输入,而无需专用的深度传感器。该解决方案利用轻量级的模型架构以及整个管线中的GPU加速,可提供对实时体验至关重要的实时性能。我们要进行驾驶人睡意检测,需要使用到MediaPipe Face Mesh 468个人脸关键点的人眼睛部分。眼部区域有32个点(每个眼睛有16个)。 为了计算眼睛的坐标,我们只需要 12 个点(每只眼睛 6 个)。

利用机器学习进行人脸468点的3D坐标检测,并生成3D模型

选择的12个点如下:

左眼:[362, 385, 387, 263, 373, 380]
右眼:[33, 160, 158, 133, 153, 144]
点坐标依次为:P1, P2, P3, P4, P5, P6 

驾驶人睡意检测理论

为了检测人眼的闭合状态,我们使用眼睛纵横比比(EAR)公式:

前期我们也使用过opencv来进行人眼的睡意检测,可以参考往期内容

按照我们的目标要求,我们需要进行驾驶人睡意检测,当然我们要从视频流中来实时检测,本期我们先按照检测图片的步骤先把此流程过一遍

1、我们输入一张人脸图片

2、mediapipe来进行人脸的468点的检测

3、从468点中获取人眼检测部分的12个点

4、根据EAR计算公式来计算人眼间的距离

5、根据计算的距离值与设置值进行对比

6、获取驾驶人睡意检测概率,进行提醒操作

mediapipe驾驶人睡意检测代码实现

import cv2
import numpy as np
import matplotlib.pyplot as plt
import mediapipe as mp
mp_facemesh = mp.solutions.face_mesh
mp_drawing  = mp.solutions.drawing_utils
denormalize_coordinates = mp_drawing._normalized_to_pixel_coordinates
all_left_eye_idxs = list(mp_facemesh.FACEMESH_LEFT_EYE)
all_left_eye_idxs = set(np.ravel(all_left_eye_idxs)) 
all_right_eye_idxs = list(mp_facemesh.FACEMESH_RIGHT_EYE)
all_right_eye_idxs = set(np.ravel(all_right_eye_idxs))
all_idxs = all_left_eye_idxs.union(all_right_eye_idxs)
 
chosen_left_eye_idxs  = [362, 385, 387, 263, 373, 380]
chosen_right_eye_idxs = [33,  160, 158, 133, 153, 144]
all_chosen_idxs = chosen_left_eye_idxs + chosen_right_eye_idxs

image_int = cv2.imread(r"2.png")
image = cv2.cvtColor(image_int, cv2.COLOR_BGR2RGB) 
image = np.ascontiguousarray(image)
imgH, imgW, _ = image.shape
 
cv2.imshow('image',image_int)
cv2.waitKey(0)

首先,我们import mediapipe第三方包,以便使用mediapipe来进行人脸的468点的检测,并获取左右眼睛的32点坐标点,我们从32个坐标点中获取12个坐标点,左右眼睛各6个。然后我们加载一张需要检测的照片,方便后期进行图片的人脸468点检测。当然关于mediapipe的详细介绍,可以参考文章末尾的扩展阅读。

with mp_facemesh.FaceMesh(
    static_image_mode=True,         # Default=False
    max_num_faces=1,                # Default=1
    refine_landmarks=False,         
    min_detection_confidence=0.5,   # Default=0.5
    min_tracking_confidence= 0.5,   # Default=0.5
) as face_mesh:
     
    results = face_mesh.process(image)

我们直接使用mp_facemesh.FaceMesh中的process函数进行图片的人脸468点检测,经过此函数后,我们就得到了468个坐标点,我们需要从这468点中得到左右眼睛的12个点。其结果保存在results中。

def plot_pic(
    *,
    img_dt,
    img_eye_lmks=None,
    img_eye_lmks_chosen=None,
    face_landmarks=None,
    ts_thickness=1,
    ts_circle_radius=2,
    lmk_circle_radius=3,
    name="1",
):
    image_drawing_tool = img_dt 
    image_eye_lmks = img_dt.copy() if img_eye_lmks is None else img_eye_lmks
    img_eye_lmks_chosen = img_dt.copy() if img_eye_lmks_chosen is None else img_eye_lmks_chosen
    connections_drawing_spec = mp_drawing.DrawingSpec(
        thickness=ts_thickness, 
        circle_radius=ts_circle_radius, 
        color=(255, 255, 255)
    )
    mp_drawing.draw_landmarks(
        image=image_drawing_tool,
        landmark_list=face_landmarks,
        connections=mp_facemesh.FACEMESH_TESSELATION,
        landmark_drawing_spec=None,
        connection_drawing_spec=connections_drawing_spec,
    )
    landmarks = face_landmarks.landmark
    for landmark_idx, landmark in enumerate(landmarks):
        if landmark_idx in all_idxs:
            pred_cord = denormalize_coordinates(landmark.x,  landmark.y,  imgW, imgH)
            cv2.circle(image_eye_lmks, pred_cord,  lmk_circle_radius,  (255, 255, 255), -1 ) 
        if landmark_idx in all_chosen_idxs:
            pred_cord = denormalize_coordinates(landmark.x,  landmark.y,  imgW, imgH)
            cv2.circle(img_eye_lmks_chosen, pred_cord, lmk_circle_radius, (255, 255, 255),  -1 )
    imghstack = np.hstack((img_eye_lmks_chosen, image_eye_lmks,image_drawing_tool))
    cv2.imshow('imghstack',imghstack)
    cv2.waitKey(0)

为了方便,我们建立一个plot_pic函数来从人脸468个关键点中获取12个左右眼睛的关键点

if results.multi_face_landmarks:
    for face_id, face_landmarks in enumerate(results.multi_face_landmarks):    
        _ = plot_pic(img_dt=image.copy(), face_landmarks=face_landmarks)

得到12个关键点后,我们便可以利用EAR公式来计算驾驶人睡意检测的概率了

image_eyes_open  = cv2.imread("3.png")[:, :, ::-1]
for idx, image in enumerate([image_eyes_open]):
    image = np.ascontiguousarray(image)
    imgH, imgW, _ = image.shape
    custom_chosen_lmk_image = image.copy()
    with mp_facemesh.FaceMesh(refine_landmarks=True) as face_mesh:
        results = face_mesh.process(image).multi_face_landmarks
        if results:
            for face_id, face_landmarks in enumerate(results):
                landmarks = face_landmarks.landmark
                EAR, _ = calculate_avg_ear( landmarks, chosen_left_eye_idxs,  chosen_right_eye_idxs,  imgW,  imgH)
                cv2.putText(custom_chosen_lmk_image, f"EAR: {round(EAR, 2)}", (1, 24), cv2.FONT_HERSHEY_COMPLEX, 0.9, (255, 255, 255), 2)                
                plot(img_dt=image.copy(),img_eye_lmks_chosen=custom_chosen_lmk_image, face_landmarks=face_landmarks,ts_thickness=1,  ts_circle_radius=3,   lmk_circle_radius=3 )

可以看到,当人眼闭合时,根据EAR的计算公式,其值就会很小,当人眼睁开时,其值就会变大。

当然,我们可以多收集一些数据,计算一个人眼睁开与闭合的数据,通过多个数据,计算一个比较合适的阈值,通过此阈值,我们检测到的人眼尺寸与此阈值来做对比,以便进行驾驶人的睡意检测。

我们真正利用此技术来应用到辅助驾驶汽车上时,我们需要从汽车摄像头上实时获取视频流,以便对视频流中的人脸进行睡意检测,当然,我们检测到驾驶员有睡意情况时,我们需要进行相关的提醒。本期我们介绍了如何使用mediapipe来进行驾驶员睡意检测,但是我们只是进行了一张图片的检测,且真实情况下,人会不停的眨眼睛,因此,我们还需要进行时间的判断,超过多少时间的眼睛闭合才真正算是驾驶员有睡意,我们后期再进行详细的分享。

扩展阅读:

毫秒级人体姿态检测模型MediaPipe,这速度,还能有那个模型比拟

利用机器学习,进行人手的21个3D手关节坐标检测

利用机器学习进行人脸468点的3D坐标检测,并生成3D模型

MediaPipe 集成人脸识别,人体姿态评估,人手检测模型

颠覆2D对象检测模型,MediaPipe 3D对象检测还原真实的对象特征

MediaPipe Face Detection可运行在移动设备上的亚毫秒级人脸检测

相关推荐

离谱!写了5年Vue,还不会自动化测试?

前言大家好,我是倔强青铜三。是一名热情的软件工程师,我热衷于分享和传播IT技术,致力于通过我的知识和技能推动技术交流与创新,欢迎关注我,微信公众号:倔强青铜三。Playwright是一个功能强大的端到...

package.json 与 package-lock.json 的关系

模块化开发在前端越来越流行,使用node和npm可以很方便的下载管理项目所需的依赖模块。package.json用来描述项目及项目所依赖的模块信息。那package-lock.json和...

Github 标星35k 的 SpringBoot整合acvtiviti开源分享,看完献上膝盖

前言activiti是目前比较流行的工作流框架,但是activiti学起来还是费劲,还是有点难度的,如何整合在线编辑器,如何和业务表单绑定,如何和系统权限绑定,这些问题都是要考虑到的,不是说纯粹的把a...

Vue3 + TypeScript 前端研发模板仓库

我们把这个Vue3+TypeScript前端研发模板仓库的初始化脚本一次性补全到可直接运行的状态,包括:完整的目录结构所有配置文件研发规范文档示例功能模块(ExampleFeature)...

Vue 2迁移Vue 3:从响应式到性能优化

小伙伴们注意啦!Vue2已经在2023年底正式停止维护,再不升级就要面临安全漏洞没人管的风险啦!而且Vue3带来的性能提升可不是一点点——渲染速度快40%,内存占用少一半,更新速度直接翻倍!还在...

VUE学习笔记:声明式渲染详解,对比WEB与VUE

声明式渲染是指使用简洁的模板语法,声明式的方式将数据渲染进DOM系统。声明式是相对于编程式而言,声明式是面向对象的,告诉框架做什么,具体操作由框架完成。编程式是面向过程思想,需要手动编写代码完成具...

苏州web前端培训班, 苏州哪里有web前端工程师培训

前端+HTML5德学习内容:第一阶段:前端页面重构:PC端网站布局、HTML5+CSS3基础项目、WebAPP页面布局;第二阶段:高级程序设计:原生交互功能开发、面向对象开发与ES5/ES6、工具库...

跟我一起开发微信小程序——扩展组件的代码提示补全

用户自定义代码块步骤:1.HBuilderX中工具栏:工具-代码块设置-vue代码块2.通过“1”步骤打开设置文件...

JimuReport 积木报表 v1.9.3发布,免费可视化报表

项目介绍积木报表JimuReport,是一款免费的数据可视化报表,含报表、大屏和仪表盘,像搭建积木一样完全在线设计!功能涵盖:数据报表、打印设计、图表报表、门户设计、大屏设计等!...

软开企服开源的无忧企业文档(V2.1.3)产品说明书

目录1....

一款面向 AI 的下一代富文本编辑器,已开源

简介AiEditor是一个面向AI的下一代富文本编辑器。开箱即用、支持所有前端框架、支持Markdown书写模式什么是AiEditor?AiEditor是一个面向AI的下一代富文本编辑...

玩转Markdown(2)——抽象语法树的提取与操纵

上一篇玩转Markdown——数据的分离存储与组件的原生渲染发布,转眼已经鸽了大半年了。最近在操纵mdast生成md文件的时候,心血来潮,把玩转Markdown(2)给补上了。...

DeepseekR1+ollama+dify1.0.0搭建企业/个人知识库(入门避坑版)

找了网上的视频和相关文档看了之后,可能由于版本不对或文档格式不对,很容易走弯路,看完这一章,可以让你少踩三天的坑。步骤和注意事项我一一列出来:1,前提条件是在你的电脑上已配置好ollama,dify1...

升级JDK17的理由,核心是降低GC时间

升级前后对比升级方法...

一个vsCode格式化插件_vscode格式化插件缩进量

ESlint...

取消回复欢迎 发表评论: