百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术分类 > 正文

利用神经网络模型检测摄像头上的可疑行为

ztj100 2024-12-12 16:14 9 浏览 0 评论

您可能想知道如何检测网络摄像头视频Feed中的可疑行为?我们将使用您计算机的网络摄像头作为视频源,用于训练数据和测试您的神经网络模型。这种方法是使用迁移学习的监督学习。

你需要遵循什么

您应该可以访问安装了以下组件的计算机。

  • Python 3
  • Keras/Tensorflow
  • Pillow (PIL)
  • NumPy
  • CV2

他们都可以通过pip和conda。

虽然,我已经在Mac上测试了这段Python代码,但它应该适用于任何系统。给出的文字转语音是唯一的例外,我以前用它subprocess.call()来调用Mac OS X say命令。您的操作系统上可能有一个等效的命令。

导入Python库

# Create training videos
import cv2
import numpy as np
from time import sleep
import glob
import os
import sys
from PIL import Image
import subprocess
NUM_FRAMES = 100
TAKES_PER = 2
CLASSES = ['SAFE', 'DANGER']
NEG_IDX = 0
POS_IDX = 1
HIDDEN_SIZE = 256
MODEL_PATH='model.h5'
TRAIN_MODEL = True
EPOCHS = 10
HIDDEN_SIZE = 16

准备数据

首先,我们需要一些训练数据来学习。我们需要“可疑”和“安全”行为的视频,因此请准备好行动!为了更容易训练我们的模型,您可以抓住玩具枪或其他可识别的物品来处理“可疑”场景。这样,在没有大量训练数据的情况下,您的模型将更容易分离两个案例。

这是一段Python代码片段,可从计算机的网络摄像头中捕获四个视频(两个可疑和两个安全),并将它们存储在一个data目录中供以后处理。

def capture(num_frames, path='out.avi'):
 
 # Create a VideoCapture object
 cap = cv2.VideoCapture(0)
 # Check if camera opened successfully
 if (cap.isOpened() == False): 
 print("Unable to read camera feed")
 # Default resolutions of the frame are obtained.The default resolutions are system dependent.
 # We convert the resolutions from float to integer.
 frame_width = int(cap.get(3))
 frame_height = int(cap.get(4))
 # Define the codec and create VideoWriter object.The output is stored in 'outpy.avi' file.
 out = cv2.VideoWriter(path, cv2.VideoWriter_fourcc('M','J','P','G'), 10, (frame_width,frame_height))
 print('Recording started')
 for i in range(num_frames):
 ret, frame = cap.read()
 if ret == True: 
 # Write the frame into the file 'output.avi'
 out.write(frame)
 # When everything done, release the video capture and video write objects
 cap.release()
 out.release()
 
for take in range(VIDEOS_PER_CLASS):
 for cla in CLASSES:
 path = 'data/{}{}.avi'.format(cla, take)
 print('Get ready to act:', cla)
 # Only works on Mac
 subprocess.call(['say', 'get ready to act {}'.format(cla)])
 capture(FRAMES_PER_VIDEO, path=path)

看看data目录中的视频。你视频根据类别命名,例如SAFE1.avi用于安全视频。

使用预训练的模型从视频中提取特征

接下来,您需要将这些视频转换为机器学习算法可以训练的内容。为此,我们将重新利用经过预训练的VGG16网络,该神经网络已在ImageNet上接受过训练。Python实现如下:

# Create X, y series
from keras.preprocessing import image
from keras.applications.vgg16 import VGG16
from keras.applications.vgg16 import preprocess_input
import numpy as np
class VGGFramePreprocessor():
 
 def __init__(self, vgg_model):
 self.vgg_model = vgg_model
 
 def process(self, frame):
 img_data = cv2.resize(frame,(224,224))
 img_data = np.expand_dims(img_data, axis=0)
 img_data = preprocess_input(img_data)
 x = self.vgg_model.predict(img_data).flatten()
 x = np.expand_dims(x, axis=0)
 return x
def get_video_frames(video_path):
 vidcap = cv2.VideoCapture(video_path)
 success, frame = vidcap.read()
 while success:
 yield frame
 success,frame = vidcap.read()
 vidcap.release()
frame_preprocessor = VGGFramePreprocessor(VGG16(weights='imagenet', include_top=False))
 
if TRAIN_MODEL:
 # Load movies and transform frames to features
 movies = []
 X = []
 y = []
 for video_path in glob.glob('data/*.avi'):
 print('preprocessing', video_path)
 positive = CLASSES[POS_IDX] in video_path
 _X = np.concatenate([frame_preprocessor.process(frame) for frame in get_video_frames(video_path)])
 _y = np.array(_X.shape[0] * [[int(not positive), int(positive)]])
 X.append(_X)
 y.append(_y)
 X = np.concatenate(X)
 y = np.concatenate(y)
 print(X.shape)
 print(y.shape)

训练分类器

现在我们有了X和Y序列,现在是时候训练神经网络模型来区分可疑行为和安全行为了!在此示例中,我们将使用深度神经网络。你可以根据需要进行调整。Python代码如下:

from keras.models import Sequential, load_model
from keras.layers import Dense, Activation, Dropout
from sklearn.model_selection import train_test_split
from sklearn.metrics import f1_score
MODEL_PATH='model.h5'
EPOCHS = 10
HIDDEN_SIZE = 16
if TRAIN_MODEL:
 model = Sequential()
 model.add(Dense(HIDDEN_SIZE, input_shape=(X.shape[1],)))
 model.add(Dense(HIDDEN_SIZE))
 model.add(Dropout(0.2))
 model.add(Dense(len(CLASSES), activation='softmax'))
 model.compile(loss='categorical_crossentropy',
 optimizer='rmsprop',
 metrics=['accuracy'])
 x_train, x_test, y_train, y_test = train_test_split(X, y, random_state=42)
 model.fit(x_train, y_train,
 batch_size=10, epochs=EPOCHS,
 validation_split=0.1)
 model.save(MODEL_PATH)
 y_true = [np.argmax(y) for y in y_test]
 y_pred = [np.argmax(pred) for pred in model.predict(x_test)]
 score = f1_score(y_true, y_pred)
 print('F1:', score) 
else:
 model = load_model(MODEL_PATH)

准备测试!

现在到了有趣的部分。现在我们将使用我们构建的所有部分。是时候将计算机的网络摄像头变成现场CCTV行为检测器了!

# Infer on live video
from math import ceil
import subprocess
TEST_FRAMES = 500
# Initialize camera
cap = cv2.VideoCapture(0)
# Check if camera opened successfully
if (cap.isOpened() == False): 
 print("Unable to read camera feed")
 test_frames = 0
# Start processing video
for i in range(TEST_FRAMES):
 ret, frame = cap.read()
 if not ret: continue
 x_pred = frame_preprocessor.process(frame)
 y_pred = model.predict(x_pred)[0]
 conf_negative = y_pred[NEG_IDX]
 conf_positive = y_pred[POS_IDX]
 cla = CLASSES[np.argmax(y_pred)]
 if cla == CLASSES[POS_IDX]:
 subprocess.call(['say', CLASSES[POS_IDX]])
 progress = int(100 * (i / TEST_FRAMES))
 message = 'testing {}% conf_neg = {:.02f} conf_pos = {:.02f} class = {} \r'.format(progress, conf_negative, conf_positive, cla)
 sys.stdout.write(message)
 sys.stdout.flush()
cap.release()

结论

我希望你喜欢这个关于检测CCTV视频中可疑行为的教程。

一个明显的选择是在单一帧或帧序列上训练。为了简单起见,我为这个示例选择了单个帧,因为我们可以跳过一些正交任务,例如缓冲图像和排序训练数据。如果你想训练序列,你可以使用LSTM。

相关推荐

SpringBoot如何实现优雅的参数校验
SpringBoot如何实现优雅的参数校验

平常业务中肯定少不了校验,如果我们把大量的校验代码夹杂到业务中,肯定是不优雅的,对于一些简单的校验,我们可以使用java为我们提供的api进行处理,同时对于一些...

2025-05-11 19:46 ztj100

Java中的空指针怎么处理?

#暑期创作大赛#Java程序员工作中遇到最多的错误就是空指针异常,无论你多么细心,一不留神就从代码的某个地方冒出NullPointerException,令人头疼。...

一坨一坨 if/else 参数校验,被 SpringBoot 参数校验组件整干净了

来源:https://mp.weixin.qq.com/s/ZVOiT-_C3f-g7aj3760Q-g...

用了这两款插件,同事再也不说我代码写的烂了

同事:你的代码写的不行啊,不够规范啊。我:我写的代码怎么可能不规范,不要胡说。于是同事打开我的IDEA,安装了一个插件,然后执行了一下,规范不规范,看报告吧。这可怎么是好,这玩意竟然给我挑出来这么...

SpringBoot中6种拦截器使用场景

SpringBoot中6种拦截器使用场景,下面是思维导图详细总结一、拦截器基础...

用注解进行参数校验,spring validation介绍、使用、实现原理分析

springvalidation是什么在平时的需求开发中,经常会有参数校验的需求,比如一个接收用户注册请求的接口,要校验用户传入的用户名不能为空、用户名长度不超过20个字符、传入的手机号是合法的手机...

快速上手:SpringBoot自定义请求参数校验

作者:UncleChen来源:http://unclechen.github.io/最近在工作中遇到写一些API,这些API的请求参数非常多,嵌套也非常复杂,如果参数的校验代码全部都手动去实现,写起来...

分布式微服务架构组件

1、服务发现-Nacos服务发现、配置管理、服务治理及管理,同类产品还有ZooKeeper、Eureka、Consulhttps://nacos.io/zh-cn/docs/what-is-nacos...

优雅的参数校验,告别冗余if-else

一、参数校验简介...

Spring Boot断言深度指南:用断言机制为代码构筑健壮防线

在SpringBoot开发中,断言(Assert)如同代码的"体检医生",能在上线前精准捕捉业务逻辑漏洞。本文将结合企业级实践,解析如何通过断言机制实现代码自检、异常预警与性能优化三...

如何在项目中优雅的校验参数

本文看点前言验证数据是贯穿所有应用程序层(从表示层到持久层)的常见任务。通常在每一层实现相同的验证逻辑,这既费时又容易出错。为了避免重复这些验证,开发人员经常将验证逻辑直接捆绑到域模型中,将域类与验证...

SpingBoot项目使用@Validated和@Valid参数校验

一、什么是参数校验?我们在后端开发中,经常遇到的一个问题就是入参校验。简单来说就是对一个方法入参的参数进行校验,看是否符合我们的要求。比如入参要求是一个金额,你前端没做限制,用户随便过来一个负数,或者...

28个验证注解,通过业务案例让你精通Java数据校验(收藏篇)

在现代软件开发中,数据验证是确保应用程序健壮性和可靠性的关键环节。JavaBeanValidation(JSR380)作为一个功能强大的规范,为我们提供了一套全面的注解工具集,这些注解能够帮...

Springboot @NotBlank参数校验失效汇总

有时候明明一个微服务里的@Validated和@NotBlank用的好好的,但就是另一个里不能用,这时候问题是最不好排查的,下面列举了各种失效情况的汇总,供各位参考:1、版本问题springbo...

这可能是最全面的Spring面试八股文了

Spring是什么?Spring是一个轻量级的控制反转(IoC)和面向切面(AOP)的容器框架。...

取消回复欢迎 发表评论: