精华内容
下载资源
问答
  • 基于姿态估计的人体行为识别方法与流程
    2021-04-26 18:53:54

    本发明属于图像处理技术领域,特别涉及一种视频人体行为识别方法,可用于智能视频监控、人机交互、视频检索。

    背景技术:

    随着计算机学科与人工智能的发展和应用,视频分析技术迅速兴起并得到了广泛关注。视频分析中的一个核心就是人体行为识别,行为识别的准确性和快速性将直接影响视频分析系统后续工作的结果。因此,如何提高视频中人体行为识别的准确性和快速性,已成为视频分析系统研究中的重点问题。

    目前,典型的视频人体行为识别方法主要有:时空兴趣点、密集轨迹等。其中:

    时空兴趣点,是通过检测视频中的角点、提取角点的特征进行人体行为识别,但是一部分角点是由背景噪声产生,不但会影响最后的结果,还会降低识别的运行速度。

    密集轨迹,是先对视频每一帧进行多个尺度上的密集采样,然后对采样的点进行跟踪得到轨迹,再提取轨迹的特征进行行为识别。但是该方法的计算复杂度高,并且产生的特征维度高,会占用大量的内存,很难做到实时识别。

    技术实现要素:

    本发明的目的在于针对上述已有技术中实时性差的问题,提出一种基于姿态估计的人体行为识别方法,以提高人体行为识别的速度。

    本发明的技术思路是:通过估计视频中人体的姿态,得到每一帧人体关节点的位置,利用人体关节点的位置变化量分析人体的动作,从而快速地进行人体行为识别。

    根据上述思路,本发明的实现方案包括如下:

    (1)提取视频中每帧人体关节点位置坐标:

    (1a)利用Open-pose方法对视频中每帧人体进行姿态估计,得到人体脖子、胸部、头部、右肩、左肩、右臀部、左臀部、右手肘、左手肘、右膝盖、左膝盖、右手腕、左手腕、右脚踝和左脚踝这15个关节点的位置坐标,其中第k个关节点的坐标表示为Lk=(xk,yk),k从1到15;

    (1b)对每个关节点的位置坐标进行归一化;

    (1c)用归一化之后的15个关节点位置坐标构成坐标矩阵P,P=[(x1,y1),(x2,y2),...,(xk,yk),...,(x15,y15)],其中(xk,yk)表示第k个关节点归一化之后的坐标;

    (2)计算相邻两帧人体关节点距离变化量矩阵:

    (2a)根据相邻两帧的坐标矩阵Pn和Pn-1,计算相邻两帧关节点位置坐标变化量矩阵

    (2b)根据关节点位置坐标变化量矩阵计算关节点距离变化量矩阵D;

    (3)生成视频特征:

    (3a)按照视频的时间长度将视频平均分成4段,将每一段视频中相邻两帧产生的距离变化量矩阵D相加,得到各段累计距离变化量矩阵Di,i从1到4;

    (3b)对Di进行L2归一化,得到归一化之后的Di';

    (3c)将累计距离变化量矩阵Di'串联起来作为整个视频的特征:F=[D1',D2',D3',D4'];

    (4)训练分类器对视频进行分类:

    (4a)把sub-JHMDB数据集的视频分成训练集和测试集两部分,将训练集视频的特征输入到支持向量机中进行训练,得到训练好的支持向量机;

    (4b)把测试集视频的特征输入到训练好的支持向量机中得到分类结果。

    本发明具有以下优点:

    本发明由于采用了Open-pose方法对视频中人体进行姿态估计,能够快速地得到视频中每帧人体的关节点位置坐标,同时由于对视频进行分段处理,能够获取人体在视频不同时间段上的关节点位置变化量,从而利用位置变化量对视频中人体行为做出分类。

    附图说明

    图1是本发明的实现流程图;

    图2是用Open-pose估计得到的人体关节点位置示意图;

    具体实施方式

    以下参照附图,对本发明的技术方案和效果进行进一步说明:

    参照图1,本发明的实施步骤如下:

    步骤1.提取视频中每帧人体关节点位置信息。

    1.1)利用Open-pose方法对视频中每帧人体进行姿态估计,得到人体脖子、胸部、头部、右肩、左肩、右臀部、左臀部、右手肘、左手肘、右膝盖、左膝盖、右手腕、左手腕、右脚踝和左脚踝这15个关节点的位置坐标,其中第k个关节点的坐标表示为Lk=(xk,yk),k从1到15,如图2所示;

    1.2)对每个关节点的位置坐标进行归一化:

    其中x,y表示归一化前的坐标,x',y'表示归一化后的坐标,W表示视频每一帧的宽度,H表示视频每一帧的高度;

    1.3)用归一化之后的15个关节点位置坐标构成坐标矩阵P,P=[(x1,y1),(x2,y2),...,(xk,yk),...,(x15,y15)],其中(xk,yk)表示第k个关节点归一化之后的坐标。

    步骤2.计算相邻两帧人体关节点距离变化量矩阵。

    2.1)根据相邻两帧的坐标矩阵Pn和Pn-1,计算相邻两帧关节点位置坐标变化量矩阵

    其中Pn和Pn-1分别表示前一帧和后一帧的关节点位置坐标矩阵,dx和dy表示同一个关节点相邻两帧坐标变化量;

    2.2)根据关节点位置坐标变化量矩阵计算关节点距离变化量矩阵D:

    其中dxk和dyk表示中第k个元素。

    步骤3.生成视频特征。

    3.1)按照视频的时间长度将视频平均分成4段,将每一段视频中相邻两帧产生的距离变化量矩阵D相加,得到各段累计距离变化量矩阵Di,i从1到4。

    3.2)对Di进行L2归一化,得到归一化之后的Di':

    其中Di=[d1,d2,...,dk,...,d15]是第i段视频累计距离变化量矩阵,dk表示Di中第k个元素,是Di的L2范数,表示Di中第k个元素的平方;

    3.3)将累计距离变化量矩阵Di'串联起来作为整个视频的特征:

    F=[D1',D2',D3',D4'] <5>

    步骤4.训练分类器对视频进行分类。

    4.1)把sub-JHMDB数据集的视频分成训练集和测试集两部分,将训练集视频的特征输入到支持向量机中进行训练,得到训练好的支持向量机;

    4.2)把测试集视频的特征输入到训练好的支持向量机中得到分类结果。

    本发明的效果可通过以下实验进一步说明:

    1.实验条件。

    实验环境:计算机采用Intel(R)Core(TM)i7-7700CPU@3.8Ghz,16GB内存,GPU为GTX1080,软件采用Matlab2014b仿真实验平台。

    实验参数:支持向量机选用线性核,参数c=8。

    2.实验内容与结果。

    实验在sub-JHMDB数据集上进行,sub-JHMDB数据集一共包含12类人体动作,总共包括316个视频片段,每个视频片段包含一种人体行为。按照sub-JHMDB数据集提供方预先设定,将数据集中视频分成训练集和测试集两部分。利用本发明方法对sub-JHMDB数据集中视频进行处理得到视频特征,训练集视频的特征用于训练分类器,然后用训练好的分类器对测试集视频进行分类,测试集视频正确分类的比例作为最终的分类结果。

    在sub-JHMDB数据集上的分类结果达到43.9%,对视频的处理速度平均为10fps。

    综上可以得出,本发明可以实现对视频中人体行为的快速识别。

    更多相关内容
  • 本课题为基于形态学的人体行为检测系统,可以识别卧躺,站立,蹲坐等几种姿势。根据圈定的矩形长宽比例,带有一个GUI可视化界面,程序简单易懂通俗。
  • 基于姿势的行为识别matlab程序,使用pose提取关节特征进行行为识别,matlab版本要2014年的,16年的估计也行
  • 程序实现了对人体不状态的识别,可以用在人体步态识别识别检测、信息加密等领域,能够实时显示识别的结果,可以直接运行。
  • 因此,其主要应用视频、行为识别等领域居多。3D卷积神经网络是将时间维度看成了第三维。 人类行为识别的实际应用: 安防监控。(检测识别异常行为:如打架,偷东西等) 监视和培训新人工作来确保任务执行正确。...
  • tensorflow实现人体姿态识别
  • 这几天开始接触人体行为识别,经过多方对比后,选择了现在最热的人体骨架提取开源库,openpose。下面就不多说了,直接开始openpose在win10下的配置:需求如下:1. VS2019 据说VS2015以上的版本就可以,VS201x主要是...

    这几天开始接触人体行为识别,经过多方对比后,选择了现在最热的人体骨架提取开源库,openpose。

    下面就不多说了,直接开始openpose在win10下的配置:

    需求如下:

    1. VS2019      据说VS2015以上的版本就可以,VS201x主要是为了通过cMake生成的.sln文件生成可执行exe文件、dll文件,和一些程序运行所必需的文件,下载VS2019 community版本就可以,有微软账号(免费申请)就可以免费用;

    2. Python3.7+Pycharm      想要在Python环境下运行的需要安装这两个,当然也可以是其他的组合,不过还是推荐最新版本的,而且Pycharm真的很棒;

    3.cmake-3.15.3-win64-x64      https://cmake.org/download/ 打开官方网站下载即可,选择最新版本的,这个版本可以生成VS2019的文件,其他的比如有VS2017。。。。也可以选旧版本的,不过这个向下兼容,下载最新的就可以;

    4.cudnn(最新)+cuda(最新)      这两个怎么装百度一下就可以了,很简单,但是推荐在装好VS201x后安装,不然可能会出现一些问题,不会的可以留言问我;

    以上差不多就是配置openpose所必须的东西了,接下来是具体的步骤:

    1.假设你已经装好了VS2019,Python3.7+Pycharm,cudnn(最新)+cuda(最新);然后两个下载并解压好的Cmake和OpenPose(我这里为openpose-master,不同的下载方式可能还会有不同的命名方式,不过都无伤大雅)源文件如下图红色下划线所指:

    2.文件路径如下,打开cmake-gui.exe;

    打开cmake-gui.exe如下,按照我所用红色下划线标注的填写,对应的路径修改为自己的,如果你跟我一样放在A盘,并且文件名都一样就可以           不用改,build_pan_20190913可以改成别的名字;

    3.需要在Python中运行的,在这里打勾:

    需要下载全部动作识别模型文件的,在找到这些选项打勾,默认只选BODY_25,这个模型识别关节点最多,有20多个,而且是标准CUDA运行       的,后面的COCO,MPI各有不同的优缺点,建议下载:

    没有下载或者下载不成功也可以先通过Cmake编译以后再下载,路径如下,双击getModels.bat即可

    4.回到Cmake,先点Configure,结束而且成功后再点Generate,此过程费时非常长,建议点完Configure后去吃个饭,回来可能就快好了。。

    5.然后在如下图所示中会有这样一个文件:

    如果你已经装好了VS201x,可以直接双击打开,之后会这样显示:

    这里改成我这样,用Release模式:

    然后生成解决方案,快捷键Ctrl+Shift+B,至此,所有配置完毕。

    解决方案管理器中目录如下,打开示例程序,如果你的显卡足够好(显存需要4GB左右)而且有摄像头,可以直接按F5运行。

    如果不行,就需要改一下东西,来让电脑运行起来(openpose需要的资源真的非常多):

    1.显存不够就会报错:error == cudaSuccess (2 vs. 0)  out of memory  ,这个意思就是显存不够了,这时我们就需要修改头文件,鼠标放在flags.hpp上,按F12跳转到flag.hpp,如下:

    修改   net_resolution,           "-1x368",只需要修改368的数值就可以显著的降低显存使用率,但是相应的会降低准确度,我这里改成了-1x256,基本上2GB显存就可以运行了。

    2.如果没有摄像头,就会报错找不到摄像头,这时我们就需要修改让程序打开视频文件,修改这个参数为视频文件位置,注意是程序里是反斜杠,相应的你需要在这个目录下放入视频文件,我这里完整目录为A:\openpose-master\examples\media\dance.mp4:

    3.如果你需要不用body_25,而用coco或者MPI,相应可以更改  model_pose 这个参数,还有更多的可以更改的参数,自己读一读后面的注释就可以了。

    经过一番配置,具体的运行结果如下:

    可以看出来帧数真的很低啊,不过识别度真的非常高,接下来就可以愉快的玩耍了!!!

    原文出处:https://www.cnblogs.com/pan1111111111/p/11530289.html

    展开全文
  • 基于安卓Android的人体动作行为识别系统APP设计(Android studio)(论文12000字,程序代码)摘要:Android手机已经成为我们大部分人日常生活中不可或缺的一部分,而且其功能的日益强大也让其可开拓性越来越强,其自携带...

    基于安卓Android的人体动作行为识别系统APP设计(Android studio)(论文12000字,程序代码)

    摘要:Android手机已经成为我们大部分人日常生活中不可或缺的一部分,而且其功能的日益强大也让其可开拓性越来越强,其自携带的3轴加速度传感器也让基于Android的人体动作行为识别的实现成为可能,本文主要探究的是现已应用于人体动作识别的基于机器学习的分类算法在Android手机上的表现。在算法的选用上主要应用的是支持向量机算法与决策树算法,通过测试,比较改进来选出最适合于Android的识别算法。在Android系统使用其自带的数据库完成一个可以记录并查询识别结果的应用程序。

    关键词:Android应用开发;加速度传感器;机器学习算法;数据库

    Human Action and Behavior Recognition System Based on Android

    Absrtact: Android mobile phone has become an indispensable part of our daily life, and its increasingly powerful functions make it more and more pioneering. Its self-contained three-axis accelerometer also makes it possible to realize human action recognition based on Android. This paper mainly explores the machine-based learning which has been applied to human action recognition. The performance of classification algorithm on Android mobile phone. In the selection of the algorithm, the main application is the support vector machine algorithm and decision tree algorithm. Through testing and comparison, the most suitable recognition algorithm for Android is selected. The Android system uses its own database to complete an application that can record and query the recognition results.

    Key words: Android application development; Acceleration sensor; Machine learning algorithm; Database

    ab1f7b3f8a581d5bb160972efb12f4ac.png

    130037bae41775e0d57ca6a6746fb047.png

    29f48b5050778d1eb9a6e6bae767f17e.png

    目录

    1绪论    1

    1.1 研究背景    1

    1.2 研究意义    1

    1.3 国内外研究现状    1

    2 需求分析与开发相关技术    2

    2.1 需求分析    2

    2.2 手机加速度传感器    2

    2.3 Android开发技术    3

    2.3.1 Android系统    3

    2.3.2 AndroidStudio平台    3

    2.3.3 Android编程语言    3

    3 人体动作识别相关算法    4

    3.1 决策树    4

    3.2 隐马尔科夫模型    4

    3.3 神经网络    4

    3.4 支持向量机    4

    3.5 聚类    5

    4 设计思路与具体实现    5

    4.1 设计思路    5

    4.2 具体实现    6

    4.2.1 算法选择    6

    4.2.2 训练程序的实现    6

    4.2.3 识别程序的实现    8

    5 系统测试    11

    5.1 训练程序测试    11

    5.2 识别程序测试    13

    5.3 算法性能比较    14

    5.4 测试结果分析    18

    6 结论    18

    参考文献    19

    致谢    20

    展开全文
  • 最近用微信小程序做了一个动作识别的项目,同时尝试部署了单片机。首先奉上b站的视频链接,里面详细介绍了项目的思路和代码:https://b23.tv/4VRvff下面我将这个过程分成以下几部分给大家进行讲解:1.数据收集人体...

    人体动作识别(Human activity recognition)是健康领域一个热点问题,它通过加速度计,陀螺仪等传感器记录人体运动数据,对人体动作进行识别。最近用微信小程序做了一个动作识别的项目,同时尝试部署了单片机。首先奉上b站的视频链接,里面详细介绍了项目的思路和代码:https://b23.tv/4VRvff

    下面我将这个过程分成以下几部分给大家进行讲解:

    3345e106ff515490905b78f95cbf2aa6.png

    1.数据收集

    人体动作的数据是通过手机内部自带的六轴传感器收集的,借助于微信小程序的API可以直接调用。

    其中蹲起的数据采集页面如下图所示:

    88acf7000794d56b9f6aff923d313a50.png

    右手持手机,点击“开始读取”后,开始做深蹲,加速度轴和陀螺仪的实时数据会在数据框内显示。做完动作后点击存储,会将采集的数据上传到微信自带的云数据库,并且关闭加速度计和陀螺仪。

    我们将每个动作分为不同的document,每个实验者作为一个record,在数据库中进行存储。每条record由六个轴的六个数组、时间戳数组和用户的其他信息组成,数组长度约为采样频率f*采样总时间,大约是700。

    将数据导出成JSON或csv文件之后便可以开始信号处理了。

    2.信号处理

    2.1滤波

    本部分中的信号处理是通过python中的signal包来完成。

    将csv文件导入到python中,将数组长度统一为700。首先我们可以先直观地感受一下数据:

    plt

    展示出六个轴的数据,可以看出某些轴的数据是有明显的周期性的,但是噪声较多,需要进行滤波处理。

    首先使用中值滤波器,这可以通过signal包中的medfilt函数来完成:

    #中值滤波
    

    然后是巴特沃斯滤波器,同样是使用signal包中的函数来完成:

    # butterworth滤波器
    

    2.2数据切割

    数据经过滤波之后在图像上的体现是变得更加平滑,滤掉了高频的噪音,此时我们将数据进行切割:设定一个时间窗口,以及一个overlap的比例,将数据切分成许多小段。这样就增加了样本的数量,满足机器学习需要的数据量。

    2.3特征提取

    注意,通过微信小程序提取的数据为时间序列,本身不能作为输入直接喂给机器学习模型,而是需要从中提取一些特征,作为输入向量。此处我们首先将数据进行了快速傅里叶变换,计算功率谱密度、自相关函数,在此基础上得到了时间序列的特征向量。将以上功能封装到一个函数中:

    def 

    当我们将时域数据转换到频域数据上之后,便可以提取特征,使用分类器进行建模。提取特征的常用方法可以是信号的频率分量以及在此分量上的振幅。

    3.模型构建

    数据的处理工作完成之后就要开始机器学习的核心部分:模型训练了。此处我们用python强大的机器学习第三方包:sklearn来完成这一部分的工作。

    3.1模型选择

    机器学习模型众多,如何选择一个适合自己的呢?在此我们选择了一些常用的机器学习模型,查看它们在此数据集上的表现。

    首先构建一个装有模型的字典:

    dict_classifiers 

    然后,我们可以在此字典和每个分类器上迭代:

    • 训练分类器.fit(X_train, Y_train)
    • 评估分类器在训练集中的性能.score(X_train, Y_train)
    • 评估分类器在测试集上的性能.score(X_test, Y_test)
    • 记录训练分类器所需的时间。
    • 将训练模型、训练分数、测试分数和训练时间保存到字典中。如有必要,此字典可以使用 Python 的pickle模块保存。
    def 

    最终结果如下所示:

    2db35a74171fb79febb939748ddc99d1.png

    可以发现,Gradient Boosting算法效果是最好的,同时训练时间也最长,高达88秒;表现最不好的是SVM;训练时间最短的是Native Bayes。

    通过模型的训练与对比,结合我们自身的需求,选择最为合适的模型进行参数调优。考虑到本项目后期需要部署JS,因此需要在算法的复杂程度和准确率之间取舍,此处我选择MLP(多层神经网络)作为最终的模型。

    3.2超参数调优

    当选择好合适的模型之后,我们就需要调整模型的参数,使其表现的最好,这就是超参数调优。MLP模型的参数主要有:激活函数、学习率

    、隐藏层数、隐藏层神经元个数。通过循环遍历的方式进行超参数调优:
    MLP_params

    可以看出,当激活函数relu,alpha=1,隐藏层神经元个数为100时,MLP模型表现是最好的;同时relu函数运算较快,100个神经元大小适中,用来部署JS较为合适。

    模型训练好后,用sklearn自带的函数输出权重矩阵和偏置向量,保存到csv文件中,便于后续模型的部署。

    对于大部分的机器学习教程而言,模型训练完之后就算是万事大吉了,但我们的目标是最终做出一个能用于实际生活的小程序,因此还需要进行模型的部署。

    4.模型部署

    4.1小程序部署

    我们将上面保存好的csv文件复制到小程序的js里,对六轴到的数据进行计算。通过几次实验发现,由于安卓系统传感器采集数据的频率较低,因此滤波对本数据集的影响不大。同时因为时间前后的相关性,不对序列进行特征提取,直接将序列喂给模型也能达到同样的准确率。

    每隔2秒钟对数据进行一次分类,js代码就是根据MLP的原理进行矩阵的乘法,此处不再赘述。

    4.2单片机部署

    由于近些年来手环的兴起,因此我也尝试部署了单片机。这里模型比较庞大,即便是功能强大的STC8A8K系列的单片机也只有64KB的内存,是远远不够的,需要进行内存扩展。此处给出我的老师提供的一种方案:

    117028da5769c5517f4de469b504f588.png

    按照上述方案,我使用了洞洞板+单片机的方式进行了连接,洞洞板上是内存扩展芯片,另一块板子是做其他项目时用到的,这里只用到了它的单片机:

    252a5a120c90d1f099a0e540986f1931.png

    十分凌乱,大家实验没问题之后还是用PCB打样吧。。。

    最终我通过离线的方式,测试准确率达到了70%,实现了单片机的部署。

    写在最后

    本文从零开始实现了一个能够落地的人工智能项目,同时部署到小程序端可以实现离线识别,摆脱了对网络的依赖。

    非常感谢大家的耐心阅读,我也是一名正在学习中的大二学生,所写内容如有不当之处欢迎大家批评指正。

    展开全文
  • Activity-Recognition项目内容模型训练及实验分析手机行为识别APP开发所需工具实验实例全部运行于Python 3.6环境,尚需引入以下扩展包。sklearnpandasnumpymatplotlibseabornplotly手机APP开发需如下支持。JDK 9实验...
  • 课题名称:基于MATLAB的人体行为姿势识别系统算法介绍本课题采用差影法的方法进行人体姿势的识别。背景差影法的原理就是:我们先在路口固定一个摄像头,将这个摄像头与电脑相连。电脑可以把拍到的车流视频保存,然后...
  • 【Matlab行为识别】差影法三维人体姿态行为识别【含源码 277期】 二、matlab版本及参考文献 1 matlab版本 2014a 2 参考文献 [1] 蔡利梅.MATLAB图像处理——理论、算法与实例分析[M].清华大学出版社,2020. [2]杨丹,...
  • 【学习笔记】人体姿态识别

    千次阅读 2021-10-18 01:07:30
    利用人体姿态信息可以进一步进行动作识别、人机信息交互、异常行为检测等任务。然而,人的肢体比较灵活,姿态特征在视觉上变化比较大,并且容易受到视角和服饰变化的影响。 2D人体姿态识别 自底向上算法 自底向上...
  • 基于 Openpose 实现人体动作识别

    千次阅读 多人点赞 2021-09-15 00:03:50
    作者|李秋键出品|AI科技大本营(ID:rgznai100)引言伴随着计算机视觉的发展和在生活实践中的广泛应用,基于各种算法的行为检测和动作识别项目在实践中得到了越来越多的应用,并在相关领...
  • Python如何实现行人识别-人体识别

    千次阅读 2020-01-03 11:35:35
    Python如何实现行人识别-人体识别 1.python有个图形识别库叫opencv 2.去百度查查如何安装这个库,会py的小伙伴们安装个库应该不是问题。 3.接下来就是直接上代码了 #!/usr/bin/python3 # -*- coding: utf-8 -*- ...
  • 预备知识 1.什么是深度学习 ...尤其是对于一些复杂的问题而言,计算机利用其计算能力以及大量的数据进行分析,而这些数据是源源不断的,就比如说你要写一个程序他能识别是否是pissza饼子,你必须先经过无数张p
  • 人体姿态检测

    2019-06-30 15:06:54
    Python+OpenCV+OpenPose实现人体姿态估计(人体关键点检测)代码说明参见:https://blog.csdn.net/m0_38106923/article/details/89416514
  • 在不久的将来,处理3D数据的算法将应用于像机器人自动巡航、基于AR的智能用户界面等应用程序上。受此启发,我们在Matroid公司所著的论文提出了FusionNet,这一框架用于在一个名为Princeton ModelNet的标准数据集上做...
  • 基于kinect的人体动作识别系统

    千次阅读 2020-06-13 16:05:05
    基于kinect的人体动作识别系统(算法和代码都放出) 首先声明一下,本系统所使用的开发环境版本是计算机系统Windows 10、Visual Studio 2013、Opencv3.0和Kinect SDK v2.0。这些都可以在...
  • 基于视频序列对于各种动作的检测...本文虽然是关于视频(摄像头)中简单动作的分类,但是该开源模型其实可以应用在各种人体姿势分类识别如手语识别、摔倒识别、运动分析等,即但凡关于动作的都可以才用这个方案来训练
  • 一. 提出背景目标:给定一段视频,通过分析,得到里面人员的动作行为。问题:可以定义为一个分类问题,通过对预定的样本进行分类训练,解决一个输入视频的多分类问题... 行为识别的发展和其他领域一样,我们还是先从...
  • 使用人体姿态识别算法检测出人体上半身关键点,根据关键点连线的关系判断出行人抬手的动作,并对两个行人抬手动作进行抬手相似度分析。 一、软件操作图 1.加载视频进行抬手动作分析,输出抬手角度,抬手动作时间。 2...
  • 话不多述直接上程序。 import pathlib import tensorflow as tf from tensorflow import keras from tensorflow.keras import layers, models, Model, Sequential from tensorflow.keras.layers import Conv2D, ...
  • 行为识别:行人跌倒检测(含源码)

    千次阅读 热门讨论 2021-11-29 15:39:51
    本文抛砖引玉为大家提供一个行为识别的案例,大家也可以根据该方法实现更多任务,也可以提供一些改进的方法。主要检测7类行为:Standing,Walking,Sitting,Lying Down,Stand up,Sit down,Fall Down。YOLOv3-...
  • 基于openpose的人体姿态识别部署详细过程 毕设的题目是这个问题,自己学了很久都没有看懂网上的各种各样的教程,终于在今天问老师之后解决了。具体过程如下。 1. opencv的下载 2. 下载CUDA、cuDNN以及安装 3. python...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 4,435
精华内容 1,774
关键字:

人体行为识别的程序