CN107944409B - 能够区分关键动作的视频分析方法及装置 - Google Patents
能够区分关键动作的视频分析方法及装置 Download PDFInfo
- Publication number
- CN107944409B CN107944409B CN201711243388.8A CN201711243388A CN107944409B CN 107944409 B CN107944409 B CN 107944409B CN 201711243388 A CN201711243388 A CN 201711243388A CN 107944409 B CN107944409 B CN 107944409B
- Authority
- CN
- China
- Prior art keywords
- video block
- matrix
- video
- frame
- attention
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Probability & Statistics with Applications (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本公开涉及一种视频分析方法及装置,所述方法包括:将待识别视频输入单帧识别模型,得到所述待识别视频中单帧图像的单帧特征;根据帧长度、起始帧和识别步长,将所述待识别视频划分为各视频块;根据各视频块包括的单帧图像的单帧特征和帧长度,确定各视频块的特征流矩阵;将初始注意力矩阵和视频块的特征流矩阵,输入长短期记忆模型进行处理,得到视频块的注意力矩阵;根据视频块的注意力矩阵,确定所述待识别视频的注意力向量。本公开选择性地关注视频空间上比较重要的区域,以及时间上相对重要的帧,进而减少了不相关信息对视频分析结果的影响。
Description
技术领域
本公开涉及计算机视觉领域,尤其涉及一种视频分析方法及装置。
背景技术
视频分析是计算机视觉领域的一个重要方向,近几年,神经网络在图像分析领域取得了重大突破,然而相对图像而言,视频增加了时间维度信息,因此让机器理解不同视频帧在时间维度上的联系变得尤为重要。在传统的方法中,通常利用光流等手工特征来描述视频的时间信息,往往只考虑不同的单帧图像的分析结果,无法准确区分视频中整体动作中的某部分关键动作,导致视频的识别结果不准确。
发明内容
有鉴于此,本公开提出了一种视频分析方法及装置,用以解决传统的视频分析方法中,不能准确区分视频中整体工作中的关键动作,导致视频的识别结果不准确的问题。
根据本公开的一方面,提供了一种视频分析方法,所述方法包括:
将待识别视频输入单帧识别模型,得到所述待识别视频中单帧图像的单帧特征;
根据帧长度、起始帧和识别步长,将所述待识别视频划分为各视频块;
根据各视频块包括的单帧图像的单帧特征和帧长度,确定各视频块的特征流矩阵;
将初始注意力矩阵和视频块的特征流矩阵,输入长短期记忆模型进行处理,得到视频块的注意力矩阵;
根据视频块的注意力矩阵,确定所述待识别视频的注意力向量。
在一种可能的实现方式中,将初始注意力矩阵和视频块的特征流矩阵,输入长短期记忆模型进行处理,得到视频块的注意力矩阵,包括:
根据单帧特征的特征宽、单帧特征的特征高以及所述帧长度,确定所述视频块的初始注意力矩阵;
将所述初始注意力矩阵和第一个视频块的特征流矩阵,输入长短期记忆模型进行处理,得到第一个视频块的注意力矩阵;
将第二个视频块及其后续的视频块作为当前视频块,依次将上一个视频块的注意力矩阵和当前视频块的特征流矩阵,输入长短期记忆模型进行处理,得到当前视频块的注意力矩阵。
在一种可能的实现方式中,将上一个视频块的注意力矩阵和当前视频块的特征流矩阵,输入长短期记忆模型进行处理,得到当前视频块的注意力矩阵,包括:
将上一个视频块的注意力矩阵和当前视频块的特征流矩阵加权求和,得到整合特征矩阵;
将所述整合特征矩阵输入长短期记忆模型进行处理,得到当前视频块的注意力矩阵。
在一种可能的实现方式中,根据视频块的注意力矩阵,确定所述待识别视频的注意力向量,包括:
将单帧图像所在的视频块的注意力矩阵取平均值,得到单帧图像的单帧向量;
根据所有单帧图像的单帧向量,得到所述待识别视频的注意力向量。
在一种可能的实现方式中,
将初始注意力矩阵和视频块的特征流矩阵,输入长短期记忆模型进行处理,得到视频块的注意力矩阵,还包括:
得到当前视频块的类别概率;
将所述类别概率输入分类器进行处理,得到当前视频块的视频块类别;
根据视频块的视频块类别,确定所述待识别视频的视频类别。
根据本公开的另一方面,提供了一种视频分析装置,包括:
单帧特征确定模块,用于将待识别视频输入单帧识别模型,得到所述待识别视频中单帧图像的单帧特征;
视频块划分模块,用于根据帧长度、起始帧和识别步长,将所述待识别视频划分为各视频块;
特征流矩阵确定模块,用于根据各视频块包括的单帧图像的单帧特征和帧长度,确定各视频块的特征流矩阵;
注意力矩阵确定模块,用于将初始注意力矩阵和视频块的特征流矩阵,输入长短期记忆模型进行处理,得到视频块的注意力矩阵;
注意力向量确定模块,用于根据视频块的注意力矩阵,确定所述待识别视频的注意力向量。
在一种可能的实现方式中,所述注意力矩阵确定模块,包括:
初始注意力矩阵确定子模块,用于根据单帧特征的特征宽、单帧特征的特征高以及所述帧长度,确定所述视频块的初始注意力矩阵;
第一注意力矩阵确定子模块,用于将所述初始注意力矩阵和第一个视频块的特征流矩阵,输入长短期记忆模型进行处理,得到第一个视频块的注意力矩阵;
后续注意力矩阵确定子模块,用于将第二个视频块及其后续的视频块作为当前视频块,依次将上一个视频块的注意力矩阵和当前视频块的特征流矩阵,输入长短期记忆模型进行处理,得到当前视频块的注意力矩阵。
在一种可能的实现方式中,所述后续注意力矩阵确定子模块,包括:
整合子模块,用于将上一个视频块的注意力矩阵和当前视频块的特征流矩阵加权求和,得到整合特征矩阵;
长短期记忆模型处理子模块,用于将所述整合特征矩阵输入长短期记忆模型进行处理,得到当前视频块的注意力矩阵。
在一种可能的实现方式中,所述注意力向量确定模块,包括:
单帧向量确定子模块,用于将单帧图像所在的视频块的注意力矩阵取平均值,得到单帧图像的单帧向量;
求和子模块,用于根据所有单帧图像的单帧向量,得到所述待识别视频的注意力向量。
在一种可能的实现方式中,所述注意力矩阵确定模块,还包括:
类别概率确定子模块,用于得到当前视频块的类别概率;
分类器子模块,用于将所述类别概率输入分类器进行处理,得到当前视频块的视频块类别;
视频类别确定子模块,用于根据视频块的视频块类别,确定所述待识别视频的视频类别。
根据本公开的一方面,提供了一种视频分析装置,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为:执行时实现本方法权利要求中任意一项所述的方法。
根据本公开的一方面,提供了一种非易失性计算机可读存储介质,其上存储有计算机程序指令,所述计算机程序指令被处理器执行时实现本方法权利要求中任意一项所述的方法。
通过将待识别视频划分为视频块,以及获取待识别视频的单帧图像的单帧特征,本公开选择性地关注视频空间上比较重要的区域,以及时间上相对重要的帧,进而减少了不相关信息对视频分析结果的影响。此外,时域上的注意力模型还可以用来筛选视频的关键帧。根据下面参考附图对示例性实施例的详细说明,本公开的其它特征及方面将变得清楚。
附图说明
包含在说明书中并且构成说明书的一部分的附图与说明书一起示出了本公开的示例性实施例、特征和方面,并且用于解释本公开的原理。
图1示出根据本公开一实施例的视频分析方法的流程图;
图2示出根据本公开一实施例的视频分析方法的流程图;
图3示出根据本公开一实施例的视频分析方法的流程图;
图4示出根据本公开一实施例的视频分析方法的流程图;
图5示出根据本公开一实施例的视频分析方法的流程图;
图6示出根据本公开一实施例的视频分析方法的应用示例的示意图;
图7示出根据本公开一实施例的视频分析方法的应用示例的示意图;
图8示出根据本公开一实施例的视频分析方法的应用示例的示意图;
图9示出根据本公开一实施例的视频分析装置的框图;
图10示出根据本公开一实施例的视频分析装置的框图;
图11示出根据本公开一实施例的视频分析装置的框图。
具体实施方式
以下将参考附图详细说明本公开的各种示例性实施例、特征和方面。附图中相同的附图标记表示功能相同或相似的元件。尽管在附图中示出了实施例的各种方面,但是除非特别指出,不必按比例绘制附图。
在这里专用的词“示例性”意为“用作例子、实施例或说明性”。这里作为“示例性”所说明的任何实施例不必解释为优于或好于其它实施例。
另外,为了更好的说明本公开,在下文的具体实施方式中给出了众多的具体细节。本领域技术人员应当理解,没有某些具体细节,本公开同样可以实施。在一些实例中,对于本领域技术人员熟知的方法、手段、元件和电路未作详细描述,以便于凸显本公开的主旨。
图1示出根据本公开一实施例的视频分析方法的流程图,如图1所示,该方法包括如下步骤:
步骤S10,将待识别视频输入单帧识别模型,得到所述待识别视频中单帧图像的单帧特征。
在一种可能的实现方式中,待识别视频包括多帧连续的图像。单帧识别模型,例如训练好的卷积神经网络模型。将待识别视频输入训练好的单帧识别模型中后,根据设定好的单帧特征的特征宽(W)、特征高(H)和特征维度(D),得到每帧图像的单帧特征。单帧特征的特征宽W,包括单帧特征向量在帧图像的宽方向的像素位置、单帧特征的特征高H,包括单帧特征向量在帧图像的高方向的像素位置。
步骤S20,根据帧长度、起始帧和识别步长,将所述待识别视频划分为各视频块。
在一种可能的实现方式中,帧长度(T)包括连续的帧的数量,起始帧为每个视频块的开始帧,识别步长为视频块每次的划分步长。例如帧长度为10,起始帧为第1帧,识别步长为2,是指在待识别视频中,以第1帧至第10帧为第一个视频块,以第3帧至第13帧为第二个视频块,以此类推。起始帧的位置可以随机选取。
步骤S30,根据各视频块包括的单帧图像的单帧特征和帧长度,确定各视频块的特征流矩阵。
在一种可能的实现方式中,每个视频块的特征流矩阵,将该视频块中每个单帧图像的单帧特征拼接后得到。单帧特征为维度为W*H*D的特征向量,因此,T*W*H*D为各视频块的特征流矩阵(F)。可以理解的是,特征流矩阵可以表达出视频块特征上的空间特征。
步骤S40,将初始注意力矩阵和视频块的特征流矩阵,输入长短期记忆模型进行处理,得到视频块的注意力矩阵。
在一种可能的实现方式中,长短期记忆模型(LSTM Long Short-Term Memory)是一种时间递归神经网络,适合于处理和预测时间序列中间隔和延迟相对较长的重要事件。利用长短期记忆模型处理得到的视频块的注意力矩阵,能够给出视频块中时序上的特征信息。由于长短期记忆模型的计算需要上一个时间段的输入信息,因此需要为第一个视频块的设定初始注意力矩阵。初始注意力矩阵可以随机给出,也可以根据长短期记忆模型的训练结果给出。
根据计算得出的上一个视频块注意力矩阵和当前视频块的特征流矩阵,输入长短期记忆模型后,得到视频块的每帧图像在时间序列上的特征信息,得出每个视频块的注意力所在的帧,以及每个视频块的注意力所在的帧中的特征位置。可以理解的是,注意力矩阵可以表达出视频块特征上的时间特征。
步骤S50,根据视频块的注意力矩阵,确定所述待识别视频的注意力向量。
在一种可能的实现方式中,将每个视频块的注意力矩阵进行整合处理后,可以得到待识别视频的注意力向量。如果将待识别视频作为一个视频块进行上述步骤的处理,则得出的视频块的注意力矩阵,即是待识别视频的注意力向量。将视频块的空间特征和时间特征进行整合后得出的注意力向量同时具有视频块的空间特征和时间特征。
本公开选择性地关注视频空间上比较重要的区域,以及时间上相对重要的帧,进而减少了不相关信息对视频分析结果的影响。此外,时域上的注意力模型还可以用来筛选视频的关键帧。本公开与人类分析视频的过程更为接近,减少了不相关信息和冗余信息对关键信息的影响。
图2示出根据本公开一实施例的视频分析方法的流程图,如图2所示,在上述实施例的基础上,该方法的步骤S40包括:
步骤S41,根据单帧特征的特征宽、单帧特征的特征高以及所述帧长度,确定所述视频块的初始注意力矩阵。
步骤S42,将所述初始注意力矩阵和第一个视频块的特征流矩阵,输入长短期记忆模型进行处理,得到第一个视频块的注意力矩阵。
步骤S43,将第二个视频块及其后续的视频块作为当前视频块,依次将上一个视频块的注意力矩阵和当前视频块的特征流矩阵,输入长短期记忆模型进行处理,得到当前视频块的注意力矩阵。
在一种可能的实现方式中,帧长度T具有时间序列上的信息。根据特征宽W、特征高H和帧长度T组成的T*W*H为各视频块的注意力矩阵(L)。注意力矩阵(L)具有视频块中的时间特征。将初始注意力矩阵L0和第一个视频块的特征流矩阵F1输入训练好的多层LSTM模型中进行处理,得到第一个视频模块的注意力矩阵L1。再将第一个视频块的注意力矩阵L1和第二个视频块的特征流矩阵F2输入训练好的LSTM模型中进行处理,得到第二个视频模块的注意力矩阵L2。依次类推进行迭代计算,直至得到所有视频块的注意力矩阵。
相比于传统的2维的空间注意力模型,本公开不仅能自适应地关注视频帧中信息相对集中的区域,同时也能够自适应地筛选出视频中的关键帧,并加以关注,从而优化视频分析的效果。
图3示出根据本公开一实施例的视频分析方法的流程图,如图3所示的方法,在如图2所示的实施例的基础上,步骤S43包括:
步骤S431,将上一个视频块的注意力矩阵和当前视频块的特征流矩阵加权求和,得到整合特征矩阵。
步骤S42,将所述整合特征矩阵输入长短期记忆模型进行处理,得到当前视频块的注意力矩阵。
在一种可能的实现方式中,利用公式(1)对F1和L0加权求和,得到整合后的特征f0∈RD。将f0送入训练好的LSTM中,输出第二个视频块的注意力矩阵L1。再将特征流矩阵F2和L1进行加权求和得到f1。以此类推,经过n次迭代后,得到第N个视频块的注意力矩阵Ln。
图6示出根据本公开一实施例的视频分析方法的应用示例的示意图,图6中左侧一个视频块中单帧图像的单针特征。每一层平面表示一帧图像的特征。每一层中的立体方块表示单帧特征中的一个向量值。可以理解的是,每个向量值在平面中的位置,即每个向量值的特征高和特征宽,为向量值在单帧图像中对应的像素的位置。每个向量值的高度表示向量维度。单帧图像的单帧特征组合在一起,形成视频块的特征流矩阵。图6中右侧为视频块的注意力矩阵,由特征宽、特征高和帧长度组成。将左侧的特征流矩阵和右侧的注意力矩阵,按照公式(1)进行整合,得到整合特征矩阵。
图4示出根据本公开一实施例的视频分析方法的流程图,如图4所示的实施例,在上述实施例的基础上,该方法的步骤S50包括:
步骤S51,将单帧图像所在的视频块的注意力矩阵取平均值,得到单帧图像的单帧向量。
步骤S52,根据所有单帧图像的单帧向量,得到所述待识别视频的注意力向量。
在一种可能的实现方式中,在将待识别视频划分为不同的视频块时,同一帧图像可能属于多个视频块。将单帧图像中的每个像素,在分属于不同视频块的注意力矩阵中的取值进行平均。根据每个像素的平均值可以得到单帧图像的单帧向量。再将所有单帧图像的单帧向量连接起来,得到待识别视频的注意力向量。
本公开能够用来提取视频中的关键帧信息,可用于信息筛选。由于注意力矩阵反映的是不同时空区域对视频分析结果的影响程度,可在空间维度上对注意力矩阵求和,得到长度和帧数一致的向量,注意力矩阵中,向量值较高的位置对应的帧更为“关键”。
图5示出根据本公开一实施例的视频分析方法的流程图,在上述实施例的基础上,该方法的步骤S40,还包括:
步骤S60,得到当前视频块的类别概率。
步骤S70,将所述类别概率输入分类器进行处理,得到当前视频块的视频块类别。
步骤S80,根据视频块的视频块类别,确定所述待识别视频的视频类别。
在一种可能的实现方式中,训练好的LSTM模型还可以输出视频块的视频类别概率向量。
在一种可能的实现方式中,LSTM模型采用标识了动作类别的视频样本进行训练,训练好的LSTM模型可以用户输出视频中的动作类别。将视频块输入LSTM模型后,在得到视频块的注意力矩阵的同时,LSTM模型还可以输出视频块的动作类别概率。LSTM模块输出的动作类别概率,经过softmax分类器,得到视频块的动作类别。图7示出根据本公开一实施例的视频分析方法的应用示例的示意图,如图7所示,LSTM模型输出的注意力矩阵L的同时,通过softmax分类器给出不同动作类别的概率矩阵。在不同的动作类别概率矩阵中,分数最高的即为视频类别。第n次迭代得到注意力矩阵Ln,记录了视频块在时间和空间上关键信息所处的位置。在空间上求和后得到长度为T的向量,向量值较大的位置对应的视频帧相对更为关键。
图8示出根据本公开一实施例的视频分析方法的应用流程图。如图8所示,将待识别视频(图中最左侧方块中的视频),输入训练好的CNN(卷积神经网络)模型,逐帧提取特征得到单帧图像的单帧特征。然后在待识别视频中随机选取视频块。结合各视频块的注意力矩阵,对各视频块的特征流矩阵进行加权求和后,输入多层LSTM模型中进行处理,分别得到各视频块的注意力矩阵和动作分类结果。其中各视频块的注意力矩阵需要进行迭代计算。举例来说,当人在观看视频时,不仅空间上的注意力会有所不同,时间维度上的注意力也会因视频内容而不同。对于一个待识别视频为踢足球的案例而言,前半部分的视频是人在奔跑,而后半部分才是运动员真正地踢球动作。因此踢足球的待识别视频中,利用本公开中的方法得到的待识别视频的注意力向量中,后半部分踢球动作被赋予更高的权重。与传统的基于LSTM的视频分类方式比较而言,本公开获取了更高的分类精度。
图9示出根据本公开一实施例的视频分析装置的框图,如图9所示,该装置包括:
单帧特征确定模块41,用于将待识别视频输入单帧识别模型,得到所述待识别视频中单帧图像的单帧特征。
视频块划分模块42,用于根据帧长度、起始帧和识别步长,将所述待识别视频划分为各视频块。
特征流矩阵确定模块43,用于根据各视频块包括的单帧图像的单帧特征和帧长度,确定各视频块的特征流矩阵。
注意力矩阵确定模块44,用于将初始注意力矩阵和视频块的特征流矩阵,输入长短期记忆模型进行处理,得到视频块的注意力矩阵。
注意力向量确定模块45,用于根据视频块的注意力矩阵,确定所述待识别视频的注意力向量。
图10示出根据本公开一实施例的视频分析装置的框图,在如图9所示的实施例的基础上,
在一种可能的额实现方式中,所述注意力矩阵确定模块44,包括:
初始注意力矩阵确定子模块441,用于根据单帧特征的特征宽、单帧特征的特征高以及所述帧长度,确定所述视频块的初始注意力矩阵;
第一注意力矩阵确定子模块442,用于将所述初始注意力矩阵和第一个视频块的特征流矩阵,输入长短期记忆模型进行处理,得到第一个视频块的注意力矩阵;
后续注意力矩阵确定子模块443,用于将第二个视频块及其后续的视频块作为当前视频块,依次将上一个视频块的注意力矩阵和当前视频块的特征流矩阵,输入长短期记忆模型进行处理,得到当前视频块的注意力矩阵。
在一种可能的额实现方式中,所述后续注意力矩阵确定子模块,包括:
整合子模块,用于将上一个视频块的注意力矩阵和当前视频块的特征流矩阵加权求和,得到整合特征矩阵;
长短期记忆模型处理子模块,用于将所述整合特征矩阵输入长短期记忆模型进行处理,得到当前视频块的注意力矩阵。
在一种可能的额实现方式中,所述注意力向量确定模块45,包括:
单帧向量确定子模块451,用于将单帧图像所在的视频块的注意力矩阵取平均值,得到单帧图像的单帧向量;
求和子模块452,用于根据所有单帧图像的单帧向量,得到所述待识别视频的注意力向量。
在一种可能的额实现方式中,所述注意力矩阵确定模块44,还包括:
类别概率确定子模块444,用于得到当前视频块的类别概率;
分类器子模块445,用于将所述类别概率输入分类器进行处理,得到当前视频块的视频块类别;
视频类别确定子模块446,用于根据视频块的视频块类别,确定所述待识别视频的视频类别。
图11是根据一示例性实施例示出的一种用于视频识别装置800的框图。例如,装置800可以是移动电话,计算机,数字广播终端,消息收发设备,游戏控制台,平板设备,医疗设备,健身设备,个人数字助理等。
参照图11,装置800可以包括以下一个或多个组件:处理组件802,存储器804,电源组件806,多媒体组件808,音频组件810,输入/输出(I/O)的接口812,传感器组件814,以及通信组件816。
处理组件802通常控制装置800的整体操作,诸如与显示,电话呼叫,数据通信,相机操作和记录操作相关联的操作。处理组件802可以包括一个或多个处理器820来执行指令,以完成上述的方法的全部或部分步骤。此外,处理组件802可以包括一个或多个模块,便于处理组件802和其他组件之间的交互。例如,处理组件802可以包括多媒体模块,以方便多媒体组件808和处理组件802之间的交互。
存储器804被配置为存储各种类型的数据以支持在装置800的操作。这些数据的示例包括用于在装置800上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。存储器804可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
电源组件806为装置800的各种组件提供电力。电源组件806可以包括电源管理系统,一个或多个电源,及其他与为装置800生成、管理和分配电力相关联的组件。
多媒体组件808包括在所述装置800和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件808包括一个前置摄像头和/或后置摄像头。当装置800处于操作模式,如拍摄模式或视频模式时,前置摄像头和/或后置摄像头可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是一个固定的光学透镜系统或具有焦距和光学变焦能力。
音频组件810被配置为输出和/或输入音频信号。例如,音频组件810包括一个麦克风(MIC),当装置800处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器804或经由通信组件816发送。在一些实施例中,音频组件810还包括一个扬声器,用于输出音频信号。
I/O接口812为处理组件802和外围接口模块之间提供接口,上述外围接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
传感器组件814包括一个或多个传感器,用于为装置800提供各个方面的状态评估。例如,传感器组件814可以检测到装置800的打开/关闭状态,组件的相对定位,例如所述组件为装置800的显示器和小键盘,传感器组件814还可以检测装置800或装置800一个组件的位置改变,用户与装置800接触的存在或不存在,装置800方位或加速/减速和装置800的温度变化。传感器组件814可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件814还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件814还可以包括加速度传感器,陀螺仪传感器,磁传感器,压力传感器或温度传感器。
通信组件816被配置为便于装置800和其他设备之间有线或无线方式的通信。装置800可以接入基于通信标准的无线网络,如WiFi,2G或3G,或它们的组合。在一个示例性实施例中,通信组件816经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,所述通信组件816还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,装置800可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述方法。
在示例性实施例中,还提供了一种非易失性计算机可读存储介质,例如包括计算机程序指令的存储器804,上述计算机程序指令可由装置800的处理器820执行以完成上述方法。
本公开可以是系统、方法和/或计算机程序产品。计算机程序产品可以包括计算机可读存储介质,其上载有用于使处理器实现本公开的各个方面的计算机可读程序指令。
计算机可读存储介质可以是可以保持和存储由指令执行设备使用的指令的有形设备。计算机可读存储介质例如可以是――但不限于――电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、静态随机存取存储器(SRAM)、便携式压缩盘只读存储器(CD-ROM)、数字多功能盘(DVD)、记忆棒、软盘、机械编码设备、例如其上存储有指令的打孔卡或凹槽内凸起结构、以及上述的任意合适的组合。这里所使用的计算机可读存储介质不被解释为瞬时信号本身,诸如无线电波或者其他自由传播的电磁波、通过波导或其他传输媒介传播的电磁波(例如,通过光纤电缆的光脉冲)、或者通过电线传输的电信号。
这里所描述的计算机可读程序指令可以从计算机可读存储介质下载到各个计算/处理设备,或者通过网络、例如因特网、局域网、广域网和/或无线网下载到外部计算机或外部存储设备。网络可以包括铜传输电缆、光纤传输、无线传输、路由器、防火墙、交换机、网关计算机和/或边缘服务器。每个计算/处理设备中的网络适配卡或者网络接口从网络接收计算机可读程序指令,并转发该计算机可读程序指令,以供存储在各个计算/处理设备中的计算机可读存储介质中。
用于执行本公开操作的计算机程序指令可以是汇编指令、指令集架构(ISA)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目标代码,所述编程语言包括面向对象的编程语言—诸如Smalltalk、C++等,以及常规的过程式编程语言—诸如“C”语言或类似的编程语言。计算机可读程序指令可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络—包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。在一些实施例中,通过利用计算机可读程序指令的状态信息来个性化定制电子电路,例如可编程逻辑电路、现场可编程门阵列(FPGA)或可编程逻辑阵列(PLA),该电子电路可以执行计算机可读程序指令,从而实现本公开的各个方面。
这里参照根据本公开实施例的方法、装置(系统)和计算机程序产品的流程图和/或框图描述了本公开的各个方面。应当理解,流程图和/或框图的每个方框以及流程图和/或框图中各方框的组合,都可以由计算机可读程序指令实现。
这些计算机可读程序指令可以提供给通用计算机、专用计算机或其它可编程数据处理装置的处理器,从而生产出一种机器,使得这些指令在通过计算机或其它可编程数据处理装置的处理器执行时,产生了实现流程图和/或框图中的一个或多个方框中规定的功能/动作的装置。也可以把这些计算机可读程序指令存储在计算机可读存储介质中,这些指令使得计算机、可编程数据处理装置和/或其他设备以特定方式工作,从而,存储有指令的计算机可读介质则包括一个制造品,其包括实现流程图和/或框图中的一个或多个方框中规定的功能/动作的各个方面的指令。
也可以把计算机可读程序指令加载到计算机、其它可编程数据处理装置、或其它设备上,使得在计算机、其它可编程数据处理装置或其它设备上执行一系列操作步骤,以产生计算机实现的过程,从而使得在计算机、其它可编程数据处理装置、或其它设备上执行的指令实现流程图和/或框图中的一个或多个方框中规定的功能/动作。
附图中的流程图和框图显示了根据本公开的多个实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或指令的一部分,所述模块、程序段或指令的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
以上已经描述了本公开的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施例的原理、实际应用或对市场中的技术的技术改进,或者使本技术领域的其它普通技术人员能理解本文披露的各实施例。
Claims (10)
1.一种视频分析方法,其特征在于,所述方法包括:
将待识别视频输入单帧识别模型,得到所述待识别视频中单帧图像的单帧特征;
根据帧长度、起始帧和识别步长,将所述待识别视频划分为各视频块;
根据各视频块包括的单帧图像的单帧特征和帧长度,确定各视频块的特征流矩阵,所述特征流矩阵用于表示所述视频块的空间特征;
将初始注意力矩阵和视频块的特征流矩阵,输入长短期记忆模型进行处理,得到视频块的注意力矩阵,所述注意力矩阵用于表示所述视频块的时间特征;
根据视频块的注意力矩阵,确定所述待识别视频的注意力向量,
其中,根据视频块的注意力矩阵,确定所述待识别视频的注意力向量,包括:
将单帧图像所在的视频块的注意力矩阵取平均值,得到单帧图像的单帧向量;
根据所有单帧图像的单帧向量,得到所述待识别视频的注意力向量。
2.根据权利要求1所述的方法,其特征在于,将初始注意力矩阵和视频块的特征流矩阵,输入长短期记忆模型进行处理,得到视频块的注意力矩阵,包括:
根据单帧特征的特征宽、单帧特征的特征高以及所述帧长度,确定所述视频块的初始注意力矩阵;
将所述初始注意力矩阵和第一个视频块的特征流矩阵,输入长短期记忆模型进行处理,得到第一个视频块的注意力矩阵;
将第二个视频块及其后续的视频块作为当前视频块,依次将上一个视频块的注意力矩阵和当前视频块的特征流矩阵,输入长短期记忆模型进行处理,得到当前视频块的注意力矩阵。
3.根据权利要求2所述的方法,其特征在于,将上一个视频块的注意力矩阵和当前视频块的特征流矩阵,输入长短期记忆模型进行处理,得到当前视频块的注意力矩阵,包括:
将上一个视频块的注意力矩阵和当前视频块的特征流矩阵加权求和,得到整合特征矩阵;
将所述整合特征矩阵输入长短期记忆模型进行处理,得到当前视频块的注意力矩阵。
4.根据权利要求1至3中任一项所述的方法,其特征在于,将初始注意力矩阵和视频块的特征流矩阵,输入长短期记忆模型进行处理,得到视频块的注意力矩阵,还包括:
得到当前视频块的类别概率;
将所述类别概率输入分类器进行处理,得到当前视频块的视频块类别;
根据视频块的视频块类别,确定所述待识别视频的视频类别。
5.一种视频分析装置,其特征在于,包括:
单帧特征确定模块,用于将待识别视频输入单帧识别模型,得到所述待识别视频中单帧图像的单帧特征;
视频块划分模块,用于根据帧长度、起始帧和识别步长,将所述待识别视频划分为各视频块;
特征流矩阵确定模块,用于根据各视频块包括的单帧图像的单帧特征和帧长度,确定各视频块的特征流矩阵,所述特征流矩阵用于表示所述视频块的空间特征;
注意力矩阵确定模块,用于将初始注意力矩阵和视频块的特征流矩阵,输入长短期记忆模型进行处理,得到视频块的注意力矩阵,所述注意力矩阵用于表示所述视频块的时间特征;
注意力向量确定模块,用于根据视频块的注意力矩阵,确定所述待识别视频的注意力向量,
其中,所述注意力向量确定模块,包括:
单帧向量确定子模块,用于将单帧图像所在的视频块的注意力矩阵取平均值,得到单帧图像的单帧向量;
求和子模块,用于根据所有单帧图像的单帧向量,得到所述待识别视频的注意力向量。
6.根据权利要求5所述的装置,其特征在于,所述注意力矩阵确定模块,包括:
初始注意力矩阵确定子模块,用于根据单帧特征的特征宽、单帧特征的特征高以及所述帧长度,确定所述视频块的初始注意力矩阵;
第一注意力矩阵确定子模块,用于将所述初始注意力矩阵和第一个视频块的特征流矩阵,输入长短期记忆模型进行处理,得到第一个视频块的注意力矩阵;
后续注意力矩阵确定子模块,用于将第二个视频块及其后续的视频块作为当前视频块,依次将上一个视频块的注意力矩阵和当前视频块的特征流矩阵,输入长短期记忆模型进行处理,得到当前视频块的注意力矩阵。
7.根据权利要求6所述的装置,其特征在于,所述后续注意力矩阵确定子模块,包括:
整合子模块,用于将上一个视频块的注意力矩阵和当前视频块的特征流矩阵加权求和,得到整合特征矩阵;
长短期记忆模型处理子模块,用于将所述整合特征矩阵输入长短期记忆模型进行处理,得到当前视频块的注意力矩阵。
8.根据权利要求5至7中任一项所述的装置,其特征在于,所述注意力矩阵确定模块,还包括:
类别概率确定子模块,用于得到当前视频块的类别概率;
分类器子模块,用于将所述类别概率输入分类器进行处理,得到当前视频块的视频块类别;
视频类别确定子模块,用于根据视频块的视频块类别,确定所述待识别视频的视频类别。
9.一种视频分析装置,其特征在于,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为:执行时实现权利要求1至4中任意一项所述的方法。
10.一种非易失性计算机可读存储介质,其上存储有计算机程序指令,其特征在于,所述计算机程序指令被处理器执行时实现权利要求1至4中任意一项所述的方法。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN201711243388.8A CN107944409B (zh) | 2017-11-30 | 2017-11-30 | 能够区分关键动作的视频分析方法及装置 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN201711243388.8A CN107944409B (zh) | 2017-11-30 | 2017-11-30 | 能够区分关键动作的视频分析方法及装置 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| CN107944409A CN107944409A (zh) | 2018-04-20 |
| CN107944409B true CN107944409B (zh) | 2020-05-08 |
Family
ID=61947090
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| CN201711243388.8A Active CN107944409B (zh) | 2017-11-30 | 2017-11-30 | 能够区分关键动作的视频分析方法及装置 |
Country Status (1)
| Country | Link |
|---|---|
| CN (1) | CN107944409B (zh) |
Families Citing this family (13)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN108694382B (zh) * | 2018-05-14 | 2022-03-25 | 电子科技大学 | 一种基于超宽带雷达传感器的土壤pH分类方法 |
| CN110532833A (zh) * | 2018-05-23 | 2019-12-03 | 北京国双科技有限公司 | 一种视频分析方法及装置 |
| CN108846332B (zh) * | 2018-05-30 | 2022-04-29 | 西南交通大学 | 一种基于clsta的铁路司机行为识别方法 |
| CN110738070A (zh) * | 2018-07-02 | 2020-01-31 | 中国科学院深圳先进技术研究院 | 基于视频的行为识别方法、行为识别装置及终端设备 |
| CN110969066B (zh) * | 2018-09-30 | 2023-10-10 | 北京金山云网络技术有限公司 | 直播视频的识别方法、装置及电子设备 |
| CN109447164B (zh) | 2018-11-01 | 2019-07-19 | 厦门大学 | 一种运动行为模式分类方法、系统以及装置 |
| CN109509484A (zh) * | 2018-12-25 | 2019-03-22 | 科大讯飞股份有限公司 | 一种婴儿啼哭原因的预测方法及装置 |
| CN110263916B (zh) * | 2019-05-31 | 2021-09-10 | 腾讯科技(深圳)有限公司 | 数据处理方法和装置、存储介质及电子装置 |
| CN110751030A (zh) * | 2019-09-12 | 2020-02-04 | 厦门网宿有限公司 | 一种视频分类方法、设备及系统 |
| CN110826475B (zh) * | 2019-11-01 | 2022-10-04 | 北京齐尔布莱特科技有限公司 | 一种检测近重复视频的方法、装置及计算设备 |
| CN111191537A (zh) * | 2019-12-19 | 2020-05-22 | 中译语通文娱科技(青岛)有限公司 | 一种视频分析方法 |
| CN113449561B (zh) * | 2020-03-26 | 2025-08-26 | 华为技术有限公司 | 动作检测方法及其装置 |
| CN112437279B (zh) * | 2020-11-23 | 2023-06-09 | 方战领 | 视频分析方法及装置 |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN107092596A (zh) * | 2017-04-24 | 2017-08-25 | 重庆邮电大学 | 基于attention CNNs和CCR的文本情感分析方法 |
| CN107256221A (zh) * | 2017-04-26 | 2017-10-17 | 苏州大学 | 基于多特征融合的视频描述方法 |
| CN107273800A (zh) * | 2017-05-17 | 2017-10-20 | 大连理工大学 | 一种基于注意机制的卷积递归神经网络的动作识别方法 |
| CN107341462A (zh) * | 2017-06-28 | 2017-11-10 | 电子科技大学 | 一种基于注意力机制的视频分类方法 |
-
2017
- 2017-11-30 CN CN201711243388.8A patent/CN107944409B/zh active Active
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN107092596A (zh) * | 2017-04-24 | 2017-08-25 | 重庆邮电大学 | 基于attention CNNs和CCR的文本情感分析方法 |
| CN107256221A (zh) * | 2017-04-26 | 2017-10-17 | 苏州大学 | 基于多特征融合的视频描述方法 |
| CN107273800A (zh) * | 2017-05-17 | 2017-10-20 | 大连理工大学 | 一种基于注意机制的卷积递归神经网络的动作识别方法 |
| CN107341462A (zh) * | 2017-06-28 | 2017-11-10 | 电子科技大学 | 一种基于注意力机制的视频分类方法 |
Non-Patent Citations (6)
| Title |
|---|
| Improving human action recognition by temporal attention;Zhikang Liu等;《2017 IEEE International Conference on Image Processing (ICIP)》;20170920;870-874 * |
| Long-term Recurrent Convolutional Networks for Visual Recognition and Description;Jeff Donahue等;《IEEE Transactions on Pattern Analysis and Machine Intelligence 》;20160901;1625-2634 * |
| Long-Term Temporal Convolutions for Action Recognition;Varol G等;《IEEE Trans Pattern Anal Mach Intell》;20170630;1510-1517 * |
| Modeling Spatial-Temporal Clues in a Hybrid Deep Learning Framework for Video Classification;Zuxuan Wu等;《MM "15: Proceedings of the 23rd ACM international conference on Multimedia》;20151031;461-470 * |
| Real-time Action Recognition with Enhanced Motion Vector CNNs;Bowen Zhang等;《Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition》;20160630;2718-2726 * |
| 基于深度学习的人体行为识别算法综述;朱煜等;《自动化学报》;20160630;第42卷(第6期);848-857 * |
Also Published As
| Publication number | Publication date |
|---|---|
| CN107944409A (zh) | 2018-04-20 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN107944409B (zh) | 能够区分关键动作的视频分析方法及装置 | |
| TWI781359B (zh) | 人臉和人手關聯檢測方法及裝置、電子設備和電腦可讀儲存媒體 | |
| CN110287874B (zh) | 目标追踪方法及装置、电子设备和存储介质 | |
| CN109257645B (zh) | 视频封面生成方法及装置 | |
| CN109697734B (zh) | 位姿估计方法及装置、电子设备和存储介质 | |
| CN108985176B (zh) | 图像生成方法及装置 | |
| CN109543537B (zh) | 重识别模型增量训练方法及装置、电子设备和存储介质 | |
| CN107692997B (zh) | 心率检测方法及装置 | |
| TWI719777B (zh) | 圖像重建方法、圖像重建裝置、電子設備和電腦可讀儲存媒體 | |
| CN110633700B (zh) | 视频处理方法及装置、电子设备和存储介质 | |
| CN109165738B (zh) | 神经网络模型的优化方法及装置、电子设备和存储介质 | |
| CN113506229B (zh) | 神经网络训练和图像生成方法及装置 | |
| CN110858924B (zh) | 视频背景音乐的生成方法、装置及存储介质 | |
| CN111523346B (zh) | 图像识别方法及装置、电子设备和存储介质 | |
| CN109635926B (zh) | 用于神经网络的注意力特征获取方法、装置及存储介质 | |
| CN108881952A (zh) | 视频生成方法及装置、电子设备和存储介质 | |
| CN110633715B (zh) | 图像处理方法、网络训练方法及装置、和电子设备 | |
| CN107147936B (zh) | 弹幕的显示控制方法及装置 | |
| CN113506324B (zh) | 图像处理方法及装置、电子设备和存储介质 | |
| CN110955800A (zh) | 视频检索方法及装置 | |
| CN110121115B (zh) | 精彩视频片段的确定方法及装置 | |
| CN109447258B (zh) | 神经网络模型的优化方法及装置、电子设备和存储介质 | |
| WO2023024439A1 (zh) | 一种行为识别方法及装置、电子设备和存储介质 | |
| CN116129929B (zh) | 视听语音分离方法、装置、电子设备以及存储介质 | |
| CN113506325B (zh) | 图像处理方法及装置、电子设备和存储介质 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PB01 | Publication | ||
| PB01 | Publication | ||
| SE01 | Entry into force of request for substantive examination | ||
| SE01 | Entry into force of request for substantive examination | ||
| GR01 | Patent grant | ||
| GR01 | Patent grant |