视频动作识别核心在于建模时空信息,主流结构包括双流网络(RGB+光流)、3D CNN(如I3D、R(2+1)D)和Transformer类(TimeSformer、Video Swin),各具时空建模特点与适用场景。

视频动作识别的核心网络结构
视频动作识别不是简单把图像模型套过来就能用的。关键在于如何建模时间维度——人做动作是连续变化的过程,单帧图片看不出“挥手”和“抬手”的区别,但几帧连起来就很明显。所以主流结构都围绕“怎么有效融合空间(画面)+时间(帧序)信息”展开。
双流网络(Two-Stream CNN):最经典、易理解的起点
它用两个并行分支分别处理静态空间信息和动态运动信息:
- 空间流(Spatial Stream):输入单帧RGB图像,用ResNet-50或VGG等图像CNN提取外观特征(比如人的姿态、服装、场景)
- 时序流(Temporal Stream):输入光流(Optical Flow)帧序列——本质是相邻帧之间的像素位移场,直接编码运动方向和速度(比如手臂向右移动、腿在摆动)
- 两路特征最后在顶层融合(常用平均、加权相加或简单拼接后接全连接层),再分类
优点是结构清晰、可解释性强,适合入门;缺点是光流计算耗时(训练前需预生成),且无法建模长时序依赖。
3D CNN(如I3D、R(2+1)D):端到端学习时空特征
把传统2D卷积扩展为3D卷积核(如3×3×3),直接在视频片段(比如16×224×224)上滑动,同时捕捉宽、高、时间三个方向的变化。
立即学习“Python免费学习笔记(深入)”;
- I3D(Inflated 3D ConvNet):把ImageNet预训练的2D ResNet权重“膨胀”成3D(例如2D卷积核复制到时间维),再微调。兼容性好,效果稳,是工业界常用基线
- R(2+1)D:把3D卷积拆成“2D空间卷积 + 1D时间卷积”,更高效、参数更少,对长视频更友好
这类模型无需光流,端到端训练,但显存吃紧——16帧输入常需多卡并行,建议从8帧起步调试。
标签: python 编码 win stream 深度学习 pytorch 区别
还木有评论哦,快来抢沙发吧~