- 一,UCF101 数据集
- 二,环境的快速搭建
- 三,数据集处理
- 3.1 提取帧
- 3.2 生成file_list
- 四,参考
【C3D 行为识别】总目录 实战 复现+代码解析+自定义数据集
一,UCF101 数据集这个数据集在极链AI云平台已经准备好了(我们直接调用就可以了):
通过数据集创建实例
选一个最便宜的GPU,反正我们最后要用自己定义的数据集
选择镜像版本
看看详情,再点击创建实例
点击Jupyter Lab
Jupyter Lab界面如下:
点击进入/datasets/UCF101/
UCF101文件夹下:
├── UCF101_Action_detection_splits ├── UCF101_videos └── ucfTrainTestlist
在 UCF101_Action_detection_splits下:
. ├── classInd.txt ├── testlist01.txt ├── testlist02.txt ├── testlist03.txt ├── trainlist01.txt ├── trainlist02.txt └── trainlist03.txt
在 ucfTrainTestlist下:
. ├── classInd.txt ├── testlist01.txt ├── testlist02.txt ├── testlist03.txt ├── trainlist01.txt ├── trainlist02.txt └── trainlist03.txt
在UCF101_videos下:
由于我是采用平台的镜像,所以不需要安装pytorch和cuda,如果不是采用平台的,可以参考下面两个链接里的内容
https://blog.csdn.net/weixin_43013761/article/details/113357328
https://gitee.com/YFwinston/mmaction2/blob/master/docs_zh_CN/install.md
进入home文件夹
cd home/
配置环境
pip install mmcv-full -f https://download.openmmlab.com/mmcv/dist/cu111/torch1.8.0/index.html pip install mmpycocotools pip install moviepy opencv-python terminaltables seaborn decord -i https://pypi.douban.com/simple
其中,命令里 url 的 cu111 和 torch1.8.0 变量需由用户进行指定。
下载项目
git clone https://github.com/open-mmlab/mmaction2.git cd mmaction2 python setup.py develop三,数据集处理 3.1 提取帧
在mmaction2中,默认的配置文件使用的是视频帧,那么就先将视频转化为帧。
首先在mmaction2下创建/DataSet/rawframes 文件夹,用来保存视频帧
提取视频帧代码如下
python tools/data/build_rawframes.py /datasets/UCF101/UCF101/UCF101_videos/ /home/mmaction2/DataSet/rawframes/ --task rgb --level 1 --ext avi --use-opencv
datasets/UCF101/UCF101/UCF101_videos: 视频源文件夹
/home/mmaction2/DataSet/rawframes/: 存储提取出的帧和光流的根文件夹、
–level: 目录层级。1 指单级文件目录,2 指两级文件目录
–ext: 视频文件后缀名,如 avi, mp4
首先,我们需要将
datasets/UCF101/UCF101/ucfTrainTestlist/ 下的所有txt文件进行复制
然后在 /home/mmaction2/DataSet下创建 /ucf101/annotations/ 文件夹
再把刚刚复制的txt文件,粘贴到annotations下面去,如下:
接下来需要创建一个软连接
# 创建软连接。注意/home/mmaction2/DataSet/需要替换成你本人Dataset路径 ln -s /home/mmaction2/DataSet/ data
然后再:home/mmaction2/tools/data/ucf101下输入
bash generate_filelist.sh
就会生成如下文件
https://blog.csdn.net/weixin_43013761/article/details/107765771
https://blog.csdn.net/qq_39862223/article/details/108461526



