I3D代码学习笔记(一)——配置环境

文章目录

  • 前言
  • 一、I3D是什么?
  • 二、配置环境详细步骤
    • 1.创建anaconda虚拟环境
    • 2.安装相关依赖库
  • 结果


前言

对视频行为识别感兴趣的同学们欢迎交流~

当你打开本文后,默认你已经安装了anaconda和pycharm

一、I3D是什么?

I3D是deepmind在2017年提出了视频动作识别模型。

开源地址为https://github.com/deepmind/kinetics-i3d

论文地址为https://arxiv.org/pdf/1705.07750v1.pdf

具体学习感受会在之后的代码阅读和论文阅读中详细说明。

二、配置环境详细步骤

1.创建anaconda虚拟环境

由于我已经在默认环境中安装了tensorflow2.0,所以在看到源码中出现了tensorflow1的代码时果断选择用anaconda创建一个虚拟环境

经过几次翻车之后,最终把python版本确定在3.6

conda create -n i3d python=3.6

I3D代码学习笔记(一)——配置环境_第1张图片
输入y,回车进行下一步

conda activate i3d

至此,创建激活虚拟环境完毕。

2.安装相关依赖库

根据github中的安装步骤,需要先安装dm-sonnet这个第三方库。

但是很坑的是现在默认dm-sonnet v2已经兼容tensorflow2 ,并不兼容当时的代码,而且还需要tensorflow_probability依赖,各个pip还需要兼容。

好在Google不愧是全球人工智能的领先者,写出来的第三方库也不是很少人用,所以还是让我找到了解决方法。

pip install graph_nets "tensorflow_gpu>=1.15,<2" "dm-sonnet<2" "tensorflow_probability<0.9"

成功安装大部分依赖库,但是报了一个小错

在这里插入图片描述
意思就是numpy版本太新了,换个旧的就成,果断执行

pip install numpy==1.17.0

下面在pycharm中测试i3d代码中自带的evaluate_sample.py
在这里插入图片描述
原来前人已经在YOLO-v3栽过跟头了,直接借用方法,加入两行代码解决.

config = tf.ConfigProto(gpu_options=tf.GPUOptions(allow_growth=True))
sess = tf.Session(config=config)

结果

输入光流和RGB多帧动图

I3D代码学习笔记(一)——配置环境_第2张图片
输出识别结果
I3D代码学习笔记(一)——配置环境_第3张图片

你可能感兴趣的:(计算机视觉,人工智能,python,tensorflow,计算机视觉)