-
Notifications
You must be signed in to change notification settings - Fork 21
Description
现在vid2vid可以从视频生成视频,下一步是从视频生成速度的序列,采用seqgan https://github.com/LantaoYu/SeqGAN 类似方式进行从视频预测速度的功能。现在cnn网络后面增加了rnn网络进行序列的预测,但是判别器等优化还不完善。
训练数据可以是torcs的运行视频和运行速度的参数,后续就可以吧视频应用与动作的学习了,使用生成模型的方式进行动作的学习(pix2pix seqgan的框架方式训练)。
现在自动驾驶的模拟训练中有一种情况是:我想通过自动驾驶torcs模拟环境的图像视频关联学习到torcs电脑机器人的执行动作,即图片或视频和动作进行关联映射,如果是用生成模型,就是用生成模型从图像或视频进行 动作序列的预测,动作向量是shape为2 的序列,见后面例子,简单起见可以预测车辆跑的速度,速度的shape是1 ,就是单数值的序列,后面有例子。
用视频去预测学习记忆 速度,用视频去预测学习记忆 动作(相关的我认为文字到视频-及视频到文字的学习训练是跟这个相关的),之前的视频学习视频公众号发的是用的pix2pix从conv2d改为conv3d。
我看到 https://www.zhihu.com/question/52602529/answer/155743699 提到seqgan我认为是与序列生成相关的,不知道你认为还有哪些内容及实现是跟我希望实现的很相关?希望能听到你的建议,就是从视频预测速度或从视频预测学习动作序列。
相关文章:
数据: torcs 机器人在赛道跑的图片和相关动作速度等参数都对应的记录了下来了。
动作序列:shape 2 序列长度可调
[[[ 5.52766602 30.67513084]
[ 5.56997266 23.14328003]
[ 5.54071045 26.12144661]
[ 5.47950244 30.49295235]
[ 5.3953833 34.40778732]]]
速度序列:shape 1 序列长度可调 , 1大概代表200或300km/hour 0.6 就是 120km/hour
0.6844
0.6790
0.6755
0.6737
0.6724