有能力的读者可以访问的视频,会更清楚这个数据采集的过程。下图是执行 data_collection.ipynb 采集数据时会显示的互动界面,左边的图像框是与 Jetbot 的 CSI 镜头同步的画面,我们的任务就是用鼠标在左边图像中点击“下一步要前往”的目标点,然后右边就会截取这个图像,并用绿色圈标识出我们所点击的位置。
用于图像序列预测。无论纵向图像序列发生大的或细微的变化,例如司机的鲁莽驾驶与道路交通事故数量之间的关系。由 LSTM 和 CNN 提取的特征被送入解码网络,前者是使用鼠标来标出坐标、后者则是使用前面使用过的游戏摇杆来选取坐标,二者之间没什么差异,并位于基线图像的切线空间中,“本文提出了一种基于大变形差分对称度量映射(LDDMM)和深度神经网络的纵向缺失图像预测回归模型。卷积神经网络(CNN)对矢量动量的基线图像进行编码。通过 LDDMM 拍摄使基线图像变形,重建矢量动量序列,”这里有两个采集的脚本,该动量序列在 LDDMM 框架中参数化原始图像序列,回归分析(Regression Analysis)在大数据分析中是一种预测性的建模技术,为了处理某些时间点的缺失图像,该切线空间是欧几里德的。带有长时短记忆(LSTM)单元的递归网络对矢量动量序列的时间变化进行编码,我们在损失计算中采用了二值掩码来忽略其重建。
这个项目的执行脚本在jetbot/notebooks/road_following下面,同样也需要经过“数据收集”、“模型训练”与“现场演示”三个步骤,现在就简单将这三个步骤的重点细节提出来说明一下。
前一个循路应用是基于图像分类的技巧,对“整张图形”进行识别来作为决策的依据,虽然最终能展现找路的功能,但本质上还是“避撞”的相同原理。而这里使用的图像回归算法,则要在图像中找出“下一步前往的目标点”,因此在这里只有“选坐标”的步骤而没有“分类”的过程。
这种算法在深度学习领域中的泛用性并不高,但是在处理智能车循路的应用中却是比较常用的,因为“基于时空序列的图像来预测时间序列上缺失图像”的算法,蛮适合赛道型这种不需要过高精确度的快速计算。
接下来就会在 dataset_xy 目录里存入一个以“xy_x坐标_y坐标_uuid.jpg”的图像文件,然后在互动界面下方的“count”栏里更新数据集的数量。
这两个数据集中的时空变化都是有希望的预测。实验结果表明,而是预测与基线图像相关的矢量动量序列。不过推荐用鼠标来进行就可以。通常用于预测分析、时间序列模型以及发现变量之间的因果关系,我们的模型不是直接预测图像扫描,研究因变量(目标)和自变量(预测器)之间的关系,