精华内容
下载资源
问答
  • AVA

    2020-06-17 17:41:34
    AVA: A Video Dataset of Spatio-temporally Localized Atomic Visual Actions》论文翻译摘要介绍相关工作数据收集动作词汇生成影片和片段选择人物边框注释人的链接注释动作标注训练集、验证集和测试集AVA数据集的...

    声明:作者翻译论文仅为学习,如有侵权请联系作者删除博文,谢谢!
    论文链接:arXiv:1705.08421 [cs.CV]

    摘要

    介绍了一种时空局部原子视觉行为视频数据集。AVA数据集在430个15分钟的视频剪辑中进行行为动作(action)标注,共定义了80个“原子”行为动作类别,这些动作在空间和时间上被定位,产生了158万个动作标签,每个人经常出现多个标签。我们的数据集的关键特征是:(1)定义了原子视觉动作,而不是复合动作;(2)精确时-空标注,每个人可能有多个标注;(3)对超过15分钟的视频片段进行详尽的注释;(4)被检测到的(同一个)人可以在连续段间连接起来;以及(5)使用电影来收集一系列不同的动作数据。这与现有的时-空动作识别数据集不同,后者通常在短视频剪辑中为复合动作提供稀疏注释。
    AVA以其逼真的场景和动作的复杂性,暴露了动作识别的内在困难。为了证明这一点,我们提出了一种新的动作定位(action localization)方法,该方法基于当前最先进的方法,并在JHMDB和UCF101-24数据集上进行测试,展示了更好的性能。虽然在其他现有数据集上建立了一个新的技术水平,但在我们AVA上的总体结果却只有15.6%,这凸显了开发视频理解新方法的必要性。

    介绍

     AVA数据集采样帧中的边界框(bounding box)和动作标注(action annotations)。每个边框与1个姿态动作(pose)(橙色)、0-3个“人-物体”的交互(红色)、0-3个“人-人”的交互(蓝色)关联。请注意,其中一些操作需要时间上下文来准确地进行标注。
    我们引入了一个新的标注视频数据集AVA,以推进动作识别研究(见图1)。标注是以人为中心,采样频率为1 Hz(即每秒1帧)。每个人都是使用边界框定位,发出动作的演员会被添加标签(可能是多个):其中,一个动作(必需的)对应与演员的姿势(橙色文本)——站着,坐着,散步,游泳等等——也可能会有额外的动作:与物体的交互(红色文本)或与他人的交互(蓝色文本)。如果一帧中包含多个人,则每个人都应该被单独标注。
    要标注一个人的动作,关键是标注词汇表(即动作的类别),而标注词汇表又由对动作进行分类的时间粒度决定。我们使用短的时间片段(以关键帧为中心的±1.5秒)来提供时间上下文,以便在中间帧标记动作。这使标注人能够使用位移的提示信息,来消除一些动作的歧义,比如“拿起或放下”等,这些歧义不能在静态帧中解决。我们保持时间上下文(3秒)相对简短,因为我们感兴趣的是(时间上)对物理动作的精确标注,这导致了“原子视觉动作”(AVA)。该词汇表由80种不同的原子视觉动作组成。我们的数据集来自于430个不同电影,每个电影截取15到30分钟的时间片段,给定1 Hz的采样频率,我们可以得到每个电影将近900个关键帧。在每个关键帧中,每个人都被标记为AVA词汇表中的(可能有多个)动作。每个人都被链接到连续的关键帧,以提供动作标签的短期序列(第4.3节)。我们现在推动AVA的主要设计选择。
    该图说明了活动的层次结构的本质。摘自Barker and Wright[3],第247页。
    原子动作类别Barker和Wright[3]在他们对Kansas一个小镇居民日常生活中的“行为事件”的经典研究中,注意到了活动的分层性质(图2)。在细粒度的级别上,动作是由“原子体”移动或对物体的操作组成,但在较粗糙粒度的级别上,最自然的描述则是关于意图和目标导向的行为。
    这种层次结构使得定义动作标签的词汇变得不适,导致动作识别领域的进展比物体识别要慢;详尽地列出高层次的行为事件,是不切实际的。然而,如果我们限制在精细的时间尺度,那么行动是非常自然的,并有清晰的视觉特征。在这里,我们将关键帧标注为1hz,因为它足够密集,可以捕获动作的完整语义内容,同时可以避免对动作边界进行不切实际的精确时间标注。THUMOS challenge[18]观察到动作边界(不像对象)本质上是模糊的,这导致标注人之间存在重大分歧。相比之下,注释人可以很容易地(使用±1.5s的上下文)确定一个帧是否包含给定的动作。AVA有效地将动作起始点和结束点定位到可接受的精确度(±0.5 s)。
    以人为中心的行动时间序列。虽然像树木倒下这样的事件并不涉及到人,但我们关注的是作为单一主体的人的活动。在运动中可能会有很多人,或者两个人拥抱,我们分别对每个人单独处理。随时间分配给一个人的动作标签是时态建模的丰富数据来源(第4.3节)。
    标注的电影。理想情况下,我们想要“in wild”的行为。我们没有这些,但电影可以作为一个近似,特别是当我们考虑到类型的多样性和国家的繁荣电影业。我们认为在这个过程中会有一些偏差。故事必须有趣,并且有一种通过镜头并置来交流的电影语言[2]的语法。也就是说,在每一个镜头中,我们都能看到人类行为的一个展开序列,在某种程度上代表了现实,就像有能力的演员所传达的那样。AVA补充了目前来自用户生成视频的数据集,因为我们希望电影包含更大范围的活动,以适合讲述不同的故事。
    详尽的动作标签。我们在所有关键帧中标注所有人的所有行为。这自然会导致不同行动类别间的Zipf法则类型的不平衡。典型的动作(站立或坐着)会比令人难忘的动作(danc- ing)多很多,但应该是这样的!识别模型需要在真实的“长尾”动作分布[15]上操作,而不是使用人工平衡的数据集搭建支架。另一个结果是,由于我们没有通过明确查询互联网视频资源,来检索某些特定动作类别的例子,于是就避免了某种偏见:打开一扇门是电影剪辑中经常发生的常见事件;然而,一个在YouTube上被标记为“开门”的行为可能是值得关注的,并使其成为非典型。
    我们认为,AVA以其现实的复杂性,暴露了该领域中许多流行的数据集隐藏的行动识别的固有困难。在一段视频中,一个人在典型背景下执行一个视觉上明显的动作,比如游泳,很容易与一个正在跑步的人区分开来。与AVA相比,在AVA中,我们会遇到多个演员,他们的图像尺寸很小,表演的动作只有细微的不同,比如触摸和拿着一个物体。为了验证这一直觉,我们对JHMDB[20]、UCF101-24类[32]和AVA进行了比较。我们在建立在多帧方法的基础上[16,41],构建时-空动作定位的方法(见第5节),但将tubelet与I3D卷积[6]进行了分类。我们在JHMDB[20]和UCF101-24[32]上获得了最好的性能(见第6节),而在AVA上只有15.6%。
    AVA数据集已经在https: //research.google.com/ava/上公开发布。

    相关工作

    动作识别的数据集。最流行的动作分类数据集,如KTH [35], Weizmann [4], Hollywood-2 [26], HMDB [24], UCF101[39],都是由短的视频片段组成,手工修剪以捕捉单个动作。这些数据集是“理想型的”适合训练完全监督、全剪辑、强制选择的视频分类器。最近,像TrecVid MED [29], Sports- 1M [21], YouTube-8M [1], Something-something [12], SLAC [48], Moments in Time[28],和Kinetics[22]这样的数据集中在大规模的视频分类上,通常带有自动生成的——因此可能有噪声的——标注。它们服务于一个有价值的目的,但解决了与AVA不同的需求。
    最近的一些工作已经转向了时间定位。ActivityNet [5], THUMOS [18], MultiTHUMOS[46]和Charades[37]使用大量未修剪的视频,每个都包含多个动作,这些动作要么来自YouTube (ActivityNet, THUMOS, MultiTHUMOS),要么来自众包演员(哑谜游戏)。数据集为感兴趣的每个动作提供了时间(而不是空间)定位。AVA与它们不同,因为我们为每个执行动作的受试者提供了时-空标注,标注是超过15分钟的密集片段。
    CMU[23]、MSR Actions[47]、UCF Sports[32]、JHMDB[20]等数据集为短视频提供了每帧的时-空标注。与我们的AVA数据集的主要区别是:动作的数量少;少量的视频剪辑;而且视频都很短。此外,动作是复合的(例如撑杆跳),而不是AVA中的原子动作。最近的扩展,如UCF101 [39], DALY[44]和Hol- lywood2Tubes[27]评估未修剪视频中的时-空定位,这使得任务变得非常困难,并导致性能下降。但是,它们的动作词汇表仍然限于有限数量的复合动作。此外,它们没有密集地覆盖动作;一个很好的例子是UCF101中的扣篮,其中只有扣篮球员被标注。但是,真实的应用程序通常需要对所有人的原子操作进行连续的标注,然后可以将其组合成更高级的事件。这促使AVA对15分钟的片段进行详尽的标注。
    AVA也与静态图像动作识别数据集有关[7,9,13],但这些数据集有两方面的局限性。第一,动作的缺乏会使动作的消歧变得困难。其次,在静态图像中不可能将复合事件建模为原子动作序列。这可能超出了我们的讨论范围,但在许多实际应用中,AVA确实提供了训练数据,这显然是必需的。
    时-空动作定位方法。最近的方法[11,30,34,43]依赖于对象检测器,经过训练可以在帧级用双流变体区分动作类,分别处理RGB和流数据。每帧检测的结果,通过动态规划[11,38]或跟踪[43]进行链接。所有这些方法都依赖于集成帧级检测。最近,多帧方法出现了:Tubelets[41]联合估计多个帧的定位和分类,T-CNN[16]使用3D卷积估计短管(short tubes),微管(micro-tubes)依赖于两个连续的帧[33]和姿态引导(pose-guided)的3D卷积将姿态添加到双流( two-stream)方法[49]。我们建立在时-空管的想法上,但采用了最先进的I3D卷积[6]和更快的R-CNN[31]的region proposals,取得了目前最好结果。

    数据收集

    AVA数据集的注释包括五个阶段:动作词汇的生成,电影和片段的选择,人物边框注释、人物的链接和动作标注。

    动作词汇生成

    我们遵循三个原则来生成我们的行动词汇。
    第一个是一般性。我们收集日常生活场景中的一般动作,而不是特定环境中的特定活动(例如,在篮球场上打篮球)。
    第二个是原子性。我们的action类具有清晰的视觉特征,并且通常独立于交互对象(例如,”拿着“而不是”拿着什么东西“)。这使我们的列表简短而完整。
    最后一个是穷尽性。我们使用来自以前数据集的知识初始化了列表,并对该列表进行了几轮迭代,直到它覆盖了标注者标注的AVA数据集中约99%的动作。
    词汇表中有14个pose类,49个person- object交互类和17个person-person交互类。

    影片和片段选择

    AVA数据集的原始视频内容来自YouTube。我们首先收集了一份来自不同国家的顶级演员名单。对于每个名字,我们都会发出一个YouTube搜索查询,检索多达2000个结果。我们只包括主题为“电影”或“电视”、时长超过30分钟、上传后至少1年、浏览量至少1000次的视频。我们进一步排除了黑白、低分辨率、动画、卡通和游戏视频,以及那些包含成人内容的视频。
    为了在约束内创建具有代表性的数据集,我们的选择标准避免了通过操作关键字、使用自动操作分类器或强制统一的标签分布进行过滤。我们的目标是通过从大型电影行业中取样,创建一个国际性的电影收藏。然而,电影中对动作的描写存在偏差,如性别[10],不能反映人类活动的“真实”分布。
    每个电影对数据集的贡献是相等的,因为我们只标注了从15分钟到30分钟的一小部分。我们跳过电影的开头,以避免标注标题或预告片。我们选择15分钟的持续时间,这样我们就能够在固定的标注时间预算下包含更多的电影,从而增加数据集的多样性。将每15分钟的片段以1秒的步长分割成897个重叠的3s电影片段。

    人物边框注释

    我们用一个边界框来定位一个人和他/她的动作。当一个关键帧中有多个主体(人)时,标注者分别对每个主体(人)进行动作标注,因此他们的动作标签可以不同。
    由于边界框标注是手工密集型的,所以我们选择了一种混合方法。首先,我们使用Faster-RCNN检测器(person
    detector )[31]生成一组初始人体边界框(bounding boxes)。我们设置了操作点,确保高精度。然后,标注者会对检测器未发现的其他边界框进行标注。这种混合方法确保了所有的边界框召回(这对于 benchmarking来说是必不可少的),同时最小化了手工标注的成本。这个手动标注会多获得5%的边界框,验证了我们的标注方案。在动作标注的下一阶段,标注者将标记并删除任何不正确的边界框。

    人的链接注释

    我们在短时间内将边界框连接起来,以获得人的动作轨迹 的ground-truth。我们使用人体嵌入法(person embedding)[45]来计算相邻关键帧中边界框之间的成对相似度,并用匈牙利算法(Hungarian algorithm)[25]求解最优匹配。虽然自动匹配通常很强大,但我们通过标注者验证每个匹配,进一步消除了误报(false positives)。这个过程的结果是81,000条轨迹,时间从几秒钟到几分钟不等。

    动作标注

    动作标签是由众包用户使用图3所示的界面生成的。
    动作标注的用户界面。
    左边的面板显示了目标片段的中间帧(顶部)和作为循环嵌入视频的片段(底部)。覆盖在中间帧上的边界框指定需要标记其动作的人。在右边是可输入最多7个动作标签的文本框,包括1个姿势动作pose(必需)、3个人-物交互(可选)和3个人-人交互(可选)。如果没有动作词汇可以表述该动作,则标注者可以标记一个名为“other action”的box。此外,还可以标记包含阻塞或不适当内容或不正确边框的时间段(帧)。
    在实践中,我们观察到,当他们要从80个类的大量词汇中找出所有正确的动作时,不可避免地会错过正确的动作。受到[36]的启发,我们将动作标注管道(pipeline)分为两个阶段:动作提出(proposal)和验证(verification)。我们首先要求多个标注者为每个问题提出动作候选项,因此联合这些候选项集合,比单个建议拥有更高的召回率。然后,标注者在第二阶段验证这些建议的候选项。结果显示使用这两阶段的方法有显著的提高,特别是在有较少例子的动作。具体分析见补充材料。平均来说,标注者在proposal阶段花22秒注释一个给定的视频片段,在verification阶段花19.7秒。
    每个视频片段由三个独立的标注者进行标注,当一个动作标签被至少两个标注者验证时,我们才将其视为ground truth。标注者随机顺序显示片段。

    训练集、验证集和测试集

    我们的训练/验证/测试集在视频级别被分割,因此一个视频的所有片段只出现在一个分割中。430个视频被分成235个训练视频、64个验证视频和131个测试视频,大致以55:15:30的方式进行分割,得到211k的训练视频、57k的验证视频和118k的测试视频片段。

    AVA数据集的特征

    首先通过可视化实例对AVA数据集的多样性和难度建立直觉。然后,我们定量地描述了数据集上的标注。最后,我们探讨行动与时间结构。

    多样性和困难

    我们展示了AVA中原子动作如何随时间变化的例子。文字对应了红色边框中的人的原子动作对。时间信息是识别许多动作的关键,而在一个动作类别中,例如打开一扇门或一个瓶子,其外观会有很大的不同。
    图4显示了在连续视频段中发生变化的原子操作的示例。除了边界框大小和电影技术的变化,许多类别需要区分细微的差别,比如“碰杯”和“喝酒”,或者利用时间背景,比如“打开”和“关闭”。
    图4还显示了操作“open”的两个示例。即使在action类中,外观也会因上下文的巨大差异而变化:被打开的对象甚至可能会改变。广泛的类内多样性,可以让我们学习识别一个动作的关键时空部分的特征——比如打开一个的封条对应”open“。

    标注的统计数据

    AVA training/val 数据集中每个动作类的实例个数,按降序排序,用颜色表示动作类。
    图5显示了AVA中动作标注的分布情况。分布大致遵循Zipf定律。
    AVA数据集中标注边界框的大小和长宽比变化。请注意,我们的边界框大小变化范围较广,其中很多都很小,很难检测。边界框的长宽比变化也很大,mode为2:1(例如坐姿)。
    图6说明了边界框(box)大小的分布。很大一部分人占据了整个帧的高度。然而,仍然有许多小尺寸的box。差异性较大可以用变焦水平和姿势来解释。例如,标签为“enter”的方框显示典型的行人高宽比为1:2,平均宽度为图像宽度的30%,平均高度为72%。另一方面,标有“躺/睡”的box接近正方形,平均宽度为58%,高度为67%。box的宽度分布很广,显示了人们在发出动作时所采取的各种姿势。
    大多数person边界框都有多个标签。所有边界框都有一个姿态标签,28%的边界框至少有一个人-物交互标签,67%的边界框至少有一个人-物交互标签。

    时间结构

    AVA的一个关键特征是丰富的时间结构,从一个片段演化到另一个片段。既然我们把人连接在不同的片段之间,我们就可以通过观察同一个人的成对动作,来发现共同的连续动作。
    我们采用Normalized Pointwise Mutual Information (NPMI)[8]对成对的动作进行排序。在语言学中,NPMI常用来表示两个单词之间的共现性质:

    值一般会落在范围内(−1,1),−1表示从不共现的词对,0表示独立的词对,1表示总是共现的词对。
    表1显示了同一个人在连续的一秒片段中对NPMI最高的成对动作。
    对于同一个人,我们展示了可能在之前/之后发生的连续动作对。我们按NPMI降序排序,这里取了NPMI值最高的几组。
    在删除身份转换之后,出现了一些有趣的常见的时间模式。经常会出现从“看电话”到“接电话”、“摔倒”到“说谎”、或“听”到“说话”的过渡。我们也分析了人与人之间的动作对。
    表2显示了由不同的人同时执行的NPMI最高的成对动作。
    不同的人同时执行的NPMI最高的成对动作。
    几个有意义的组合出现了,比如“ride”,“drive”,“play music”,“listen”,或者“take”,“give/serve”。尽管存在相对粗糙的时间采样,但原子动作之间的转换,为构建具有较长时间结构的更复杂的动作和活动模型,提供了优秀的数据。

    行动定位模型

    在流行的动作识别数据集(如UCF101或JHMDB)上的性能在最近几年有了相当大的提高,我们相信,这可以展现出更好性能的美好图景。当视频片段只涉及一个人,在具有点的背景场景中,做一些同样具有视觉特征的事情(比如游泳)时,就很容易准确地进行分类。当有多个演员,或者画面很小,或者表演的动作只有细微的不同,背景场景不足以告诉我们发生了什么时,困难就来了。AVA有很多这样的方面,我们会发现AVA的性能要差得多。事实上,这一发现被Charades dataset[37]的糟糕表现所预示。
    为了证明我们的观点,我们开发了一种最先进的动作定位方法,其灵感来自于最近基于多帧时间信息的时空动作定位方法[16,41]。在这里,我们依靠基于I3D[6]的更大时间背景的影响来进行动作检测。我们的方法概述见图7。
    我们的时空动作定位法。在RGB关键帧上使用Faster-RCNN进行Region proposals检测和回归。时空tubes被分为双流I3D卷积。
    在彭和施米德[30]之后,我们使用Faster-RCNN算法[31]对动作进行端到端定位和分类。然而,在他们的方法中,时间信息丢失在第一层,在第一层中多帧的输入是根据时间拼接在一起的。我们提出使用由Carreira和Zisserman[6]设计的Inception 3D (I3D)架构,来建模时间上下文。I3D架构是基于在Inception architecture [40]设计的,但是用3D卷积代替了2D卷积。时间信息在整个网络中被保存。I3D在广泛的视频分类benchmarks上实现了最先进的性能。

    为了将I3D与更快的RCNN结合使用,我们对模型进行如下修改:

    首先,我们将长度为T的输入帧输入到I3D模型中,在网络的Mixed 4e层提取尺寸为T’×W’×H’×C的3D feature maps。Mixed 4e输出feature map的stride为16,相当于ResNet的conv4块。

    其次,在生成action proposal时,我们使用关键帧上的2D ResNet-50模型作为region proposal网络的输入,避免了输入长度不同的I3D对生成的action proposals质量的影响。

    最后,对于所有时间的帧,我们将二维ROI Pooling应用于的相同空间位置,从而将ROI Pooling扩展到三维。为了了解光流对动作检测的影响,我们使用平均池将RGB流和光流流在feature map级别融合。

    基础为了与AVA上基于帧的两流方法进行比较,我们实现了[30]的一个变种。我们使用Faster RCNN[31]和ResNet-50[14]共同学习 action proposals和动作标签。 action proposals仅通过RGB流获得。区域分类器以连续叠加5帧以上的光流特征作为输入RGB。在我们的I3D方法中,我们通过将conv4 feature map与平均pooling融合,共同训练RGB和光流streams。

    实现细节。我们实现了FlowNet v2[19]来提取光流特征。我们用异步SGD训练 Faster-RCNN。对于所有的训练任务,我们使用一个验证集来确定训练步骤的数量,迭代次数从600K到1M不等。我们将输入分辨率固定为320 * 400像素。所有其他模型参数都是基于[17]的推荐值进行设置的,这些值经过了object detection的优化。ResNet-50网络使用ImageNet预训练模型进行初始化。对于光流流,我们复制conv1滤波器输入5帧。对于RGB和光流流,I3D网络使用Kinetics[22]预训练模型进行初始化。注意,尽管I3D是在64帧输入上预先训练的,网络在时间上是完全卷积的,可以接受任意数量的帧作为输入。在训练过程中,所有的特征层都是共同更新的。对输出的帧级检测结果进行后处理,非最大抑制,阈值0.6。

    AVA与现有动作检测数据集的一个关键区别是,AVA的动作标签不是相互排斥的。为了解决这个问题,我们将标准的softmax损失函数替换为二值Sigmoid损失的和,每个类一个。我们对AVA使用Sigmoid损失,对所有其他数据集使用softmax损失。

    链接。一旦我们有了每帧级的检测结果,我们就把它们连接起来,构建动作管(action tubes)。我们是基于得到的所有tubes的平均分数,来评判视频级别的动作检测性能。我们使用与[38]中描述的相同的链接算法,只是我们不应用时间标记。由于AVA标注为1hz,而且每个管可能有多个标签,我们修改了视频级评估协议来估计一个上限。我们使用ground truth链接来推断detection链接,当计算一个类在ground truth tube和一个detection tube之间的IoU得分时,我们只考虑该类标记的tube片段。

    实验和分析

    我们现在实验性地分析AVA的关键特征,并激发动作理解的挑战。

    数据集和指标

    AVA benchmark。由于AVA中的标签分布大致遵循Zipf定律(图5),并且对少量示例的评估可能不可靠,因此我们选择使用在验证和测试分割中至少有25个实例的类,来进行benchmark性能测试。我们的benchmark测试由总共210,634个训练示例、57,371个验证示例和117,441个测试示例组成。除非另有说明,我们报告在训练集上训练的结果和在验证集上评估的结果。我们随机选择10%的训练数据进行模型参数调整。

    数据集。除了AVA之外,我们还对标准视频数据集进行了分析,以比较难度。JHMDB[20]由超过21类的928个修剪剪辑的视频组成。在我们的ablation study中,对上述视频进行了切片(split),但是结果是超过三个切片(split)的平均值,并将该值和当前最优结果进行比较。对于UCF101,我们使用Singh等人[38]提供的包含3207个视频的24类子集的时空标注。我们对标准的官方的切片1进行实验。

    指标。对于评估,我们在可能的情况下遵循标准做法。我们分别报告了在帧级和视频级的IoU性能。对于帧级IoU,我们遵循PASCAL VOC挑战[9]所使用的标准规则,并使用IoU阈值0.5报告平均精度(AP)。对于每个类,我们计算平均精度,并报告所有类的平均值。对于视频级IoU,我们计算ground truth tubes和linked detection tubes之间的3D IoUs,阈值为0.5。mAP是通过对所有类求平均来计算的。

    与state-of-the-art的比较

    表3显示了我们的模型在两个标准视频数据集上的性能。
    JHMDB和UCF101-24的frame-mAP(上)和video-mAP(下)@ IoU 0.5。对于JHMDB,我们使用了三次拆分的平均性能。我们的方法在这两个指标上都大大超过了以前的最好水平。
    我们的3D双流模型在UCF101和JHMDB上获得了最先进的性能,在frame-mAP和video-mAP度量上,都优于已经建立的基线(baseline)。

    然而,在识别原子行为时,情况就不那么乐观了。
    frame-mAP@ IoU 0.5,用于JHMDB (split1)、UCF101 (split1)和AVA的动作检测。注意,JHMDB每个剪辑最多有40帧。对于UCF101-24,我们随机抽取20,000个帧子集进行评估。尽管我们的模型在JHMDB和UCF101-24上获得了最先进的性能,但AVA的细粒度特性使它成为一个挑战。
    由表4可知,同一模型在AVA验证集(frame-mAP为15.6%,video-mAP为12.3%,IoU为0.2,video-mAP为17.9%)和测试集(frame-mAP为14.7%)上性能较差。我们将此归因于AVA背后的设计原则:我们收集的词汇中,上下文和物体线索对动作识别的区别性不强。相反,识别细粒度的细节和丰富的时间模型,需要在AVA上成功,这给视觉动作识别带来了新的挑战。在本文的其余部分,我们分析了AVA的挑战所在,并讨论了如何继续前进。

    Ablation study

    时间信息对识别AVA类别有多重要? 表4显示了时间长度和模型类型的影响。在JHMDB和UCF101-24上,所有3D模型的性能都优于2D baseline。对于AVA来说,3D模型在使用超过10帧之后表现更好。我们还可以看到,对所有数据集,增加时间窗口的长度让3D双流模型表现更好。正如预期的那样,结合RGB和光流特性提高了单输入模态的性能。此外,如果时间窗口更大,模型在AVA比JHMDB和UCF101性能提高更多,后两者的性能在20帧时达到饱和。这一收益和表1中连续的动作表明,利用AVA中丰富的时间背景,可以获得进一步的收益。
    定位VS识别的挑战? 表5比较了端到端动作定位和识别和“与类无关”的动作定位的性能。
    帧映射@ IoU 0.5,用于JHMDB (split1)、UCF101-24 (split1)和AVA benchmarks上的动作检测和人物检测性能。由于人类标注者是一致的,我们的结果表明有显著的空间来改进检测原子视觉动作。
    我们可以看到,尽管在AVA上动作定位比在JHMDB上更具挑战性。但在AVA上,仅仅定位和端到端检测(定位+识别)性能的差距接近60%,而在JHMDB和UCF101上,差距不到15%。这表明AVA的主要困难在于动作分类而不是定位。图9显示了高得分的假警报示例,表明识别的困难在于细粒度的细节。
    红色方框显示的是有关吸烟的高得分假警报。模型常常难以区分细粒度的细节。

    结论

    本文介绍了AVA数据集,该数据集在不同的15分钟的电影片段中,以1hz的频率对原子行为进行时空标注。此外,在标准数据集上,我们还提出了一种优于state-of-the-art的方法来作为baseline。这种方法突出了AVA数据集的难度,因为它的性能明显低于UCF101或JHMDB,强调了开发新的动作识别方法的必要性。
    未来的工作包括基于原子行为建模更复杂的活动。目前的视觉分类技术可能使我们能够在粗糙的场景/视频层面上,对“在餐厅吃饭”等事件进行分类,但基于AVA的精细时空粒度的模型有助于理解个体行为。这些是向计算机灌输“社会视觉智能”的关键步骤——理解人类正在做什么,他们下一步可能做什么,以及他们试图实现什么。

    引用论文

    [1] S. Abu-El-Haija, N. Kothari, J. Lee, P. Natsev, G. Toderici, B. Varadarajan, and S. Vijayanarasimhan. YouTube8M: A large-scale video classification benchmark. arXiv:1609.08675, 2016. 2
    [2] D. Arijon. Grammar of the film language. Silman-James Press, 1991. 2
    [3] R. Barker and H. Wright. Midwest and its children: The psychological ecology of an American town. Row, Peterson and Company, 1954. 2
    [4] M. Blank, L. Gorelick, E. Shechtman, M. Irani, and R. Basri. Actions as space-time shapes. In ICCV, 2005. 2
    [5] F. Caba Heilbron, V. Escorcia, B. Ghanem, and J. C. Niebles. ActivityNet: A large-scale video benchmark for human activity understanding. In CVPR, 2015. 2
    [6] J. Carreira and A. Zisserman. Quo vadis, action recognition? A new model and the Kinetics dataset. In CVPR, 2017. 2, 3, 6
    [7] Y.-W. Chao, Z. Wang, Y. He, J. Wang, and J. Deng. HICO: A benchmark for recognizing human-object interactions in images. In ICCV, 2015. 3, 8
    [8] K.-W. Church and P. Hanks. Word association norms, mutual information, and lexicoraphy. Computational Linguistics, 16(1), 1990. 5
    [9] M. Everingham, S. M. A. Eslami, L. Van Gool, C. K. I. Williams, J. Winn, and A. Zisserman. The PASCAL Visual Object Classes Challenge: A retrospective. IJCV, 2015. 3, 7
    [10] Geena Davis Institute on Gender in Media. The Reel Truth: Women Aren’t Seen or Heard. https://seejane. org/research-informs-empowers/data/, 2016. 3
    [11] G. Gkioxari and J. Malik. Finding action tubes. In CVPR, 2015. 3
    [12] R. Goyal, S. E. Kahou, V. Michalski, J. Materzynska, S. Westphal, H. Kim, V. Haenel, I. Frund, P. Yianilos, ¨ M. Mueller-Freitag, F. Hoppe, C. Thurau, I. Bax, and R. Memisevic. The “something something” video database for learning and evaluating visual common sense. In ICCV, 2017. 2, 8
    [13] S. Gupta and J. Malik. Visual semantic role labeling. CoRR, abs/1505.04474, 2015. 3
    [14] K. He, X. Zhang, S. Ren, and J. Sun. Deep residual learning for image recognition. In CVPR, 2016. 6
    [15] G. V. Horn and P. Perona. The devil is in the tails: Finegrained classification in the wild. arXiv:1709.01450, 2017. 2
    [16] R. Hou, C. Chen, and M. Shah. Tube convolutional neural network (T-CNN) for action detection in videos. In ICCV, 2017. 2, 3, 6, 7
    [17] J. Huang, V. Rathod, C. Sun, M. Zhu, A. Korattikara, A. Fathi, I. Fischer, Z. Wojna, Y. Song, S. Guadarrama, and K. Murphy. Speed/accuracy trade-offs for modern convolutional object detectors. In CVPR, 2017. 6
    [18] H. Idrees, A. R. Zamir, Y. Jiang, A. Gorban, I. Laptev, R. Sukthankar, and M. Shah. The THUMOS challenge on action recognition for videos “in the wild”. CVIU, 2017. 2
    [19] E. Ilg, N. Mayer, T. Saikia, M. Keuper, A. Dosovitskiy, and T. Brox. FlowNet 2.0: Evolution of optical flow estimation with deep networks. In CVPR, 2017. 6
    [20] H. Jhuang, J. Gall, S. Zuffi, C. Schmid, and M. Black. Towards understanding action recognition. In ICCV, 2013. 2, 3, 7
    [21] A. Karpathy, G. Toderici, S. Shetty, T. Leung, R. Sukthankar, and L. Fei-Fei. Large-scale video classification with convolutional neural networks. In CVPR, 2014. 2
    [22] W. Kay, J. Carreira, K. Simonyan, B. Zhang, C. Hillier, S. Vijayanarasimhan, F. Viola, T. Green, T. Back, P. Natsev, M. Suleyman, and A. Zisserman. The Kinetics human action video dataset. arXiv:1705.06950, 2017. 2, 6
    [23] Y. Ke, R. Sukthankar, and M. Hebert. Efficient visual event detection using volumetric features. In ICCV, 2005. 3
    [24] H. Kuehne, H. Jhuang, E. Garrote, T. Poggio, and T. Serre. HMDB: A large video database for human motion recognition. In ICCV, 2011. 2
    [25] H. W. Kuhn. The Hungarian method for the assignment problem. Naval Research Logistics (NRL), 2(1-2):83–97, 1955. 4
    [26] M. Marszalek, I. Laptev, and C. Schmid. Actions in context. In CVPR, 2009. 2
    [27] P. Mettes, J. van Gemert, and C. Snoek. Spot On: Action localization from pointly-supervised proposals. In ECCV, 2016. 3
    [28] M. Monfort, B. Zhou, S. A. Bargal, T. Yan, A. Andonian, K. Ramakrishnan, L. Brown, Q. Fan, D. Gutfruend, C. Vondrick, et al. Moments in time dataset: one million videos for event understanding. 2
    [29] P. Over, G. Awad, M. Michel, J. Fiscus, G. Sanders, W. Kraaij, A. Smeaton, and G. Quenot. TRECVID 2014 – ´ an overview of the goals, tasks, data, evaluation mechanisms and metrics, 2014. 2
    [30] X. Peng and C. Schmid. Multi-region two-stream R-CNN for action detection. In ECCV, 2016. 3, 6, 7
    [31] S. Ren, K. He, R. Girshick, and J. Sun. Faster R-CNN: Towards real-time object detection with region proposal networks. In NIPS, 2015. 3, 4, 6
    [32] M. Rodriguez, J. Ahmed, and M. Shah. Action MACH: a spatio-temporal maximum average correlation height filter for action recognition. In CVPR, 2008. 2, 3
    [33] S. Saha, G.Sing, and F. Cuzzolin. AMTnet: Action-microtube regression by end-to-end trainable deep architecture. In ICCV, 2017. 3
    [34] S. Saha, G. Singh, M. Sapienza, P. Torr, and F. Cuzzolin. Deep learning for detecting multiple space-time action tubes in videos. In BMVC, 2016. 3
    [35] C. Schuldt, I. Laptev, and B. Caputo. Recognizing human actions: a local SVM approach. In ICPR, 2004. 2
    [36] G. Sigurdsson, O. Russakovsky, A. Farhadi, I. Laptev, and A. Gupta. Much ado about time: Exhaustive annotation of temporal data. In Conference on Human Computation and Crowdsourcing, 2016. 4
    [37] G. Sigurdsson, G. Varol, X. Wang, A. Farhadi, I. Laptev, and A. Gupta. Hollywood in homes: Crowdsourcing data collection for activity understanding. In ECCV, 2016. 2, 6
    [38] G. Singh, S. Saha, M. Sapienza, P. Torr, and F. Cuzzolin. Online real-time multiple spatiotemporal action localisation and prediction. In ICCV, 2017. 3, 7
    [39] K. Soomro, A. Zamir, and M. Shah. UCF101: A dataset of 101 human actions classes from videos in the wild. Technical Report CRCV-TR-12-01, University of Central Florida, 2012. 2, 3
    [40] C. Szegedy, V. Vanhoucke, S. Ioffe, J. Shlens, and Z. Wojna. Rethinking the inception architecture for computer vision. In CVPR, 2016. 6
    [41] V.Kalogeiton, P. Weinzaepfel, V. Ferrari, and C. Schmid. Action tubelet detector for spatio-temporal action localization. In ICCV, 2017. 2, 3, 6, 7
    [42] L. Wang, Y. Qiao, X. Tang, and L. Van Gool. Actionness estimation using hybrid fully convolutional networks. In CVPR, 2016. 7
    [43] P. Weinzaepfel, Z. Harchaoui, and C. Schmid. Learning to track for spatio-temporal action localization. In ICCV, 2015. 3
    [44] P. Weinzaepfel, X. Martin, and C. Schmid. Towards weaklysupervised action localization. arXiv:1605.05197, 2016. 3
    [45] L. Wu, C. Shen, and A. van den Hengel. PersonNet: Person re-identification with deep convolutional neural networks. arXiv preprint arXiv:1601.07255, 2016. 4
    [46] S. Yeung, O. Russakovsky, N. Jin, M. Andriluka, G. Mori, and L. Fei-Fei. Every moment counts: Dense detailed labeling of actions in complex videos. IJCV, 2017. 2
    [47] J. Yuan, Z. Liu, and Y. Wu. Discriminative subvolume search for efficient action detection. In CVPR, 2009. 3
    [48] H. Zhao, Z. Yan, H. Wang, L. Torresani, and A. Torralba. SLAC: A sparsely labeled dataset for action classification and localization. arXiv preprint arXiv:1712.09374, 2017. 2
    [49] M. Zolfaghari, G. Oliveira, N. Sedaghat, and T. Brox. Chained multi-stream networks exploiting pose, motion, and appearance for action classification and detection. In ICCV, 2017. 3

    展开全文
  • AVA-源码

    2021-03-26 12:45:29
    AVA
  • ava-源码

    2021-02-09 08:02:44
    ava
  • gulp-ava 运行测试 安装 $ npm install --save-dev gulp-ava 用法 const gulp = require ( 'gulp' ) ; const ava = require ( 'gulp-ava' ) ; exports . default = ( ) => ( gulp . src ( 'test.js' ) // `gulp-...
  • Ava WordPress主题 认识Ava,这是精品WooCommerce主题,非常适合投资组合和商店。 Ava充满手工制作的触感,旨在帮助您留下难忘的第一印象。 发展历程 克隆此GitHub存储库。 浏览到命令行中的文件夹。 运行npm ...
  • awesome-ava:很棒的AVA资源
  • ava-docs:AVA的本地化文档
  • java源码ava源码ava源码

    2011-05-09 08:59:39
    ava源码ava源码ava源码ava源码ava源码ava源码ava源码ava源码ava源码ava源码ava源码ava源码ava源码ava源码ava源码ava源码ava源码
  • ava编辑器学习版本ava编辑器学习版本ava编辑器学习版本ava编辑器学习版本ava编辑器学习版本
  • Ava源代码 文档不存在,所以不要问 如果您被邀请,请按照以下说明进行操作。 if (hackedWayIn == true) return msg.channel.send('have fun with this code, idk what you might use it for.'); 给被邀请者的指示 ...
  • 创建ava 将添加到您的项目 命令行界面 $ npm init ava [options] 原料药 $ npm install create-ava 用法 const createAva = require ( 'create-ava' ) ; ( async ( ) => { await createAva ( ) ; } ) ( ) ; ...
  • ava-testing-examples ava-testing-examples
  • ava就业博客

    2018-05-11 16:21:32
    ava就业项目-博客系统ava就业项目-博客系统ava就业项目-博客系统ava就业项目-博客系统
  • eslint-plugin-ava ESLint 规则 翻译: 该插件捆绑在。 如果您正在使用它,则无需执行任何操作。 安装 $ npm install --save-dev eslint eslint-plugin-ava 用法 在package.json配置它。 { " name " : " my-...
  • 这里写目录标题AVA系列AVA-ActionsAVA-KineticsAVA标注规范标签类别标注方式CSV格式旧版视频下载AVA-Actions下载AVA-Kinetics视频 以下代码可以在我的github找到。 欢迎访问个人主页、博客。 AVA系列 AVA数据集官方...


    以下代码可以在我的github找到
    欢迎访问个人主页博客

    AVA系列

    AVA数据集官方网站,需要科学上网,AVA提供4类数据集:

    • AVA-Kinetics(v1.0)):时空动作检测,包含来自 AVA v2.2 的原始 430 个视频,以及来自Kinetics-700 数据集的238k 个视频 。

    • AVA-Actions(v2.2):时空动作检测,包含 430 个视频,其中235 个用于训练、64 个用于验证和 131 个用于测试。每个视频有 15 分钟的注释,间隔为 1 秒。

    • AVA Active Speaker(v1.0):说话人检测。

    • AVA Speech(v1.0)

    Task介绍:http://activity-net.org/challenges/2019/tasks/guest_ava.html

    AVA-Actions

    包含 430 个视频,其中235 个用于训练、64 个用于验证和 131 个用于测试。每个视频有 15 分钟的注释,间隔为 1 秒。

    AVA-Actions(v2.2)数据集下载,下载后会得到以下文件。

    行为类别文件

    • ava_action_list_v2.2_for_activitynet_2019.pbtxt:60类行为,Evaluate时使用。
    • ava_action_list_v2.2.pbtxt:80类行为。

    行为标签文件

    • ava_train_v2.2.csv、ava_val_v2.2.csv、ava_test_v2.2.txt

    其他文件

    • 每个视频要检测的位置,即第902到1798秒。
      • ava_included_timestamps_v2.2.txt
    • 不需要进行检测的timestamp,即 train/val/test 数据集中每个视频不需要进行检测的timestamp。
      • ava_test_excluded_timestamps_v2.2.csv
      • ava_train_excluded_timestamps_v2.2.csv
      • ava_val_excluded_timestamps_v2.2.csv

    AVA-Kinetics

    包含来自 AVA v2.2 的原始 430 个视频,以及来自Kinetics-700 数据集的238k 个视频 。

    AVA-Kinetics(v1.0)数据集下载,下载后会得到以下文件。

    行为类别文件

    • ava_action_list_v2.2.pbtxt:80类行为。
    • ava_action_list_v2.2_for_activitynet.pbtxt:60类行为,Evaluate时使用。

    行为标签文件

    • AVA数据集:ava_test_v2.2.csv,ava_train_v2.2.csv,ava_val_v2.2.csv
    • kinetics数据集:kinetics_test_v1.0.csv,kinetics_train_v1.0.csv,kinetics_val_v1.0.csv

    AVA标注规范

    标签类别

    AVA提供80 个原子动作的注释:

    id英文标签中文标签id英文标签中文标签id英文标签中文标签
    1bend/bow (at the waist)弯/弓腰2crawl爬行3crouch/kneel蹲下/跪下
    4dance舞蹈5fall down摔倒6get up起床
    7jump/leap跳跃/跳跃8lie/sleep说谎/睡觉9martial art武术
    10run/jog跑步/慢跑11sit12stand站立
    13swim游泳14walk15answer phone接电话
    16brush teeth刷牙17carry/hold
    (an object)
    拿/保持
    (物体)
    18catch
    (an object)
    捕捉(物体)
    19chop20climb
    (e.g., a mountain)
    攀登
    (山)
    21clink glass碰杯
    22close
    (e.g., a door, a box)
    关闭(门、盒子)23cook厨师24cut
    25dig26dress/put on clothing穿衣27drink
    28drive
    (e.g., a car, a truck)
    驾驶29eat30enter进入
    31exit出口32extract提炼33fishing钓鱼
    34hit (an object)击中(物体)35kick (an object)36lift/pick up举起/捡起
    37listen
    (e.g., to music)
    38open (e.g., a window, a car door)打开
    (窗户、车门)
    39paint
    40play board game玩棋盘游戏41play musical instrument演奏乐器42play with pets和宠物一起玩
    43point to (an object)指向(一个物体)44press45pull (an object)拉(物体)
    46push (an object)推(一个物体)47put down放下48read
    49ride (e.g., a bike, a car, a horse)50row boat划艇51sail boat帆船
    52shoot射击53shovel54smoke抽烟
    55stir搅拌56take a photo拍照57text on/look at a cellphone发短信/看手机
    58throw59touch (an object)触摸60turn (e.g., a screwdriver)转动(螺丝刀)
    61watch (e.g., TV)看(电视)62work on a computer在电脑上工作63write
    64fight/hit (a person)打架/击打(人)65give/serve (an object) to (a person)把物给人66grab (a person)抢(一个人)
    67hand clap拍手68hand shake握手69hand wave挥手
    70hug (a person)拥抱71kick (a person)踢(一个人)72kiss (a person)吻(人)
    73lift (a person)抬(人)74listen to (a person)听(一个人)75play with kids和孩子们一起玩
    76push
    (another person)
    推(人)77sing to (e.g., self, a person, a group)唱歌(人,团体)78take (an object) from (a person)从(人)取(物)
    79talk to (e.g., self, a person, a group)与(人、团体)交谈80watch (a person)看(一个人)

    标注方式

    • 要标记的内容包括人物bbox,以及每个人的行为类别,同一时间同一人可能有多个行为
    • 每行标注一个人在一个时间段内在某个位置的一个行为。
    • 标记的内容还有还有每个实体编号,即相邻关键帧中的人物如果是同一个人,则拥有相同的实体编号。换句话说,“实体编号”其实就是目标跟踪的标签。
    • 并不是对视频中的每一帧进行标记,而只是对关键帧进行标记,即每秒取1帧作为关键帧,对该帧进行标记。

    CSV格式

    一行的格式如下:video_id、middle_frame_timestamp、person_box、action_id、person_id。

    • video_id:YouTube 标识符。
    • middle_frame_timestamp:从视频开始的秒数。
    • person_box:左上角 (x1, y1) 和右下角 (x2,y2) ,其中 (0.0, 0.0) 对应于左上角,而 (1.0, 1.0) 对应于右下角。
    • action_id:动作类标识符,见 ava_action_list_v2.2.pbtxt
    • person_id:一个唯一的整数,允许此框链接到在此视频的相邻帧中描绘同一个人的其他框。

    旧版

    AVA v2.2 在两个方面与 v2.1 不同。首先人工加入缺失的标签,将注释数量增加了 2.5%。其次,对宽高比远大于 16:9 的少量视频进行了框位置校正。

    AVA v2.1 与 v2.0 的不同之处仅在于删除了少量被确定为重复的电影。类列表和标签映射与 v1.0 保持不变。

    以前版本的 AVA 的文件可以在这里下载:

    视频下载

    以下代码可以在我的github找到

    AVA-Actions

    cd ava-actions

    .
    ├── download.py
    ├── trainval_src.txt
    ├── test_src.txt
    ├── readme.md
    
    • trainval_url.txttest_url.txt:训练集验证集、测试集可以直接下载的url文件,在win下可以直接使用迅雷,IDM批量下载;ubuntu下直接wget即可。

    • download.py:如果不采用上述方法下载,亦可用download.py下载。

      python download.py --url_txt <urlfile> --output_dir <output_dir>
      

    https://github.com/cvdfoundation/ava-dataset

    下载AVA-Kinetics视频

    cd ava-kinetics

    .
    ├── download.py
    ├── all.csv
    ├── test.csv
    ├── test.csv
    ├── train.csv
    ├── readme.md
    
    • all.csvtrain.csvtest.csvval.csv:训练集、验证集、测试集、所有数据集的Youtube ID,包括起止时间。

    • download.py:使用download.py下载。

      python download.py  --input_csv <csvfile> --output_dir <output_dir>
      

    https://github.com/gurkirt/kinetics-download-prep

    展开全文
  • 基于AVA基于属性的测试 将基于属性的测试框架的强大功能带入AVAava-fast-check简化了将快速检查集成到AVA测试框架中的过程。 入门 安装ava-fast-check及其对等项依赖项: npm install --save-dev ava fast-...
  • 进程工具AVA

    2015-10-16 10:46:33
    进程工具AVA
  • ava数据

    1 简介

    AVA数据集是时空行为检测数据集,AVA数据包含430个视频,每个视频15分钟,AVA数据集是每一秒标一帧。

    2 官方数据源

    官网提供的数据源:ava-dataset
    如下图所示
    在这里插入图片描述
    在这里插入图片描述

    3 python脚本处理

    首先,把两个here所对应的链接通过迅雷下载:
    ava_file_names_trainval_v2.1.txt(这是训练集)
    ava_file_names_test_v2.1.txt(这是测试机)

    然后将https://s3.amazonaws.com/ava-dataset/trainval/和训练集的txt中每一行拼接

    然后将https://s3.amazonaws.com/ava-dataset/test/和测试集的txt中每一行拼接

    其中训练集拼接代码如下(测试集类似)

    创建python文件 str.py,这个脚本的作用是将ava_file_names_trainval_v2.1.txt里的内容和https://s3.amazonaws.com/ava-dataset/trainval/进行拼接

    f1 = open("ava_file_names_trainval_v2.1.txt")   
    str1='https://s3.amazonaws.com/ava-dataset/trainval/'
    str2=''
    
    #清空str.txt
    f2 = open("str.txt", 'w').close()
    i=0
    #按行读取f1
    for line in f1:
    	i=i+1
    	#在将str2和str1拼接
    	str2=str1+line
    	# 在str.txt中追加str2
    	with open('str.txt',"a") as f2:
    		f2.write(str2+"\n")
    print(i)	
    f1.close()
    f2.close()
    
    

    处理后的文件如下:

    在这里插入图片描述

    迅雷下载

    再将其全部复制到迅雷中:

    在这里插入图片描述
    提速方法:在设置里同时下载最高值。
    在这里插入图片描述

    5 参考

    [AVA Actions Dataset 详解](https://blog.csdn.net/irving512/article/details/107212801)
    

    6 训练集和测试集的链接文档

    我把测试集和训练集的链接发这里,复制后,直接使用迅雷就可以下载

    训练集:

    https://s3.amazonaws.com/ava-dataset/trainval/_-Z6wFjXtGQ.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/_145Aa_xkuE.mp4
    
    https://s3.amazonaws.com/ava-dataset/trainval/_7oWZq_s_Sk.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/_a9SWtcaNj8.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/_Ca3gOdOHxU.mp4
    
    https://s3.amazonaws.com/ava-dataset/trainval/_dBTTYDRdRQ.webm
    
    https://s3.amazonaws.com/ava-dataset/trainval/_eBah6c5kyA.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/_ithRWANKB0.mp4
    
    https://s3.amazonaws.com/ava-dataset/trainval/_mAfwH6i90E.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/-5KQ66BBWC4.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/-FaXLcSFjUI.mp4
    
    https://s3.amazonaws.com/ava-dataset/trainval/-IELREHX_js.mp4
    
    https://s3.amazonaws.com/ava-dataset/trainval/-OyDO1g74vc.mp4
    
    https://s3.amazonaws.com/ava-dataset/trainval/-XpUuIgyUHE.mp4
    
    https://s3.amazonaws.com/ava-dataset/trainval/-ZFgsrolSxo.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/053oq2xB3oU.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/0f39OWEqJ24.mp4
    
    https://s3.amazonaws.com/ava-dataset/trainval/0wBYFahr3uI.mp4
    
    https://s3.amazonaws.com/ava-dataset/trainval/1j20qq1JyX4.mp4
    
    https://s3.amazonaws.com/ava-dataset/trainval/1ReZIMmD_8E.mp4
    
    https://s3.amazonaws.com/ava-dataset/trainval/26V9UzqSguo.mp4
    
    https://s3.amazonaws.com/ava-dataset/trainval/2bxKkUgcqpk.mp4
    
    https://s3.amazonaws.com/ava-dataset/trainval/2DUITARAsWQ.mp4
    
    https://s3.amazonaws.com/ava-dataset/trainval/2E_e8JlvTlg.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/2FIHxnZKg6A.webm
    
    https://s3.amazonaws.com/ava-dataset/trainval/2fwni_Kjf2M.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/2KpThOF_QmE.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/2PpxiG0WU18.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/2qQs3Y9OJX0.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/3_VjIRdXVdM.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/32HR3MnDZ8g.mp4
    
    https://s3.amazonaws.com/ava-dataset/trainval/3IOE-Q3UWdA.mp4
    
    https://s3.amazonaws.com/ava-dataset/trainval/4gVsDd8PV9U.mp4
    
    https://s3.amazonaws.com/ava-dataset/trainval/4k-rTF3oZKw.mp4
    
    https://s3.amazonaws.com/ava-dataset/trainval/4Y5qi1gD2Sw.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/4ZpjKfu6Cl8.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/55Ihr6uVIDA.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/5BDj0ow5hnA.mp4
    
    https://s3.amazonaws.com/ava-dataset/trainval/5LrOQEt_XVM.mp4
    
    https://s3.amazonaws.com/ava-dataset/trainval/5milLu-6bWI.mp4
    
    https://s3.amazonaws.com/ava-dataset/trainval/5MxjqHfkWFI.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/5YPjcdLbs5g.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/6d5u6FHvz7Q.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/7g37N3eoQ9s.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/7nHkh4sP5Ks.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/7T5G0CmwTPo.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/7YpF6DntOYw.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/8aMv-ZGD4ic.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/8JSxLhDMGtE.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/8nO5FFbIAog.webm
    
    https://s3.amazonaws.com/ava-dataset/trainval/8VZEwOCQ8bc.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/914yZXz-iRs.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/9bK05eBt1GM.mp4
    
    https://s3.amazonaws.com/ava-dataset/trainval/9eAOr_ttXp0.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/9F2voT6QWvQ.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/9HOMUW7QNFc.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/9IF8uTRrWAM.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/9mLYmkonWZQ.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/9QbzS8bZXFE.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/9Rcxr3IEX4E.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/9tyiDEYiWiA.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/9Y_l9NsnYE0.mp4
    
    https://s3.amazonaws.com/ava-dataset/trainval/aDEYi1OG0vU.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/Ag-pXiLrd48.mp4
    
    https://s3.amazonaws.com/ava-dataset/trainval/aMYcLyh9OhU.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/AN07xQokfiE.mp4
    
    https://s3.amazonaws.com/ava-dataset/trainval/aRbLw-dU2XY.mp4
    
    https://s3.amazonaws.com/ava-dataset/trainval/ax3q-RkVIt4.mp4
    
    https://s3.amazonaws.com/ava-dataset/trainval/ayAMdYfJJLk.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/AYebXQ8eUkM.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/b-YoBU0XT90.mp4
    
    https://s3.amazonaws.com/ava-dataset/trainval/B1MAUxpKaV8.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/b50s4AlOOKY.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/b5pRYl_djbs.mp4
    
    https://s3.amazonaws.com/ava-dataset/trainval/bAVXp1oGjHA.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/BCiuXAuCKAU.mp4
    
    https://s3.amazonaws.com/ava-dataset/trainval/bePts02nIY8.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/bhlFavrh7WU.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/bSZiZ4rOC7c.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/BXCh3r-pPAM.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/BY3sZmvUp-0.mp4
    
    https://s3.amazonaws.com/ava-dataset/trainval/C25wkwAMB-w.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/C3qk4yAMANk.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/c9pEMjPT16M.webm
    
    https://s3.amazonaws.com/ava-dataset/trainval/cc4y-yYm5Ao.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/CG98XdYsgrA.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/cKA-qeZuH_w.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/cLiJgvrDlWw.mp4
    
    https://s3.amazonaws.com/ava-dataset/trainval/CMCPhm2L400.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/covMYDBa5dk.mp4
    
    https://s3.amazonaws.com/ava-dataset/trainval/CrlfWnsS7ac.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/cWYJHb25EVs.mp4
    
    https://s3.amazonaws.com/ava-dataset/trainval/CZ2NP8UsPuE.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/D-BJTU6NxZ8.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/D8Vhxbho1fY.mp4
    
    https://s3.amazonaws.com/ava-dataset/trainval/Db19rWN5BGo.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/dgLApPvmfBE.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/Di1MG6auDYo.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/dMH8L7mqCNI.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/E2jecoyAx1M.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/E7JcKooKVsM.mp4
    
    https://s3.amazonaws.com/ava-dataset/trainval/eA55_shhKko.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/Ecivp8t3MdY.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/Ekwy7wzLfjc.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/er7eeiJB6dI.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/F3dPH6Xqf5M.mp4
    
    https://s3.amazonaws.com/ava-dataset/trainval/fD6VkIRlIRI.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/Feu1_8NazPE.mp4
    
    https://s3.amazonaws.com/ava-dataset/trainval/fGgnNCbXZ20.mp4
    
    https://s3.amazonaws.com/ava-dataset/trainval/fNcxxBjEOgw.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/fpprSy6AzKk.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/fZs-yXm-uUs.mp4
    
    https://s3.amazonaws.com/ava-dataset/trainval/g1wyIcLPbq0.mp4
    
    https://s3.amazonaws.com/ava-dataset/trainval/G4qq1MRXCiY.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/G5Yr20A5z_Q.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/GBXK_SyfisM.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/Gfdg_GcaNe8.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/gjasEUDkbuc.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/gjdgj04FzR0.mp4
    
    https://s3.amazonaws.com/ava-dataset/trainval/GozLjpMNADg.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/gqmmpoO1JrY.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/Gt61_Yekkgc.mp4
    
    https://s3.amazonaws.com/ava-dataset/trainval/Gvp-cj3bmIY.webm
    
    https://s3.amazonaws.com/ava-dataset/trainval/hbYvDvJrpNk.mp4
    
    https://s3.amazonaws.com/ava-dataset/trainval/hHgg9WI8dTk.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/Hi8QeP_VPu0.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/HJzgJ9ZjvJk.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/HKjR70GCRPE.mp4
    
    https://s3.amazonaws.com/ava-dataset/trainval/Hscyg0vLKc8.mp4
    
    https://s3.amazonaws.com/ava-dataset/trainval/HTYT2vF-j_w.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/HV0H6oc4Kvs.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/HVAmkvLrthQ.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/HymKCzQJbB8.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/I8j6Xq2B5ys.mp4
    
    https://s3.amazonaws.com/ava-dataset/trainval/Ie35yEssHko.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/IKdBLciu_-A.mp4
    
    https://s3.amazonaws.com/ava-dataset/trainval/iSlDMboCSao.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/IuPC-z-M9u8.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/IzvOYVMltkI.mp4
    
    https://s3.amazonaws.com/ava-dataset/trainval/J1jDc2rTJlg.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/j35JnR0Q7Es.mp4
    
    https://s3.amazonaws.com/ava-dataset/trainval/J4bt4y9ShTA.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/j5jmjhGBW44.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/jBs_XYHI7gM.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/jE0S8gYWftE.webm
    
    https://s3.amazonaws.com/ava-dataset/trainval/jgAwJ0RqmYg.mp4
    
    https://s3.amazonaws.com/ava-dataset/trainval/jI0HIlSsa3s.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/JNb4nWexD0I.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/jqZpiHlJUig.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/K_SpqDJnlps.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/kAsz-76DTDE.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/Kb1fduj-jdY.mp4
    
    https://s3.amazonaws.com/ava-dataset/trainval/KHHgQ_Pe4cI.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/KIy2a-nejxg.mp4
    
    https://s3.amazonaws.com/ava-dataset/trainval/kLDpP9QEVBs.mp4
    
    https://s3.amazonaws.com/ava-dataset/trainval/kMy-6RtoOVU.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/kplbKz3_fZk.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/Ksd1JQFHYWA.mp4
    
    https://s3.amazonaws.com/ava-dataset/trainval/KVq6If6ozMY.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/KWoSGtglCms.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/l-jxh8gpxuY.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/l2XO3tQk8lI.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/lDmLcWWBp1E.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/Lg1jOu8cUBM.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/LIavUJVrXaI.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/LrDT25hmApw.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/lT1zdTL-3SM.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/lWXhqIAvarw.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/M6cgEs9JgDo.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/Ma2hgTmveKQ.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/mfsbYdLx9wE.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/miB-wo2PfLI.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/mkcDANJjDcM.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/N0Dt9i9IUNg.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/N1K2bEZLL_A.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/N5UD8FGzDek.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/N7baJsMszJ0.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/NEQ7Wpf-EtI.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/nlinqZPgvVk.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/NO2esmws190.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/O_NYCUhZ9zw.mp4
    
    https://s3.amazonaws.com/ava-dataset/trainval/o4xQ-BEa3Ss.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/O5m_0Yay4EU.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/oD_wxyTHJ2I.mp4
    
    https://s3.amazonaws.com/ava-dataset/trainval/OfMdakd4bHI.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/OGNnUvJq9RI.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/oifTDWZvOhY.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/oITFHwzfw_k.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/om_83F5VwTQ.mp4
    
    https://s3.amazonaws.com/ava-dataset/trainval/oq_bufAhyl8.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/Ov0za6Xb1LM.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/oWhvucAskhk.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/P60OxWahxBQ.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/P90hF2S1JzA.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/PcFEhUKhN6g.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/pGP_oIdKmRY.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/phrYEKv0rmw.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/phVLLTMzmKk.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/pieVIsGmLsc.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/piYxcrMxVPw.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/plkJ45_-pMk.mp4
    
    https://s3.amazonaws.com/ava-dataset/trainval/PmElx9ZVByw.mp4
    
    https://s3.amazonaws.com/ava-dataset/trainval/PNZQ2UJfyQE.mp4
    
    https://s3.amazonaws.com/ava-dataset/trainval/QaIMUi-elFo.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/qBUu7cy-5Iw.mp4
    
    https://s3.amazonaws.com/ava-dataset/trainval/QCLQYnt3aMo.webm
    
    https://s3.amazonaws.com/ava-dataset/trainval/QD3L10bUnBo.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/QJzocCGLdHU.mp4
    
    https://s3.amazonaws.com/ava-dataset/trainval/QMwT7DFA5O4.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/QotkBTEePI8.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/qpoWHELxL-4.mp4
    
    https://s3.amazonaws.com/ava-dataset/trainval/qrkff49p4E4.mp4
    
    https://s3.amazonaws.com/ava-dataset/trainval/qsTqtWVVSLM.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/QTmwhrVal1g.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/qx2vAO5ofmo.mp4
    
    https://s3.amazonaws.com/ava-dataset/trainval/r2llOyS-BmE.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/rCb9-U4TArw.mp4
    
    https://s3.amazonaws.com/ava-dataset/trainval/rFgb2ECMcrY.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/ri4P2enZT9o.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/Riu4ZKk4YdQ.webm
    
    https://s3.amazonaws.com/ava-dataset/trainval/rJKeqfTlAeY.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/rk8Xm0EAOWs.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/Rm518TUhbRY.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/rUYsoIIE37A.mp4
    
    https://s3.amazonaws.com/ava-dataset/trainval/rXFlJbXyZyc.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/S0tkhGJjwLA.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/sADELCyj10I.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/SCh-ZImnyyk.mp4
    
    https://s3.amazonaws.com/ava-dataset/trainval/SHBMiL5f_3Q.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/skiZueh4lfY.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/sNQJfYvhcPk.mp4
    
    https://s3.amazonaws.com/ava-dataset/trainval/sUVhd0YTKgw.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/T-Fc9ctuNVI.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/t0V4drbYDnc.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/t1LXrJOvPDg.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/T26G6_AjJZ4.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/TcB0IFBwk-k.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/TCmNvNLRWrc.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/tEoJW9ycmSY.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/TEQ9sAj-DPo.mp4
    
    https://s3.amazonaws.com/ava-dataset/trainval/tghXjom3120.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/tjqCzVjojCo.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/TM5MPJIq1Is.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/tNpZtigMc4g.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/tt0t_a1EDCE.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/TzaVHtLXOzY.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/U_WzY2k8IBM.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/u1ltv6r14KQ.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/UgZFdrNT6W0.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/uNT6HrrnqPU.webm
    
    https://s3.amazonaws.com/ava-dataset/trainval/UOfuzrwkclM.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/UOyyTUX5Vo4.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/uq_HBsvP548.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/UrsCy6qIGoo.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/UsLnxI_zGpY.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/uwW0ejeosmk.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/uzPI7FcF79U.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/v0L-WkMO3s4.mp4
    
    https://s3.amazonaws.com/ava-dataset/trainval/vBbjA4tWCPg.mp4
    
    https://s3.amazonaws.com/ava-dataset/trainval/vfjywN5CN0Y.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/Vmef_8MY46w.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/VRlpH1MbWUw.mp4
    
    https://s3.amazonaws.com/ava-dataset/trainval/VsYPP2I0aUQ.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/wEAeql4z1O0.mp4
    
    https://s3.amazonaws.com/ava-dataset/trainval/wfEOx36N4jA.mp4
    
    https://s3.amazonaws.com/ava-dataset/trainval/WKqbLbU68wU.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/WlgxRNCHQzw.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/wogRuPNBUi8.mp4
    
    https://s3.amazonaws.com/ava-dataset/trainval/wONG7Vh87B4.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/WSPvfxtqisg.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/WVde9pyaHg4.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/x-6CtPWVi6E.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/X5wWhZ2r9kc.mp4
    
    https://s3.amazonaws.com/ava-dataset/trainval/xeGWXqSvC-8.webm
    
    https://s3.amazonaws.com/ava-dataset/trainval/XF87VL5T0aA.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/XglAvHaEtHY.mp4
    
    https://s3.amazonaws.com/ava-dataset/trainval/xJmRNZVDDCY.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/xmqSaQPzL1E.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/xO4ABy2iOQA.mp4
    
    https://s3.amazonaws.com/ava-dataset/trainval/xp67EC-Hvwk.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/XpGRS72ghag.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/XV_FF3WC7kA.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/y7ncweROe9U.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/yMtGmGa8KZ0.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/yn9WN9lsHRE.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/yo-Kg2YxlZs.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/yqImJuC5UzI.mp4
    
    https://s3.amazonaws.com/ava-dataset/trainval/Ytga8ciKWJc.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/yvgCGJ6vfkY.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/YYWdB7h1INo.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/z-fsLpGHq6o.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/Z1YV6wB037M.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/z3kgrh0L_80.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/zC5Fh2tTS1U.mp4
    
    https://s3.amazonaws.com/ava-dataset/trainval/zG7mx8KiavA.mp4
    
    https://s3.amazonaws.com/ava-dataset/trainval/zlVkeKC6Ha8.mp4
    
    https://s3.amazonaws.com/ava-dataset/trainval/ZosVdkY76FU.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/zR725veL-DI.mkv
    
    https://s3.amazonaws.com/ava-dataset/trainval/ZxQn8HVmXsY.mkv
    
    
    

    测试集合

    展开全文
  • :videocassette: ava-playback在这里有帮助。 在record模式下,编写测试时,只允许应用程序调用真实的API,当您准备就绪时,只需从record模式切换到播放模式即可 :party_popper: 。 在后台, ava-playback将记录新...
  • AVA语言 称为AVA的垃圾,看起来像是基于python的编程语言 安装 从源: python setup.py install 例子 例如,创建带有.ava扩展名的文件test.ava : write ( "Hello world!" ) ; 要运行代码,请在python文件中输入...
  • ava辅助源码

    2014-05-29 17:42:22
    ava辅助源码
  • AVA-TS 本机TypeScript支持sindresorhus出色的测试运行程序,无需事先构建步骤。 :rocket: 零配置设置 :fast-forward_button: 并行测试执行 :framed_picture: 快照测试 :chart_increasing: 所有您最喜欢的记者 这...
  • AVA 代码片段,并直接在编辑器中运行测试 安装 $ apm install ava 或者,设置→安装→搜索ava 片段 其中包括一些有助于编写AVA测试的代码。 开始编写代码段的prefix ,然后按Tab↹扩展代码段。 摘要是模糊匹配,...
  • AVA-hpa 内容 AVA-hpa是一个分为两个阶段的模型,包含自我监督的预训练阶段和监督的学习阶段。 AVA-hpa的目的是提高免疫荧光显微图像中蛋白质亚细胞定位识别的性能。 原始文件显示了AVA-hpa的整体网络架构。 原始...
  • :flower_playing_cards: AVA数据集 大规模的审美视觉分析数据库 数据集下载 通过Mega或Torrent下载 :cloud: 巨型云 链接: 整个数据集已拆分为64个7z文件。 下载所有zip文件,解压缩第一个文件,它应该可以工作。 ...
  • NEO-5 AVA令牌的实现 用法 有标准NEP-5令牌智能合约和此令牌的4个可选操作: 方法 总供应 Returns the total token supply deployed in the system. 名称 Returns the token name. 象征 Returns the token symbol...
  • 中庆与AVA对比表

    2017-10-02 06:37:41
    中庆与AVA对比表中庆与AVA对比表中庆与AVA对比表中庆与AVA对比表中庆与AVA对比表
  • ava-fixture-docker-db 获取附加到您的ava测试上下文的新docker数据库容器 用法 import ava , { TestInterface } from 'ava' import { db , DbContext } from 'ava-fixture-docker-db' const test = ava as ...
  • AVA敏捷开发

    2012-02-09 00:55:19
    AVA敏捷开发
  • vue-test-utils-ava-example 使用vue-test-utils和ava运行单元测试的示例项目 构建设置 # install dependencies npm install # serve with hot reload at localhost:8080 npm run dev # build for production with ...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 34,957
精华内容 13,982
关键字:

AVA