【论文笔记】Towards Online Continuous Sign Language Recognition and Translation
【论文笔记】Towards Online Continuous Sign Language Recognition and Translation
小嗷犬基本信息
标题: Towards Online Continuous Sign Language Recognition and Translation
作者: Ronglai Zuo, Fangyun Wei, Brian Mak
发表: EMNLP 2024
arXiv: https://arxiv.org/abs/2401.05336
摘要
研究连续手语识别(CSLR)对于弥合聋人和听力正常人士之间的沟通差距至关重要。
许多先前的研究已经使用连接主义时间分类(CTC)损失来训练他们的模型。
在推理过程中,这些基于CTC的模型通常需要整个手语视频作为输入来做出预测,这个过程被称为离线识别,它存在高延迟和大量内存使用的问题。
在本工作中,我们迈出了在线CSLR的第一步。我们的方法包括三个阶段:
- 开发手语字典;
- 在字典上训练孤立手语识别模型;
- 对输入手语序列采用滑动窗口方法,将每个手势片段输入到优化后的模型进行在线识别。
此外,我们的在线识别模型可以通过集成词义到文本网络来扩展以支持在线翻译,并可以增强任何离线模型的表现。
通过这些扩展,我们的在线方法在三个流行的基准测试中实现了新的最先进性能,涵盖了各种任务设置。
代码和模型可在https://github.com/FangyunWei/SLRT找到。
主要贡献
- 一个框架。我们提出了一种创新的在线CSLR框架,该框架将ISLR模型滑动到手语视频流上。为了增强ISLR模型的训练,我们进一步提出了几种技术,如手语增强、gloss-level训练和显著性损失。
- 两个扩展。首先,我们通过集成 wait- gloss-to-text 网络实现了在线SLT。其次,我们通过一个轻量级适配器扩展了在线CSLR框架,以提升离线CSLR模型的表现。
- 性能。我们的在线方法以及两个扩展在三个广泛采用的基准测试中建立了新的最先进结果:Phoenix-2014、Phoenix-2014T和CSL-Daily,在各种任务设置下。
方法
Dictionary Construction
Sign Segmentor
采用预训练的CSLR模型作为Sign Segmentor,将每个连续的手语视频分割成其组成的独立手语,称为伪真实值。
Sign Augmentation
通过裁剪每个伪真实值周围的片段来创建增强手语。然后,分割的独立手语(伪真实值)和增强手语都被纳入我们的词典中。
ISLR Model
根据TwoStream-SLR,主干网络由两个并行的S3D网络组成,分别建模RGB手语视频和人体关键点。输入手语视频跨越 帧。
Mini-Batch Formation
在传统的分类任务中,从训练集中随机选择实例以形成小批量。这种采样策略被称为instance-level sampling。在本工作中,我们通过实证发现,gloss-level sampling(我们的默认策略)能获得更好的性能。
如图2b所示,我们最初从词典中采样 个gloss。对于每个gloss,我们再采样 个实例以形成一个迷你批次,从而得到一个有效的批次大小为。
在我们的实现中,每个gloss采样的 个实例可以是伪真实值手语或其增强。
我们的技术与 batch augmentation (BA) 具有相似的精神,后者多次增强一个迷你批次。
我们的gloss-level sampling通过在伪真实值手语周围使用“时间抖动”的实例来形成训练批次,而不是像BA那样直接增强伪真实值。
尽管如此,我们的采样策略仍然保留了BA的好处,例如减少方差降低。
Loss Functions
这段话的翻译如下,并用LaTeX表示其中的符号:
损失函数。给定一个大小为 的小批量,令 表示具有gloss索引 和实例索引 的样本的后验概率。
我们ISLR模型的分类损失由两部分组成:
- 在 个实例上应用的实例级交叉熵损失();
- 在 个gloss上应用的gloss级交叉熵损失(),以学习更具区分性的表示。
这两个损失可以公式化为:
Saliency Loss
我们的ISLR模型处理具有固定长度的手势片段,但这些片段中的前景区域可能会有所不同。
为了解决这个问题,我们设计了一种显著性损失(Saliency Loss),鼓励模型优先处理前景手势,忽略背景手势(共发音)。
提出的显著性损失的示意图如图2c所示。
具体来说,对于一个训练样本,它是伪真实值 的增强实例,我们将其输入到我们的 ISLR 模型中。
这一过程生成了其编码特征,其中 是片段长度, 是神经网络的下采样因子, 表示通道维度。
接下来,我们将 上采样到,使用上采样因子(默认)。
总体缩放因子因此变为。
不失一般性,假设,前景区域从第 帧开始,到第 帧结束。
然后,我们可以通过沿时间维度池化 来生成前景特征。
最后,显著性损失 实现为从 生成的概率上的交叉熵损失。
Overall Loss Function
整体的损失函数实现为实例和gloss级别上的分类损失和显著性损失的总和:
Online Inference
如图2d所示,在线推理是通过滑动窗口策略实现的,步长为。
通常,滑动窗口方法会产生重复预测,因为它们可能会多次扫描相同的手势。
因此,后处理总是必要的。我们在线后处理的伪代码:
该算法有两个关键功能:
- 基于投票的去重(第 12 行)
- 背景消除(第 13 行)
Extensions
Online Sign Language Translation
如图3所示,我们在在线 CSLR 模型上附加了一个额外的gloss-to-text网络,并采用了 wait- 策略,以实现在线 SLT。
这个 wait- 策略在看到 个gloss后()启用文本预测。
在推理阶段,由我们的在线 CSLR 模型生成的gloss预测被依次输入到优化良好的gloss-to-text网络中,以生成翻译结果。
Promote Offline Models with Online Model
我们的在线 CSLR 模型也可以提升离线模型的性能。
如图4所示,考虑两个优化良好的 CSLR 模型:我们的在线模型和一个现有的离线模型。
设 和 分别表示由在线模型和离线模型提取的特征。
为了首先对齐这两个特征的维度,我们在在线模型上附加了一个轻量级适配器网络,该网络包括一个下采样层和一个两层 MLP。
这个网络将 投影到,匹配 的维度。
然后,我们使用加权求和操作融合 和:,其中 是一个默认设置为 0.5 的权衡超参数。
最后, 被输入到一个分类头中,该分类头由 CTC 损失监督。
训练过程非常高效,因为在线和离线模型的参数都被冻结。
我们采用 TwoStream-SLR作为离线模型,因为其卓越的性能。
实验
主实验
消融实验
总结
在此工作中,我们开发了一个实用的在线CSLR框架。
首先,我们构建了一个与目标数据集词汇表相匹配的手语字典。
为了丰富训练数据,我们通过裁剪每个手语周围的片段来收集增强手语。
为了实现在线CSLR,我们在字典上训练了一个ISLR模型,使用标准分类损失和引入的显著性损失。
在推理过程中,我们通过实时将每个滑动窗口输入到优化良好的ISLR模型中,进行在线CSLR。
引入了一种简单而高效的后期处理算法,以消除重复预测。
此外,还提出了两个扩展,分别用于在线SLT和增强离线CSLR模型。
随着扩展,我们的框架在三个基准测试中实现了在各种任务设置下的SOTA性能。