典型的度量学习论文会提出一个新的损失函数或训练过程,然后在一些数据集上显示结果,如 CUB200、Stanford Cars 和 Stanford Online 产品。每隔几个月,我们都会看到准确度有所提高。
这真的是太好了,但有几点要注意。
这里有一张随机图
有些论文对比对象不一致
为了说明一种新的算法优于现有的方法,保持尽可能多的参数不变是很重要的。这样,我们可以确定是新算法提高了性能,而不是一个无关的参数提高了性能。但是在基准度量学习论文中并非如此:
1.网络架构并没有保持不变。有些论文用 GoogleNet,而最近的许多论文都在使用 BN-Inception,有时被称为 batch 标准化的开端「Inception with Batch Normalization」。2017 年一篇被广泛引用的论文使用 ResNet50,然后声称获得了巨大的性能提升。这是值得怀疑的,因为与之对比的方法使用的是 GoogleNet,这是一个不太强大的架构。因此,大部分性能提升可能来自网络架构的选择,而不是他们提出的方法。
2.图像增强并没有保持不变。大多数论文声称应用以下变换:将图像大小调整为 256 x 256,随机裁剪为 227 x 227,并以 50% 的几率进行水平翻转。但最近一些论文的官方开源实现表明,他们实际上使用的是 GoogleNet 论文中描述的更复杂的裁剪方法(见「训练方法」)。
3.性能提升技巧在论文中没有提及。在最近一篇 2019 年论文的官方开源代码中,主干模型的 BatchNorm 参数在训练期间被冻结。作者解释说,这有助于减少过度拟合,让 CUB200 数据集的性能提高 2 个点。但他们的论文中并没有提到这一点。
在 ImageNet 上预先训练的模型的准确性。使用 PCA 将输出嵌入大小减少到 512。对于每个图像,较小的边被缩放到 256,然后中心裁剪到 227x227。
大多数论文使用的是简单的训练/测试拆分
他们对一部分数据进行训练,找到在测试集上表现最好的模型,并报告这个数字。换句话说,它们不使用验证集。因此,超参数被调整,整个算法都是由测试集的直接反馈创建的。这打破了 Machine Learning 101 的最基本规则。此外,同一个模型训练/测试分离的方法已使用多年。随着时间的推移,这两个因素可能会导致测试集的过度拟合。
所以让我们正确地对这些算法进行基准测试
这就是强大的基准测试被用到的地方。
为什么要用这个工具?
透明性。你运行的每个实验都附带了详细的配置文件,这些文件精确地显示了使用了哪些模型、损失、转换等等。所以现在我们可以公平地比较各种方法的优缺点。
更好的性能衡量指标。使用比回忆更具信息性的指标。
用正确的方法测量精度。在多个基于类的训练/val/测试分段上测量精度。或者你可以使用旧的 50/50 训练/测试拆分进行比较。
保存详细的记录。在 Tensorboard 上查看有关训练过程的深入信息。
配置文件的灵活性。通过配置文件控制实验的大部分标准。通过合并现有的配置文件来扩展现有配置文件。下面是如何指定模型的示例:
models:
trunk:
bninception:
pretrained: imagenet
embedder:
MLP:
layer_sizes:
- 512
下面是如何合并 3 个配置文件的方法:
python run.py \
--experiment_name test \
--config_general default daml train_with_classifier
加大命令行的灵活性。使用标准 Python 字典表示法指定复杂配置选项:
python run.py \
--experiment_name test \
--optimizers {metric_loss_optimizer: {SGD: {lr: 0.01}}}
更多详情,请查看相关 github 项目:https://github.com/KevinMusgrave/powerful_benchmarker#override-config-options-at-the-command-line
算法的灵活性。混合匹配损失、函数、采样器和训练方法。要使用硬批处理的多相似性损失?没问题:
loss_funcs:
metric_loss:
MultiSimilarityLoss:
alpha: 0.1
beta: 40
base: 0.5
mining_funcs:
post_gradient_miner:
BatchHardMiner: {}
访问 torchvision 和 pretrainedmodels 包中的所有模型。在配置模型文件中,只需指定出现在 torchvision 或 pretrainedmodels 中的函数名。
获取 torch.nn 和 pytorch_metric_learning 中的所有损失。在 config_loss_and_miners 文件中,只需指定出现在 torch.nn 或 pytorch_metric_learning 中的类名。
它真的有用吗?
下表是在 CVPR 2019 和 ICCV2019 上发表的一系列度量学习论文的结果。每种颜色代表不同的模型和嵌入大小配置。由于没有标准的实验方法,很难比较各种算法的性能。这阻碍了研究进展,因为我们不知道哪种方法最有效。因此,重要的是要有一个基准工具,使我们能够做公平的比较。
绿色:BN-Inception,512;蓝色:Blue: Resnet50, 128;黄色:Resnet50, 512;红色:GoogleNet, 512。前 8 行的数字来自各自的论文。
要查看这些实验和其他实验的配置文件,请参阅此电子表格,我将随时间添加到其中:https://docs.google.com/spreadsheets/d/1kiJ5rKmneQvnYKpVO9vBFdMDNx-yLcXV2wbDXlb-SB8/edit?usp=sharing
表格的底部是使用基准测试工具获得的结果。 triplet loss 和 contrastive loss 都接近最新水平。然而,这两种方法常常被排除在结果表之外,或者被认为是性能最差的方法之一。强大的基准测试程序使检查这些基准算法变得容易。
写在最后
你对这个工具的看法和度量学习的现状怎么看?如果你有任何问题或想添加某些功能,请访问 GitHub repos 以了解强大的 powerful_benchmarker 和 pytorch_metric_learning 。
via:https://medium.com/@tkm45/benchmarking-metric-learning-algorithms-the-right-way-90c073a83968
雷锋网雷锋网雷锋网