[机器之心]张航、李沐等人提出ResNet最强改进版:性能提高3%,参数不增( 三 )


如表 6 所示 , ResNeSt 骨干网络具有更好的性能 , 对于 Mask-RCNN , ResNeSt50 的性能优于基线 , 在 box/mask 任务中的性能分别提高了 2.85%/2.09% 。 而 ResNeSt101 的提高更多 , 为 4.03%/3.14% 。 对于 Cascade-Mask-RCNN , 切换到 ResNeSt50 或 ResNeSt101 所产生的性能提升分别为 3.13%/2.36% 或 3.51%/3.04% 。
下表 7 展示了 ResNeSt 在 ADE20K、Citscapes 语义分割任务上的表现 。
[机器之心]张航、李沐等人提出ResNet最强改进版:性能提高3%,参数不增
本文插图

表 7:在 ADE20K(左)、Citscapes(右)语义分割任务中的性能 。
与之前的结果类似 , 使用 ResNeSt-50 骨干网络的 DeepLabv3 模型已经优于使用更深层 ResNet-101 骨干网络的 DeepLabv3 模型 。 具有 ResNeSt-101 骨干网络的 DeepLabV3 模型达到了 82.07% 的 pixAcc 和 46.91% 的 mIoU , 据了解 , 这是为 ADE20K 提出的最佳单一模型 。
机器之心 CVPR 2020 线上分享的第一期 , 我们邀请到北京大学智能科学系陈汉亭(论文一作)为我们分享主题《加法神经网络:在深度学习中我们是否真的需要乘法?》 , 欢迎读者报名学习 。
[机器之心]张航、李沐等人提出ResNet最强改进版:性能提高3%,参数不增
本文插图


推荐阅读