性别|论文盘点:性别年龄分类器详解( 三 )


本文插图

2.3.3 年龄组分类结果
如下表所示为年龄组分类的结果 , 同样的 , 第一列包含分类器的名称 , 第二列包含相应的分类精度 。 我们会发现 , 基于几何特征的方法和基于外观的方法之间的性能差距很小 , 基于外观的方法能稍微优越一点 。
性别|论文盘点:性别年龄分类器详解
本文插图

CVPR 2019
性别|论文盘点:性别年龄分类器详解
本文插图

论文标题:Multimodal Age and Gender Classification Using Ear and ProfileFace Images
论文来源:CVPR 2019
论文链接:https://arxiv.org/abs/1907.10081
3.1 核心思想

  • 作者提出了一个多模式年龄和性别分类系统 , 该系统以侧面人脸和耳朵图像为输入 。 所提出的系统执行端到端多模式、多任务学习 。
  • 作者全面探讨了利用多模式输入进行年龄和性别分类的各种方法 。 并采用了三种不同的数据融合方法 。
  • 作者将中心损失和 softmax 损失结合起来训练深度神经网络模型 。
3.2 模型介绍 3.2.1 CNN网络和损失函数 在本文中采用了 VGG-16 和 ResNet-50 神经网络结构 。 在 VGG16 中 , 有 13 个卷积层和3个全连接层 。 为防止过度拟合 , 采用了 dropout 方法 。 另一个 CNN 模型是 ResNet-50 。 与 VGG-16 不同 , 除了 ResNet-50 的输出层外 , 没有全连接层 。 在卷积部分和输出层之间存在一个全局池化层 。 两个网络的输入大小都是 224×224 。
作者利用中心损失函数和 softmax 函数来获得更多的鉴别特征 。 中心损失背后的主要动机是提供更接近相应类中心的特性 。 测量特征到相关类中心的距离 , 计算出中心损失 。 中心损失试图为每个类中心生成更接近的特征 , 但它不负责提供可分离的特征 , 因此 , softmax 损失对其进行了补充 。 具体的计算公式如下:
性别|论文盘点:性别年龄分类器详解
本文插图

3.2.2 多模态多任务
作者研究了年龄和性别分类的性能 , 分别使用耳朵和侧面人脸图像 , 作为单峰系统 , 并结合作为一个多模式 , 多任务系统 。 对于多模式、多任务年龄和性别分类总损失计算 , 作者结合了年龄和性别预测的所有损失 。 具体的计算公式如下所示:
3.2.3 数据融合
为了实现数据融合 , 作者采用了三种不同的方法 , 即空间融合、强度融合和信道融合 。 在空间融合中 , 将侧面人脸和耳朵图像并排连接起来 。 在信道融合中 , 将图像沿着通道串联起来 。 在强度融合中 , 平均化轮廓面部和耳朵图像的像素强度值 。 具体详情如下图所示:
性别|论文盘点:性别年龄分类器详解
本文插图

3.2.4 特征融合
对于基于特征的融合策略 , 作者训练了两个独立的 CNN 模型 , 其中一个以侧面人脸图像为输入 , 另一个以耳朵图像为输入 。 当这些网络的表示部分(卷积部分)被分开训练时 , 最后一个卷积层的输出被连接并馈送给分类器部分 。 具体详情如下图所示:
性别|论文盘点:性别年龄分类器详解
本文插图

3.2.5 分数融合
对于基于分数的融合 , 作者用相关模型对每个侧面人脸图像和耳朵图像进行了测试 。 然后 , 对于属于同一主题的每个侧面人脸和耳朵图像 , 根据不同的置信度计算方法获得概率得分并测量每个模型的置信度 。 之后 , 选择了具有最大可信度的模型的预测 。 具体详情如下图所示:
性别|论文盘点:性别年龄分类器详解


推荐阅读