歧视|AI存偏见和歧视让用户喜好趋同 科学家解读( 二 )


为进一步研究数据库存在偏见的程度 , 研究人员分别使用了三种算法对数据库的准确性和公平性进行评估 。 结果发现 , 在准确性方面 , RAF-DB数据库对少数族裔的识别准确性低于白人;在公平性方面 , 性别属性相对更公平 , 为97.3% , 种族和年龄的公平性相对较低 , 为88.1%和77.7% 。
而在CelebA数据库的图片来源中 , 女性比例为61.4% , 而男性只有38.6% 。 在年龄上 , 年轻人占75.7% , 明显超过了占比24.3%的老年人 。
在准确性方面 , CelebA数据库对年轻女性的准确率为93.7% , 但对老年男性的准确性较低 , 为90.7% 。 而该数据库在性别和年龄方面的公平性表现都较好 , 分别为98.2%和98.1% 。
许多公司曾用人脸识别软件给面试者的情绪打分 , 如果整个系统都是有偏见的 , 对于面试者来说就意味着不公平 。 面部表情数据集中偏见的存也凸显了监管的必要性 。 如何用法律防止技术滥用 , 成为未来这一领域里值得思考的问题之一 。


推荐阅读