AI招聘渐热,如何抵御隐藏在算法背后的歧视?( 二 )


防止AI可能存在偏见和歧视的问题 , 一些机构已经在这方面进行有力的探索 。“比如上海的浦江实验室建设了软硬结合的蒲公英人工智能治理开放平台——OpenEGlab , 目标是要打造系统、实用的人工智能伦理治理的基础设施 。”赵健介绍说 , 该平台包括规则风险展示、评测框架等五大部分 。其中 , 公平公正的维度 , 涵盖了基于性别、地域、年龄、职业健康的歧视内容 。同时 , 建立了基于评测框架敏感问题的评测语料库 , 数据量达到百万级 , 公平公正部分的数据量将达到十万级 , 目前对一些国内外大模型安全性初步开展了评测 。
让劳动者参与算法治理“来伊份目前有7800名正式员工 , 95%是女性 , 40岁至50岁的员工占50% 。”面对职场上的就业歧视 , 上海来伊份股份有限公司总裁郁瑞芬常用自己的经历来回应偏见:“我是1999年创业的 , 雇用了大批下岗工人 , 她们是可爱的人 , 工作认真努力 。”
郁瑞芬认为 , 年龄、性别等都不应是职场的门槛 。“我们门店的大多数员工都是上海本地阿姨 , 企业对她们在电脑技能方面进行了培训提升 , 目前每年发放工资8.5亿元左右 。”
“女性构成了就业和劳动力市场的半边天 , 但晋升遭遇天花板、同工不同酬等就业歧视仍然存在于一些企业之中 。”翁文磊认为 , 经济转型 , 特别是新技术对就业的替代效应 , 女性是有优势的 。“现在就业不仅仅要肌肉 , 更重要的是协调能力 。”
上海财经大学法学院教授吴文芳在对数字时代人工智能算法治理与劳动者权益保障进行研究时曾撰文指出 , 针对算法可能导致歧视以及算法权力滥用的问题 , 需要通过算法治理工具予以规制 。
吴文芳表示 , 应关注劳动者参与算法治理的具体路径构建 , 以及劳动者新型权利的赋权进路 。同时 , 应强化工会的专业化赋能及与第三方专业机构的制度化协作 , 积极参与算法设计、算法公开等监管程序 。(采访人员 裴龙翔)




推荐阅读