[新浪科技综合]谁才是让AI产生偏见的幕后推手?新浪科技综合2020-07-15 09:56:360阅( 二 )


算法纠偏工具已经上岗
近期 , 国际多家机构相继宣布禁用人脸识别技术 。 有色人种被还原成白人的事件 , 再次掀起了人们对于人工智能系统产生偏见的批判浪潮 , 也再次警醒人们 , 技术带有偏见所带来的潜在危机 。
偏见可能导致无辜者蒙冤 。 在2018年夏天 , 英国媒体就报道过 , 由于人脸识别技术的误判 , 导致一名年轻黑人男性被误认为嫌疑犯 , 在公众场合被警察搜身 。
也有报告显示 , 一些国外执法机构可以根据AI识别出的发色、肤色和面部特征对视频中的人物进行检索 。 这种技术上的偏见也在一定程度上放大了人们的偏见 。
除了对人种与性别的识别偏差之外 , 人脸识别技术还因其在侵犯隐私方面的问题而引起担忧 。 2020年初 , 美国一家人脸识别技术公司便受到了严密的审查 , 有关部门发现 , 其面部识别工具由超过30亿张图像构建而成 , 然而这些图像大部分都是通过抓取社交媒体网站收集的 , 并且已被许多企业广泛使用 。
偏见存在的同时 , 一批新兴的算法纠偏工具也涌入了人工智能 。
早在2018年 , 脸书曾发布一个算法模型 , 表示会在算法因种族、性别、年龄等因素做出不公正判断时发出警告以提醒开发者;2019年麻省理工学院就提出了一种纠偏算法 , 可以通过重新采样来自动消除数据偏见 。
那么克服偏见还需要人工智能技术做出哪些努力?“开源方法和开源技术都有着极大的潜力改变算法偏见 。 ”叶亮指出 , 开源方法本身十分适合消除偏见程序 , 开源社区已经证明它能够开发出强健的、经得住严酷测试的机器学习工具 。 如果线上社团、组织和院校能够接受这些开源特质 , 那么由开源社区进行消除算法偏见的机器设计将会顺利很多 。
【[新浪科技综合]谁才是让AI产生偏见的幕后推手?新浪科技综合2020-07-15 09:56:360阅】柯逍认为 , 可以看出偏见基本来源于数据与算法 , 加强对人工智能所使用的数据、算法以及模型的评估 , 能够在一定程度上缓解潜在的、可导致偏见与歧视的因素 。 同时 , 人工智能的偏见其实都是人类偏见的反映与放大 , 因此人们放下偏见才是最根本的解决方案 。
[新浪科技综合]谁才是让AI产生偏见的幕后推手?新浪科技综合2020-07-15 09:56:360阅
文章图片
图2/2


推荐阅读