算法|手机上这些人工智障,让我笑出眼泪( 二 )


大部分这种拥挤度 , 都是根据这条路上 , 有多少人在用地图 App 导航算出来的 。
简单来说 , 同一位置有 100 个人在导航 , 肯定会比 10 个人在导航 , 要拥挤得多 。
So , 今年 2 月份在国外有位老哥 , 玩了一次行为艺术 , 戏弄了一番谷歌地图 。
他用小推车拉了 99 台手机上街 , 给它们打开谷歌地图的导航模式 , 然后很讽刺的事情就出现了……
没一会儿 , 这条路的拥挤度就变成了深红色 。
原因很简单 , 谷歌地图以为这条路上有 99 辆汽车龟速前行 , 堵车堵得不行 。
但实际上 , 这条路空荡荡 , 根本没有汽车来往 。

话说机哥也不知道 , 这位老哥为什么会有 99 台手机 , 看来有钱人都是深藏不露啊 。
据这位老哥后来表示 , 他是偶然发现谷歌地图算法的漏洞 。
因为有一次他发现 , 某一条路很多人在游行 。 明明没啥车 , 偏偏谷歌地图显示这里严重堵车 。
这就是算法不完善的锅呀!只是没想到 , 强如谷歌公司做出来的算法 , 都会搞出乌龙 。
But , 有时候连国家做出来的算法 , 可能也会出 bug。
被算法弄得头疼的英国高考

就在上个月 , 英国版的「高考」A-level 考试 , 沦为一次闹剧 。
话说今年不少疫情比较严峻么 , 英国就干脆取消了「高考」 。
嗯?这可是新鲜事 。 咱们国内也就延期一个月 , 英国这直接不考了?
但是吼 , 大学还是要录取的 , 该咋整呢?
于是英国政府整出了一套算法 , 而且号称极其公正 。
首先 , 让老师根据每位学生过去的考试成绩和模拟考的成绩 , 打一个分 。 比如给最优秀的同学打「A*」 , 就是最高分 。
这里可能会有人问机哥 , 这样做难道不会出现徇私的情况吗?
咱们能想到的事情 , 人家专家肯定也能想到 。 于是英国有关部门开发出一套算法 , 来对老师的打分进行评估和修正 。
只是算法毕竟不是人 , 它不仅客观 , 而且客观过头了 , 最终酿成一场巨大的乌龙:

(翻译:今年对A-level“不公平”结果感到愤怒)
在这套算法里 , 它认为如果某个「考区」过往的成绩基本上是哪个档次 , 今年应该也会在某个区间里 。
从统计学上来看 , 这套算法在科学理论层面是没有毛病的 , 但现实毕竟不是理论……
如果某个考区过去成绩都不咋地 , 于是今年的算法 , 就会对这个考区被打了高分的同学 , 往下调一级 , 比如说从「A*」降到「A」 。
But , 在这个逻辑下 , 就自动排除了某个学习不好的「考区」 , 突然出现一个「SSS级」学霸的情况 。
人家学霸也冤啊……人在家中坐 , 锅从天上来 。
但是学渣可能就躺赢了 , 如果他在的地方 , 刚好过往成绩都很棒 , 他可能就会被升级成高分 。

(有人升级也有人降级 , 数据来源于网络)
据报道 , 英格兰大概有 39.1% 的打分被降级 。 机哥掐指一算 , 这岂不是每 10 个人 , 就有 4 个人中招 。
机哥瞅见 , 最后这件事的处理方法也很简单粗暴 , 取消算法 , 以老师给出来的评分为准 。
emmm……这闹了半天 , 又回到最初的起点 。
不过足以看出 , 有时候开发一套算法的时候 , 都过于理论化了 , 没有考虑到实际情况 。
但是 , 有时候算法摆乌龙 , 可能不是不完善 , 也不是不考虑实际 , 而是低估了人类的天性 。

把 AI 改造成骂人机器

前几年 , 微软在 Twitter 上线了一款聊天机器人 , 叫做「Tay」 。
但仅仅过去 1 天 , 就逼得微软紧急把它下架了 。 究竟发生了什么事情呢?
机哥提醒一下前方高能 , 小朋友请绕开这一段 。


推荐阅读