|AI辅具能让我们更有尊严地老去吗?“中国版霍金”这样说( 二 )


经过一年多的研发 , 智能助盲眼镜已基本成型 , 集成障碍物检测、交通标志检测、人脸识别、文本识别、语音交互等一系列针对盲人生活“痛点”的功能 。
以交通标志检测为例 , 智能助盲眼镜能够识别与盲人出行关系最为密切的20种交通标志 , 包括斑马线、无障碍坡道、交通信号灯 , 等等 。 卜佳俊介绍 , 为了解决交通标志尺度变化大、背景复杂导致的检测识别准确率低、速度慢等问题 , 团队研发了一种基于深度学习的新算法 。
值得注意的是 , 智能助盲眼镜还加入了熟人识别、表情识别等人脸识别功能 。 如果迎面而来的是亲友 , 眼镜就会像佩戴者发出提醒 , 并且提示对方的表情 。 卜佳俊说 , 从实验来看 , 熟人识别和表情识别的精度分别能达到99.7%和85% 。
研发完成后 , 团队招募了15名盲人志愿者进行试用 。 卜佳俊说 , 志愿者者的总体反馈还不错 。 “用户提出的反馈意见与建议 , 也为产品的迭代和后续研发提供了很好的参考方向 。 ”他说 , 产品研发完成后不断扩大用户体验规模 , 在功能优化的同时 , 还可以提供更多的能力去服务各类残疾人 。
除了帮助残障人士解决生活困难的智能辅具 , 也有一种类型是帮助健全人更顺畅地与残障人士交流 。
中国科学技术大学信息学院教授周文罡介绍了视频手语识别的研究 。 他们希望让机器学会看手语 , 当聋哑人士对着摄像头比手语时 , 机器可以同步地将手语识别出来 , 并转为口语化的表达 。
为了达到这个目标 , 周文罡首先要让机器学看手语词 , 但这并不容易 。 在中国 , 常用手语词大概有5600个 , 这些词可以组合出非常复杂的句子 。 此外 , 手语跟方言有相似性 , 不同地区、不同个体的手语习惯不一样;手语视频往往存在两手之间互相遮挡、背景干扰等问题 , 这些都对机器识别造成了挑战 。
就此 , 周文罡提出 , 可以利用手的先验模型 , 生成手部的3D骨架数据 , 再通过推理模型识别手语词 。 “比如说 , 尽管人眼看到的是个二维的手型 , 但是你可以推测出对应三维的手长什么样子 。 ”在团队的测试中 , 手语识别效果已经有了不错的改善 。
北京保益互动科技发展有限公司创始人曹军则以盲人的身份 , 针对无障碍技术设计提出了一些建议 。
曹军回忆 , 有一次 , 他在某个机场试用无障碍电梯 , 却发现电梯的盲文在很低的位置 , 他需要蹲下来才能摸到 。 从他的亲身体验看 , 像这样为残障人士设计、但实际上并不好用的产品还有很多 。
曹军说 , 这些产品的设计初衷都是好的 , 但开发者对用户需求的想象和判断 , 不一定符合残障人士的真实需要 , 用户用起来不一定方便 。 在现实中 , 开发者往往在产品成型后才邀请残障人士参与测试 , “这个时候就晚了 ” 。 “你们要做产品的 , 一定要跟我们交朋友 , 先了解了我们的需求 , 再去设计产品 , 这样的产品一定会被社会所认可 , 一定能够真正改变残障人士的生活方式 。 ”
“人工智能加辅具的研究 , 给我们的无障碍建设带来了更好的机遇 。 ”在圆桌环节 , 中国残联副主席吕世明说道 。 他表示 , 产学研各方关注残障人士的需求和愿望是非常好的事 , “就怕大家不关注、不研究” 。 但正如曹军说的一样 , 研究者有必要将用户体验环节前置 , 在研发初始阶段就践行“无障碍设计”理念 , 找准用户需求 , 避免走弯路 。
“以前有一个说法是 , 发达国家在关注20%的(弱势)人群 , 发展中国家在关注80%的人群 。 为什么我们现在说国家强大了 , 其实我能感觉到 , 国家的关注点正在从80%的人群向20%的人群转移 , 越来越关心残疾人、老年人等一些特殊人群 。 ”中国残疾人信息和无障碍技术研究中心主任助理王炜说 , “人工智能、大数据等前沿技术 , 可能会在特殊人群的帮助上发挥更大的作用 。 ”


推荐阅读