中国新闻周刊|电商平台的“生死订单”:“问你件事,怎样死才不疼?”( 二 )


水面下的风险
“守护生命”干预安抚的案例以年轻人居多 , 其中“90后”和“00后”占比就达到六成以上 。 用户为年轻人居多的B站提供的数据显示 , 2020上半年自杀干预案例中 , 接入报警的有26例 , 但是流露出深度抑郁和自杀倾向的案例 , 仅仅5月就有714例 。
除去阿里 , 活跃着年轻用户的腾讯、B站等公司在发现此类信息时 , 也会启动相关的帮助和服务 。 在美国 , 2019年9月10日“世界预防自杀日”前后 , Facebook也开始分享有关用户讨论自杀的公开数据 , 以解决人们对其网站上出现的自杀和自我伤害内容的担忧 , 并开始聘请健康专家加入安全团队 。
B站页面上有一个叫做“动态”的功能 , 类似于微博 。 如果有人在里面发布了严重负面情绪等信息 , 审核人员会介入判断该用户的心理情绪 , 如果涉及高度危险类内容(重度抑郁、自杀倾向)等 , 审核人员会及时转交给专业心理辅导客服介入 , 客服会联系用户进行安全确认 , 并进行情绪安抚 。 如涉及更严重的心理问题 , 客服还会转接至专业心理咨询机构“青小聊”做进一步的心理辅导安抚 , 若是用户处境不安全 , 客服会报警协助警方同步处理 , 确保用户的生命安全 。
在B站、百度搜索等地方输入“安眠药”“自杀”等关键词 , 会跳出提示页面、安抚话语、解决失眠等问题的科普视频 , 心理咨询机构的联系方式 , 便于有心理问题但还不是特别严重的网民随时求助 。 淘宝提供的数据显示 , 手机App端自从今年6月推出“守护生命”宣导页面后 , 页面上心理健康知识的视频每日的播放量有2500次左右 , 前端工作人员感知到的自杀风险量下降近3成 。
而腾讯的“微光行动”项目 , 主要覆盖QQ用户 , 起因是为了整治类似国外传入的“蓝鲸游戏”这样的诱导自杀行为 。 该行动2018年7月上线 , 截至2019年1月 , 该行动一共封停QQ群组账号2000多个 , 和警方一起救助了35名有自杀、自残倾向的用户 。
2014年 , 世界卫生组织(WHO)发布的首份预防自杀报告中曾提到 , 自杀是全球15~29岁年龄组中第二大死亡原因 。 该组织鼓励全球各国家实施面向全人群的自杀干预策略 , 方式包括提高卫生保健服务的可及性、促进心理健康、减少酒精的有害使用、限制自杀工具的方便易得性、促进媒体责任等 。
在互联网上 , 人工干预自杀早已不是新鲜事 。 2018年 , 武汉科技大学大数据研究院副主任、特聘教授黄智生创立了“树洞救援团” , 运用人工智能技术收集互联网信息干预自杀行为 , 截至2019年底 , 该组织已经阻止了1600多次自杀行为 。 而更早的2017年7月 , 中国科学院心理研究所研究员朱廷劭和团队就开始为有自杀意念的新浪微博用户提供心理危机干预 。
朱廷劭团队曾比较了新浪微博上自杀死亡用户和无自杀倾向用户在社交行为、语言使用上的差别 , 进而归纳出有自杀倾向用户的可识别模式 。 他在一次演讲中拿出3句不同的用户言论举例说明 , 这些言论根据程度可以分成1级、2级和3级 , 其中1级是有自杀意念 , 2级是有意念的同时有自杀计划 , 3级是不仅有计划 , 还有实施 。
在心理学研究中 , 处于“激情自杀”“冲动自杀”类的人内心有很强的求生欲望 , 尚有倾诉欲和表达欲 , 属于可干预的范畴 , 也就是上述所说的“2级”状态 。 互联网公司的自杀干预处理的有很多是这部分人群 。 “下定决心要‘走’的人 , 不太可能会寻找我们这个平台 。 物流是需要时间的 , 非常有决心的话 , 他可能希望立刻得到东西‘走’掉 , 也可能会采取更激烈的方式 。 但如果是有意念、计划 , 但还没有去实施的那类 , (这种情况下)就有一些时间可以让我们去争取 。 ”武纲对《中国新闻周刊》表示 。
对于互联网公司的员工而言 , 处理此类生命安全的风险事件 , 仅仅是网络“救生员”们每天繁忙工作之中的一项 , 无法算到KPI考核之中 。 当面对一些尽力却无法挽回的案例 , 又会让工作人员感到无力 。 武纲并不觉得团队有多伟大 , 他们只是遇到那些有烦心事的人 , 并且恰好陪伴了他们 。


推荐阅读