心理地图:人工智能是怎样救助自杀者的
“走饭”是一个已经自杀身亡者的永远“停摆”的微博账号,然而这里成了心理危机者的“树洞”,她最后一条微博下已有106万条评论。中科院行为科学重点实验室,利用人工智能技术对微博留言内容进行文本分析,建立了互联网心理危机(自杀)监测预警中心
24岁的罗芙第一次知道网友“走饭”,是在2015年秋天她被确诊为抑郁症后,在知乎上无意中搜到的。她跑到新浪微博查找这个账户,看到最近的一条状态是,“我有抑郁症,所以就去死一死,没什么重要的原因,大家不必在意我的离开。拜拜啦。”发布时间定格在2012年3月18日10点,该账号主人于当天自杀离世。
当时罗芙并没在意,直到了解了更多的抑郁症信息后,“走饭”忽然又跳到她脑海里。她去翻微博,了解“走饭”的故事,欣赏她的有趣,佩服她自杀的勇气。这里成了她的“树洞”,不开心的时候就过来翻评论,然后发现——“原来我不是一个人”。她也开始时常留言,她在留言中的倾诉超出了评论字数的要求,删删减减,最后留下的是对生活的厌恶和对死亡的憧憬。甚至她自己的微博也像极了“走饭”的风格,很少转发,不配图,每天发些零碎的生活经历或厌世的痛苦。
2016年春天的某日,罗芙打开微博,突然收到一封来自账号“心理地图PsyMap”的私信:“我们在‘走饭’的微博中看到了你的评论,你现在还好吗?情绪状态怎么样?”这条私信建议罗芙与志愿者交流或者向当地心理危机干预中心联系,同时附上一个问卷调查的链接。
罗芙看着这一大段文字很惊讶,也有点小感动,她没想到还有这样的团队在为抑郁症患者操心。
“走饭”,心灵的树洞
罗芙收到的这条私信来自中科院行为科学重点实验室的互联网心理危机(自杀)监测预警中心,当时,这还是他们关于自杀干预的一个研究课题。团队所做的事情简单来讲,就是在“走饭”微博几十万条评论中用人工智能的方式检索出有自杀意念的微博,用“心理地图PsyMap”的账户自动给对方发送私信,精确投放帮助信息。2017年4月,他们为了让课题组所做的事情更规范化,于是申请成立了互联网心理危机监测预警中心。
提到人工智能的应用,你也许会想到AlphaGo、无人驾驶汽车、IBM Watson机器人医生、人脸识别技术,无疑这些“黑科技”都是给人们提供便捷生活的炫酷工具。你也许想不到,心理学家也在探索利用人工智能触及人类的精神世界。中科院行为科学重点实验室在朱廷劭研究员的领导下,利用人工智能技术,寻找和发现微博上隐藏的自杀高危网友,然后对他们进行有针对性的干预和救助。
实际上,社会对自杀高危人群从未停止过危机干预和事后干预,比如监测、限制农药等自杀工具、媒体指南、提高公众意识等。假如你在百度上搜索“自杀”,还会在首页顶端看到“这个世界虽然不完美,但我们仍然可以疗愈自己”的温馨提示,并且立即会跳出来各地的24小时免费心理危机咨询热线。
但是,在飞速发展、压力巨大的社会生活中,自杀却一直是一个难以杜绝的问题。世界卫生组织在2014年出版的《自杀预防——全球要务》中统计,世界上每40秒钟就有一个人自杀死亡,自杀是全球15~29岁年轻人死亡的第二大原因,中国的自杀人数超过世界总自杀人数的1/5。不时传来的名人自杀的消息,更是令人唏嘘。就在1月25日,年仅35岁的80后创业明星茅侃侃在家中自杀的消息传来,自杀问题再次引起关注。
人们对自杀有个误区,以为谈论自杀的人不意味着会去自杀,然而,实际上他们可能正在经历焦虑、抑郁和绝望,或许觉得没有其他选择了,因而通过谈论来寻求帮助或支持。朱廷劭团队所做的事情,就是利用大数据检测,希望发现任何自杀的苗头,能把干预的过程前移。
与传统心理学研究线下寻找案例的方法相比,社交媒体用户足够多,庞大的用户群体在平台上表达自我,用户数据公开可见、易收集,而且网络有匿名的特性,反而令其优势更大,因而国内外有不少学者利用文本分析法进行用户心理健康评估。
但微博有一个局限,其用户8成以上都是30岁以下的青年群体。朱廷劭认为,各个年龄段的人群都有自杀者,但是更方便处理的是微博用户。他们没办法救助所有自杀者,但是这些在微博上有表达的年轻群体,是最能够得到帮助的人群。
为什么选中“走饭”呢?106万,这个数字或许能说明问题,这是现在“走饭”最后一条微博下的评论数,半年前,这个数字是70万。迄今,每隔几分钟都会有新的留言,还有人习惯性地每天到这里“打卡签到”,有人慕名找到这里倾诉痛苦。研究发现,在“走饭”微博下留言的用户平均年龄为21岁,教育程度主要集中在高中、大专和大学。
“走饭”,这个永远“停摆”的微博下,汇集了众多患抑郁症或者失意的人。正如网友刘娅在接受《中国新闻周刊》采访时提到的,“无论白天我怎么装开朗、装逗逼,一个人的时候总会胡思乱想。‘走饭’微博是我的树洞,无论说多少矫情的话都不会有人嘲笑我。”
朱廷劭团队志愿者刘明明介绍说,和其他微博不同,“走饭”微博的评论不仅围绕博主,大部分网友也在讲个人的故事。这意味着有足够多合适的文本。
在研究初期,该团队曾尝试使用全微博检索,但效果并不好,而在“走饭”的微博评论中找到有自杀意念者的成功率更高。2017年7月以来,该团队已经累计向14435位有自杀意念的用户推送了心理危机干预资源,准确率高达92.2%。
机器学习,寻找自杀者
为了让私信送达数万个用户,研究人员也下了一番功夫。首先得在数十、上百万条留言中找到这些有自杀意念的人。
2014年,朱廷劭团队对比新浪微博用户中自杀死亡和无自杀意念者特征差异时发现,自杀死亡用户的微博互动更少、更加关注自我、更频繁地使用表达排除意义的词语、从情感层面上有更多负面表达、使用更多与死亡和宗教相关而更少与工作相关的表达。
这项研究后来为该团队做自杀识别和干预提供了理论支持。此后,朱廷劭团队也在思考,该结果能否与网络数据的即时性结合起来,找出潜在的有自杀风险的个体,对其进行心理危机干预。他们曾尝试人工筛选判断,但是工作量太大,于是想到利用时下火热的人工智能机器学习,建预测模型。
这个方式和AlphaGo学习围棋的技术相似,前期他们人工选出上千条有自杀意念的微博,同时利用整理出的和自杀相关的词典,一起输入计算机里训练建模。从人工检验结果看,使用计算机训练建模的效果更好,识别有自杀意念者的击中率为0.58,而用关键词筛选的击中率为0.47。随着模型的优化,2016年下半年这个模型击中率超过0.8,于是,研究团队开始正式将其投入使用。
在中科院心理研究所一间普通的办公室里,电脑上显示着自杀识别的模型,它每隔24小时会自动抓取一次“走饭”微博下的所有评论。输出的界面看上去简洁朴素,像一个文本文件,分为4列,罗列用户名称代码、时间代码和具体的评论,最前面一列是数字0和1。据刘明明介绍,这是模型识别后的结果,0是无自杀意念,1是有自杀意念。一旦数字是1,模型就会自动向该用户发送事先编好的私信。
为设计私信内容,朱廷劭团队联合香港大学香港赛马会防止自杀研究中心、北京回龙观医院北京心理危机研究与干预中心人员组织访谈、设计问卷,了解有自杀意念的人希望看到什么内容。
他们曾向4222名有过自杀意念表述的群体发送参与调查邀请,最终有725名回复了,其中78%的人表示不反对收到私信,并且希望面对心理危机时能够获得心理测试结果反馈以及专业的措施;发信人越可靠,他们越会点开私信中的链接;还有一半以上的人希望在私信中看到具体应对心理危机的措施。
因此,在私信中他们选择先介绍背景,再推送问卷,并提供他们可以选择的干预方式,包括与他们的志愿者交流,或者拨打当地心理危机干预中心热线。
据朱廷劭介绍,他们发出去的私信中,正面回复的比例占20%左右,虽然不高,但也超出了他们的预期。而在微博这一端每天18点到22点都有志愿者值班在线,他们都是国家二级或者三级心理咨询师。
不同于线下的心理疏导使用的认知行为疗法,线上的自杀干预一般使用问题解决疗法。简言之,线上自杀干预时间更紧迫,对方很可能马上就要实施自杀,所以志愿者没有时间听完对方讲述某个情景再改变他们的认知,而是需要及时解决问题,让对方暂缓自杀行为,或者接受别人的帮助,尽快做出改变。
去年9月的一天,“心理地图PsyMap”志愿者收到一位网友的回复,跟对方进行沟通时,无意中发现她发微博说会在当晚0点服用安眠药自杀。此时距离0点只剩几个小时,志愿者立即跟对方确认,并询问她的具体位置。确认信息之后,一边沟通说服,一边报警,最终救下了这位姑娘。这从侧面说明,在微博上宣布要自杀的人,实际上可能是在寻求帮助或支持。
“我们要做自杀干预这个事,不是一蹴而就的。不是说一个人今天正在自杀,我们干预了,他以后就不自杀了,这不可能。我们只能说,这个人现在要自杀,我们推迟他自杀的时间,然后再让他的境况改变,一点点好起来。我们做得很有限,主要是动员对方身边的积极关系。”刘明明向《中国新闻周刊》介绍。这听起来有些无奈,但是他们更主要的是起到桥梁作用。
未来的路
利用人工智能在社交媒体上抓取有自杀意念者的,不仅仅是朱廷劭团队。2017年3月起,美国脸书(Facebook)也宣布开始利用人工智能对美国用户在该网站上的自杀帖子进行快速检测测试。2017年11月,该公司已经可以通过计算机筛选帖子或视频,标记出一个人可能会在什么时候自杀。
2014年,法国蒙彼利埃大学计算机技术领域学者阿玛亚斯·阿伯特(Amayas Abboute)等人发表论文《挖掘推特,防止自杀》,介绍他们提出的自动语言处理和学习方法,自动获取社交平台推特(Twitter)上有自杀风险的帖子,他们的研究也得到精神科医生的初步肯定。
使用人工智能追踪有自杀意念的语言不是一个新策略。2013年,涂尔干项目的研究人员通过与当地退伍军人事务部门合作开展了一个项目,跟踪美国退伍军人的脸书、领英(LinkedIn)和推特的帖子,试图预测哪些语言最有可能反应用户的自杀意念。
除了各类研究,这类技术也被用于商业。例如,国外网站Bark为父母提供保护子女安全上网的服务,该网站利用人工智能技术监测,以文本或者邮件的方式向父母发出警告,告知他们的孩子在社交媒体的帖子可能有潜在的心理健康问题。
但无论国内还是国外,在网上进行自杀预防还有很长的路要走。脸书除了利用人工智能识别,还在动员了用户的社交关系,如果发现你的好友有自杀倾向,那么你有手动标记出对方可能有自杀风险的选项。
但是在互联网上如何以不侵犯用户隐私的方式进行干预,这个问题在国外也引发了讨论。美国康奈尔自杀行为研究计划主任贾尼斯·惠特洛克提到,脸书和其他网站的机器学习系统可能会让一些用户受到惊吓,并阻止他们在未来寻求帮助。
尽管出于好意,朱廷劭团队在推送私信时也难免被对方误会。刘娅在第一次收到私信时,以为对方是个骗子。直到她接收了3条私信,才慢慢放心一些。
虽然刘明明这些志愿者救助了那个要自杀的姑娘,但在之后的聊天中,对方也透露出担忧和恐惧,认为自己的一言一行被监控了。志愿者们跟她做了个约定:除非万不得已,他们不会报警,如果她要自杀,请告诉“心理地图”的志愿者。
目前,国内除了朱廷劭团队外,还没有其他机构关注到社交媒体中的自杀主动干预,而中科院心理研究所互联网心理危机监测预警中心的自杀干预范围还局限在“走饭”的微博评论里,项目正式上线不到一年。在未来,他们也在考虑将这种人工智能救治覆盖到更多的微博,甚至论坛和贴吧。这背后不仅需要技术的提升,也需要招募更多的志愿者,以及更规范化的指导和救助培训。
(为保护受访者隐私,文中罗芙、刘娅为化名)
(《中国新闻周刊》2018年第6期)