编者按:自杀可能近在每个人身边,但我们或难以察觉,或无能为力。不过,得益于技术的发展和大数据的运用,自杀行为现在能通过有效干预被及时阻止——中科院心理所就正在实行着这样一项“拯救生命计划”。
自杀其实离我们每个人并不遥远。
世界范围内,自杀位列总人口死因的第13位,在15-30岁群体间是首位;自杀占中国总人口死因的第五位,也是年轻人死亡的首要原因。
因此,我们需要对自杀做一些干预,但目前干预自杀的主要困境,是自杀者的主动求助率特别低。
很多人都认为自杀是个人的事情,是自己的选择。但其实很多人选择自杀是因为他们不知道该向哪些人求助,该怎样求助——据统计,只有20%的人不想取得任何的帮助,直接了结自己的生命。
我们希望能够帮助这些人。在自杀人群中,年轻人占首位;在网络使用人群里,年轻人也是主力军。我们发现,自杀和网络使用的主要人群有非常大的重合,这也提醒我们:或许我们可以利用网络主动找到那些有自杀倾向的人,主动向他们提供帮助。
识别“风险用户”
每个人都希望在网络上把自己包装得非常好,比如拍照时使用美颜软件。所以,我们担心有自杀企图的人可能在网络上没有任何负面表达,就像乔任梁,他的微博大号里面没有任何负面的内容。如果这样的话,我们就无法通过网络找到那些有自杀倾向的人。
不过通过对比研究,我们发现自杀死亡的用户互动更少,更加关注自我,有更多负面表达,非常抑郁、焦虑;他们发送的内容和死亡、宗教相关的较多,和工作相关的比较少。这些自杀死亡的用户,在表达、行为上确实和一般用户有区别。这就为我们做进一步的分析提供了基礎。
不过,已经确定自杀死亡的用户和普通用户是两个极端用户,更多情况下我们面对的是一些自杀风险不同的用户。我们在网上找了900多个用户,通过分析,按照他们的自杀可能性分为高风险、低风险两组。通过两组数据对比分析我们也看到了区别。
高风险用户的社交活跃度更低,夜间更加活跃。这跟我们其他的研究也是相关的,我们发现夜间更加活跃的人抑郁程度会提高——希望大家12点以后尽量不要使用手机。高风险用户关注他人更少,使用更多表达死亡的词语,很少使用表达未来的词语。
自杀高风险人群在网上表达时,会不由自主地体现出跟其他人的差异,这种差异可以帮助我们找到他们。人工智能可以通过分析用户在网上说的话或行为自动识别出他的自杀可能性,但是误报率比较高。
分析之后我们发现一个问题,很多有自杀倾向的人并不是每句话都要说到自杀,大部分是正常的描述,如果用这个模型算就会带来延时,用户必须说到一定程度,模型才会识别出自杀可能,这样会耽误我们的工作。
解决办法就是针对单条微博,分析每句话内含的自杀可能性。我们可以把句子按照不同的层级分成1、2、3级。1就是有自杀意念;2是有自杀意念,同时有自杀计划;3是不仅有自杀计划,还有自杀的实施。
比如:昨晚尝试自杀未果,今早又照常醒来,希望今晚成功,我会有见到你的机会么?这句话有非常明显的自杀计划,且已经开始实施自杀,属于3级。第二句:哪一天我下定决心了,就喝好多酒,醉得不省人事,然后跳进河里。这是只有自杀计划,没有实施。第三句:从前我只是晚上才会想到死亡,最近就算在有阳光的时候都会觉得要活不下去了,我该怎么办?这个就是有自杀意念,但紧急程度没有前两种那么高。
我们通过各种机器学习的算法对这个模型进行调优,对一条微博自杀倾向的识别精准度可以达到80%。
不过,实际分析中,我们会发现另外一个问题。中文博大精深,有时候正话反说,反话正说。比如“整理遗物是我最快乐的时光”这句话中,整理是中性的,快乐时光是积极的,只有遗物这个词有点负面。这样的话,机器很难识别,只有人工能正确判断。
第二句话:“饭饭,很快就要看到你了。”看似没问题吧?但这句话是有一个情境的,“饭饭”是大家对在2012年自杀死亡的微博用户“走饭”的昵称。饭饭的最后一条微博下累计有一百多万条的回复,同时以每个月六千多条的速度在增加。
所以,在饭饭的最后一条微博下评论“很快就要看到你了”是有问题的。但在不同的语境下会有很大的理解偏差,计算机可能判定这句话没有任何问题。
有自杀意念的4222个人
发现有自杀意图的用户后怎么办呢?我们该怎么跟他们联系、怎么帮助他们?
英国的慈善机构Samaritans Radar人类协会开发的一个Facebook应用给了我们很大的启发,这个应用会扫描你关注的所有好友,如果你的好友有自杀意念或者负面表达的话,它就会通知你。
我们一开始觉得这个出发点是好的,可以了解朋友的情绪变化,在他有负面情绪时,马上帮助他、安慰他。但是这样做侵犯了隐私,所以这个应用上线十天之后就被永久关闭了。
出于保护隐私的考虑,我们选择了微博的私信功能,这样既保证了一对一的交流,同时保护用户的隐私。
但这又带来另一个问题。我们每天都会收到大量的信息,其中有很多垃圾短信、广告邮件和电话,用户很容易把我们的信息当成垃圾短信,忽略或直接删除。
保证我们发的信息不会被有自杀意念的用户当作垃圾信息删掉或者忽略掉,让他们愿意打开看,是我们需要解决的第一个问题。如果他们不看的话,后面所有的工作都没有意义。
我们在2016年暑假期间找了两批有自杀意念的用户做访谈,希望通过对这些人群的了解,知道有自杀倾向的人群最需要什么样的信息。访谈最后,我们会提供专业指导。虽然他们偶尔会相互鼓励,但有时候反而会产生负面影响,我们希望不要出现“相约自杀”的情况。
在研究后,我们确定了私信格式:第一,介绍我们自己;第二,说明我们是怎么找到他们的;第三,我们该怎么帮他们;第四,表达我们的同理心。
私信生成之后,我们在2016年11月17号、18号,分两次向4222人发出私信。这4222名用户是在2016年3月份到9月份这半年期间发表过带有自杀意念微博的用户。
他们更多地谈论未来
我们在发了私信之后非常紧张,因为新浪规定,收到三个以上投诉的账号会被关闭。但结果很好,有300多人直接回复我们了,且这300多个回复私信里面,只有个位数的人表现极度负面,绝大多数反馈都是正面的。
这些回复让我们觉得自己做的事情很有意义。通过这次调查,我们觉得有一些问题需要引起大家的关注,如自杀人群的低龄化,在我们调查的具有自杀倾向的人群中,高中、大专和本科学生群体的比例是最高的。初中生开始逐渐出现自杀倾向,并且比例有逐渐上升的趋势。
同时我们也发现,50%有自杀倾向的人从来没有寻求过任何帮助,但在那些会寻求帮助的人里面,家人不是第一选择,对家人的求助甚至低于对陌生网友的。
有了这个调查结果,我们就可以主动干预,通过技术自动下载微博内容,利用机器模型自动识别出有自杀意念的微博,识别出来之后需要人工进行最终的确认。
人工确认之后,我们才会给用户发私信。私信发出后,如果收到回复,我们的志愿者——经过认证的心理咨询师就能展开工作。
这样,我们就实现了对自杀的主动干预。从去年7月正式上线到2018年4月15号,我们已经对所有微博里30多万条评论进行识别,发现大概两万多条是有自杀意念的,这些评论来自一万多名用户。
我们也想知道干预是否起到帮助,于是通过后台技术,看一下这些用户在整个过程中的表达内容有没有变化。我们发现这些用户谈论死亡的次数降低了,谈论未来的次数增加了,对未来抱有更大的期望,这就说明我们的干预能够起到一定的效果。
尽管这种干预并不能解决现实中的问题,但我们希望通过这种办法,主动向有自杀倾向的人传递一些社会支持,同时也希望志愿者用专业知识帮助他们克服心理上的困难。
摘自中科院科学传播平台“SELF格致论道”