毛亚楠
近日,中国社会科学院心理研究所朱廷劭接受《方圆》记者采访。
“在线自杀主动预防”系统是中国科学院心理研究所朱廷劭团队在2017年4月发起的一个课题项目,主要内容是利用人工智能的方法筛选出微博树洞里的留言,找到那些有自杀意念却还没实施的留言者们,并及时为他们提供相应的帮助。
这个项目的实施改变了人们对于自杀者的固有印象,比如很多人认为在网络上说自杀的人通常情况下是为了博取他人关注,而不会真的采取措施,但通过朱廷劭团队的研究,事实上在网络上表达自杀意念的人有一半以上真的尝试了自杀;又比如人们往往会认为自杀行为多属冲动型,但朱廷劭他们通过分析已确认自杀的微博用户的公开数据,得出自杀死亡用户在自杀前往往在社交网络上有表达清晰的逻辑结构这样一个结论。
和所有人工智能产品一样,这项课题也受到隐私保护人士的质疑。虽然网络公开内容数据目前允许专业研究机构用于研究整理,但还是有人表示此举背离留言者当初寻找网络树洞不想被人发现的初衷。更有决意自杀者被救后认为网络树洞不再是安宁之地。
朱廷劭告诉我,对于这个问题,团队所在的微博账号的确经常被封号,因为他们发过去的提供求助的私信如果被对方投诉三次以上,账号就会被新浪封掉。“封号后就只能申诉,申诉后再解开”,如此循环往复。但对于隐私界定问题上,朱廷劭认为,如果牺牲某部分隐私,会带来更大的便利和及时的解救,那就不能彻底否定这项技术的应用。
我理解朱廷劭的意思,没做这个选题之前,我也质疑自杀一事需要干预这件事,从前的认为是,一个人有权自己决定自己的死亡,干预是无用的。但了解后发现,有大部分表达过自杀意念的失意者,有时仅仅是在那一瞬间找不到生之理由,如果有一股力量、一种支持稍稍协助过哪怕那么一下,他们也许会改变求死的心意,寻找其他的道路。朱廷劭就曾坦诚过,他们的项目帮不了所有人,但哪怕是帮了一个两个人,也算是成就感了。
再说回隐私让渡的问题,人工智能时代,我们的确身陷如何保护自身隐私的疑问中。我们一方面享受着让渡部分隐私的便利,另一方面又对此种让渡恐慌。究其原因是不知自己让渡出去的部分隐私会被谁利用以及如何去利用。
我从朱廷劭那里得知了学术界目前关于大数据使用的一些共识,比如“应当遵守人类被试研究的一般伦理原则,在使用需要用户授权的数据前,必须征得用户的知情同意,并严格按照经由伦理委员会审核批准的程序进行,尤其不能将研究数据用于伦理委员会批准范围之外的目的(如转卖给第三方)”;又比如“在使用那些开放的无需用户授权的网络数据进行科研时也应同时满足用户对数据公开是知情的、数据收集后匿名处理、在公開发表中不得出现能够识别用户个人身份的信息等等”。
朱廷劭告诉我,应该鼓励这方面如何平衡的公开探讨,当我们谈论人工智能如何使用的时候,实际上谈论的还是技术背后的那个人。合理合规地使用大数据和人工智能技术,是造福社会和保护隐私的重要底线,但另一方面,为了更大的便利或者意义,适当的让渡或许也是可以的。