首页 » 新闻动态 >

防止自杀性增长的AI算法

2020-02-19 15:03:31来源:

越来越多的研究人员和科技公司开始挖掘社交媒体,以寻求自杀念头的警告信号。他们的努力基于新出现的证据,即一个人的社交媒体帖子的语言模式以及他们与智能手机互动的潜意识方式可能暗示了精神疾病。

企业刚刚开始测试程序以自动检测此类信号。例如,Mindstrong(加利福尼亚州帕洛阿尔托的应用程序开发人员)正在开发和测试机器学习算法,以将人们使用的语言及其行为(例如,智能手机上的滚动速度)与抑郁症和其他精神障碍的症状相关联。明年,该公司将扩大研究范围,将重点放在与自杀念头相关的行为上,这最终可以帮助医疗保健提供者发现患者意图更快地伤害自己。11月下旬,Facebook宣布在世界许多地方推出了自己的自动自杀预防工具。科技巨头苹果和谷歌正在寻求类似的合资企业。

一些心理健康专业人士希望这种工具可以帮助减少自杀的人数。在美国,自杀率正在上升,而自杀是15至34岁之间第二大死亡原因。哥伦布俄亥俄州立大学的社会工作研究员斯科特·卡什(Scottye Cash)表示,与看治疗师或拨打危机热线电话相比,年轻人更有可能在社交媒体上寻求帮助。

但是Cash和其他专家担心隐私和公司有限的透明度,尤其是在缺乏证据表明数字干预有效的情况下。威斯康星大学麦迪逊分校的儿科医生梅根·莫雷诺(Megan Moreno)说,Facebook用户应该知道如何使用他们的信息以及其作用是什么。这些[工具]运作良好吗?他们在造成伤害,是否在拯救生命?'/ p>

机器干预

马萨诸塞州剑桥市哈佛大学的心理学家马修·诺克(Matthew Nock)表示,至少在短期内很难确定有自杀风险的人,因此很难预防自杀。根据Nock的说法,大多数尝试自杀的人在与心理健康专业人员交谈时都拒绝考虑自杀1。但是,社交媒体提供了实时了解其情绪的窗口。诺克说:“可以将实验室带给人们。”

危机文本首席数据科学家鲍勃·菲尔宾(Bob Filbin)表示,机器学习算法可通过识别人类可能错过的模式,帮助研究人员和咨询师辨别情绪化的社交媒体帖子是在开玩笑,表达正常焦虑还是真正的自杀威胁。线在纽约城。

通过分析危机文本行中的5400万条消息(使人们可以通过文本消息与辅导员交谈),菲尔宾和他的同事已经看到,正在考虑结束生命的人们很少使用“荣光自杀”这个词。诸如“布洛芬”或“里奇”之类的词是自杀意念的更好指示。菲尔宾声称,借助这些见解,危机文本热线顾问通常可以在三封邮件中确定是否应向紧急响应者发出即将来临的威胁警报。

Mindstrong总裁Thomas Insel说,例如,从人机中收集“主动”数据可能比让他们回答问卷更为有用。Mindstrong应用程序将由精神保健提供者安装在患者电话上,并在后台运行并收集数据。Insel说,在开发出典型的数字行为特征后,将能够发现令人担忧的变化。该公司已与医疗保健公司合作,以在应用程序发现问题时帮助用户获得医疗服务。

Insel说:“我不太相信任何需要有人打开应用程序的东西在危机时刻都是有用的。”

能行吗

更大的问题可能是“何时”进行干预。诺克说,误报率可能仍然很高,因此使用技术来检测自杀风险的医生或公司将不得不确定在发送帮助之前需要确定的水平。

莫雷诺说,也几乎没有证据表明诸如自杀热线之类的资源可以挽救生命,干预措施会使人们更容易受到伤害,从而适得其反。例如,她和其他人发现,人们有时会封锁那些举报可能包含自杀威胁的社交媒体帖子的朋友,从而使朋友将来不太可能举报他们2。

Facebook的新的自杀预防程序在很大程度上依赖于用户报告以及扫描帖子中是否有“国旗”的专有算法。然后与用户联系或提醒人工主持人。主持人决定是提供指向“危机文本行”之类的资源的链接,还是通知紧急响应者。

但是该公司不会提供有关算法或主持人如何工作的详细信息,但是发言人也不会指定是否会跟进用户以验证算法或评估干预效果。Facebook发言人在一份声明中说,这些工具是“与专家合作开发的”,用户不能选择退出该服务。

该公司的保守态度使一些研究人员感到担忧。现金说:“他们有责任根据证据做出所有决定。”但是,该公司提供的信息很少,外部专家可以用来判断其计划。

尽管如此,Insel对Facebook正在尝试感到高兴。他说:“渊源必须把它放在我们现在所做的事情中。”“这是行不通的。”?/ p>