作者:泉琳综合报道 来源: 发布时间:2018-6-26 16:58:13
| ||||
自杀,一直都是不容忽视的公共健康议题。在加拿大,这一问题尤为突出。
每年,加拿大约有4000人死于自杀,这就意味着每天有10个人会选择自杀来结束自己的生命。
根据加拿大公共卫生署的数据,对于每一个自杀案例,自杀尝试会进行25~30次。而且每当有1人自杀,就有7~10人会因此受到极大的影响。此外,在某些群体(比如土著居民、移民和难民、囚犯、同性恋等)中自杀率不仅高居不下,甚至还呈现出上升的趋势。
还不止于此。在加拿大从事某些职业的人也表现出自杀率高涨的趋势。刚刚发表在Canadian Psychology期刊上的一篇调查报告表明,从事包括急救员、911接线员、狱警、消防员、警察等在内职业的人,因工作性质的特殊性,其承受的压力高于普通人,因此也成为最易寻短见自杀的群体。
在这项规模颇大的网络调查中,有5000位上述职业的人士接受了调查。结果显示,总体而言,受访者中约有10%的人在过去的一年中承认有自杀意念。其中4%的人承认实际上做出了计划自杀,而有0.5%则承认曾经企图自杀。
自杀对他人造成的影响广泛存在。据多伦多交通局近日的报告显示,截至2017年年底,借助交通工具自杀的案例有所增加,仅12月份就有8次尝试自杀的案例。而交通局的工作人员因饱受自杀事件的影响,承受了巨大的工作压力,员工的休假率也相应上升。
自杀率逐年攀升,令加拿大政府焦头烂额,尽管采取了多种干预措施,然而效果并不如人意。如今,为了预防自杀,拯救更多生命,加拿大政府开始向人工智能抛出“橄榄枝”,探索帮助识别自杀行为的新途径。
尝试预测
2018年初,加拿大公共卫生署宣布了一个试点项目,该项目是加拿大政府与总部位于渥太华的人工智能公司Advanced Symbolics合作开发的一个预防自杀的计划。该公司曾经成功预测了英国退欧、特朗普当选总统以及2015年加拿大大选的结果。
这一试点项目将通过监测加拿大社交媒体账户发布的帖子(包括与自杀相关的内容,不过发布言论者的身份信息不会被收集),来研究和预测区域的自杀率。同时,该项目并不会在个人层面上进行接洽,相反,其研究结果将会被用于制定心理健康资源规划。
加拿大公共卫生署发言人表示,必须要先了解自杀行为的各种模式与特征,才能制定有效的自杀预防计划,真正预防自杀,所以公共卫生署正探索如何基于网上数据识别放出自杀言论的用户要采取的自杀模式。
根据合作协议,该项目包括3个月的试验期。在试验期内,研究人员将分析16万个社交网络账户,确认遍布加拿大的社区自杀率可能上升的趋势。人工智能技术预测出特定区域自杀率可能上升后,将会通知政府卫生部门采取措施。3个月的试验期结束后,加拿大政府将决定该项目是否有必要继续进行。目前项目正在实施中,预计最早今年6月结束。
项目初期,加拿大政府拨款近2.5万美元,如果进展顺利,政府决定继续实行该项目,预计支出将高达40万美元。如果该项目获得成功,人工智能则可以帮助加拿大卫生部门预测下一个自杀高峰将发生在哪个地区,以便提前数月采取干预措施。
主动干预
实际上,用人工智能技术预测自杀高峰的想法,并非Advanced Symbolics公司首创。
早在2011年,Facebook就开发出了一款人工自杀报告系统。用户可以上传其他人发布的有关自杀内容的截图以供审查。
通过审核,Facebook会向存在自杀倾向的用户发送电子邮件,只要点击邮件中的链接,即可与“全国自杀预防生命线”组织的危机干预代表在线聊天,这让那些不愿拨打电话的人可通过新方式获得帮助。
而在用户报告可能的自杀行为之后,他们也会收到Facebook的回复,并告知相关处理情况。而且,Facebook上所有这些报告都是匿名的,存在自杀倾向的用户并不知道是谁提交的报告。
2015年,该系统允许用户对与自杀相关的内容进行“标记”,这让Facebook员工加快对帖子的审查速度,并相应做出了恰当的回应。
2017年,Facebook再次尝试使用新型的“主动检测”人工智能技术。该技术可扫描所有帖子中的潜在的自杀倾向,并在必要时将心理健康资源发送给存在自杀风险的用户或他们的朋友,或联系当地的紧急热线,而无需等待用户报告,以便最大程度地让用户获得帮助。
“响应速度真的很重要,我们必须及时帮助那些需要帮助的用户。”负责该产品的Facebook副总裁Guy Rosen表示。目前,该系统在美国已成功测试,下一步计划推广到更多国家。
谨慎前行
尽管科研人员在利用人工智能技术预防自杀方面做出了诸多尝试与努力,不过就目前而言,对自杀风险的评估和管理仍然是非常主观的。为了改善这一现状,我们需要更加客观的人工智能策略。
自杀是一个极其复杂的问题,会受到心理、生理、环境、经济和文化等各种因素的影响。利用人工智能可以探索这些因素与自杀之间的联系,同时,人工智能还可以模拟多种因素对自杀的综合效应,并利用这些模型来预测个体风险。
在这方面,科研人员已经取得了一定的进展。美国范德堡大学的研究人员最近设计了一种能预测自杀风险的人工智能模型。
该模型利用电子健康记录,对一周内发生的自杀事件的预测准确率达到84%~92%,2年内的准确率则达到80%~86%。
随着利用人工智能技术进行自杀预防领域的不断发展,仍然存在一些潜在的障碍需要解决。
首先是隐私问题。与人工智能有关的风险,特别是对于收集、储存、转移和使用机密的健康信息,亟需进行保护性立法。
其次要提高预测的准确性。在更加准确判定自杀意图方面,人工智能技术需要得到进一步的发展。尤其需要克服的是因系统偏差或系统错误造成的“误判”。
再次是安全性。要确保人工智能系统能够对有自杀倾向的用户做出适当的回应,这一点至关重要。这样,就不会使他们的情绪状态恶化,或者意外地促成自杀行为。
此外,对于如何正确处理由人工智能技术标记的高风险案例,以及如果人工智能风险评估与临床意见相左的情况,需要作出应急指南。
缺乏对人工智能技术在预防自杀方面的认知与理解同样值得重视。毕竟,不是所有人都能紧跟科学技术发展的脚步。关于人工智能技术在预防自杀方面的知识缺口,需要进行更多的科普教育。
尽管存在不少障碍,但在预防自杀方面,人工智能将不遗余力地发挥作用。正如Facebook首席执行官马克·扎克伯格所说:“展望未来,我们保持人们安全的最大机会是建立人工智能,以更快,更准确地了解我们社会正在发生的事情。”■
《科学新闻》 (科学新闻2018年5月刊 AI)
|
||||
发E-mail给: | ||||
| 打印 | 评论 |
| ||||