介绍: 你好,我是李攀,欢迎来到硅谷新发现。今天是我们的硅谷情报局时间,每期一个话题,为你搜罗最前沿的科技情报,解读最新最热的行业话题。
今天我们跟大家探讨一个沉重的话题,那就是自杀。
据世界卫生组织数据的显示,全世界每年约有100万人死于自杀,而中国每年约有超过25万的人死于自杀。
这个数字听起来很触目惊心对不对,让我们...
介绍: 你好,我是李攀,欢迎来到硅谷新发现。今天是我们的硅谷情报局时间,每期一个话题,为你搜罗最前沿的科技情报,解读最新最热的行业话题。
今天我们跟大家探讨一个沉重的话题,那就是自杀。
据世界卫生组织数据的显示,全世界每年约有100万人死于自杀,而中国每年约有超过25万的人死于自杀。
这个数字听起来很触目惊心对不对,让我们稍微感到宽慰的是,世界卫生组织认为,基于证据的有效干预其实可以在群体和个人层面防止自杀和企图自杀的行为。今天我们来探讨一下,硅谷的科技公司是如何针对自杀行为进行提前干预的。没错,用的就是人工智能。
人工智能怎么用于提早检测人的自杀行为?我们由浅到深给你分析分析。
我们先试想一下,电影场景中想要自杀的人,是不是难免提前都会流露出一些迹象?比如留有遗书,或者在网络上面发表一些言论等等。现实当中,科技公司就试图从文字入手,希望从你的社交网络中判断你的自杀倾向,比如Facebook和美国总统特朗普很爱用的Twitter都已经这样做了。
为什么社交网络可以分析呢?美国国防部曾经进行了一项针对1400名死亡军人的研究,研究发现,社交媒体确实能够预测哪些成员将面临风险。这半数自杀的军人当中,曾在公共社交媒体上发出了可靠的信号,表明该服役人员试图自杀。
如果这个研究成立的话,那这些科技公司是怎么进行分析的呢?以Facebook为例,它利用机器算法从用户的留言中分析一些字眼,如果这些文字表明用户可能存自残的风险,Facebook就会发送一些资源。比如提供心理帮助热线,心理困难时期的建议等等,这些资源会以新闻流的方式自然地推送到这个用户的页面。
除了系统进行检测分析之外,Facebook还推出了自我伤害的报告工具。任何人如果看到朋友的帖子可能有问题,是可以报告给Facebook,该内容可能涉及“自杀”行为。让Facebook向这个用户提供帮助。
除了文字之外,Facebook还着手尝试从视频当中进行自杀行为的分析,比如用户上传的某个视频中出现刀具等,进行自杀行为的模拟动作。Facebook的社区运营团队都会进行审核,并提供必要的资源帮助。
那如果你不在社交网络中透露任何自杀的痕迹呢?有一家创业公司叫作Cogito,C-o-g-i-t-o,就希望说通过你的声音来分析你的情绪。
具体怎么做呢?目前该公司仍处于测试阶段,正大批征求志愿者对APP说话。对着机器说任何的话都可以,比如你今天过得如何,今天发生了哪些事情等等。机器就会从语音里面听出细微的变化。比如你的口气、你的流畅性,甚至你的讲话速度,都转化成为可以被标记的数据,然后从中提取你的行为模式,给你一个今天的情绪得分。
也就是说,未来,随着搜集的数据足够多,这个APP就能够从你的声音,你的分贝大小,听出你今天的情绪如何,创建属于你自己的心理健康图像。一旦有危险情况,就能够及时报告给心理医生。
那如果用户既不说,也不写,又是否可以检测出他有自杀倾向呢?
其实我们都应该有过体会,当你气愤的时候,你的心跳可能会加快,血压会升高,当你沮丧的时候,可能你的身体是懒洋洋的没有力气。没错,这就是人身体伴随情绪会自然而然的一系列的生理反应。谷歌旗下有一家生物医疗公司,就希望从你的身体迹象入手,寻找生物标记物来察觉你的自杀情绪。
这家生物医疗公司叫Verily,V-e-r-i-l-y,正通过可穿戴设备捕捉人的心率、皮肤电导率和运动的数据。
目前主要针对的病人用户群体是一些遭受创伤后遗症的老兵群体等,除了可穿戴设备检测的数据之外,也会结合病人的医疗记录,通过双重追踪,检测用户未来可能存在的自我伤害的行为。因为遭受创伤后遗症的患者自杀的危险性远高于普通人群,比正常人群高出19个百分点。
是检测文字、声音,还是身体反应能够更快地预测一个人的自杀行为呢?这就要说到传统的检测了,也就是我们常见的临床心理上的诊断。
首先,传统的检测带来最大的弊端是患者可能会撒谎。我们都知道,如果是因为心理疾病导致的一些自杀念头的话,医生想要知道患者是否会伤害自己的唯一方法,那就是患者主动向治疗师报告。但实际上,许多人并不会这么做。
美国心理学会APA曾经刊登了一项关于住院自杀的相关性研究的文章。
研究发现,有78%的受访者在自己跟专业医师的最后一次交流中否认了有自杀意念。也就是说,一旦患者撒谎,即使是专业的精神卫生保健人员也难以预测患者自杀的可能性。人工智能的出现,恰好能够通过技术填补这个空白。分析的不仅仅是你的语言,而是包括你写下的文字、你的声音、乃至于你的行动,多方面综合评价你的情绪。
除了患者撒谎之外,人工治疗也存在着间断性。
美国德州今年发生的一起严重的教堂枪击案,犯人是一位退役军人。目前已被证实的是,犯人退伍前已存在精神状态不稳定的现象,但退伍后是否有持续进行心理治疗,不得而知。也就是说,假如心理疾病患者存在可能的自杀或者伤害他人的风险的话,一旦没有坚持跟心理医生进行治疗,医生就难以跟踪患者最近的心理状态。
那假如患者不撒谎,治疗也不间断呢,从本质来看,人工智能还有它独特的优势的,那就是速度。
这些科技公司选择用人工智能和深度学习介入预防自杀,关键的差别还在于速度。从搜集数据、分析数据到理解数据,人工智能显然在时间和数据量上,比人更有优势。它在准确识别自杀倾向的可能性方面,比人类大大增加。研究报告表明,机器学习能够以80%到90%的准确率预测是否有人会自杀。
此外,速度更快的优势在于,留足了足够长的干预机会。比如Facebook立刻会以新闻流的形式给出求救热线,又或者是APP报告给你的心理医生,可以在人有自杀倾向这个思考行为转向为真正行动之前,有立刻的干预机会,也留出了后续的紧急干预时间。
听到这我们某种程度上还是倍感欣慰的,因为这意味着人工智能不仅仅用于科技领域,也能够拯救生命了。而且,一旦被更大规模的测试证实,人工智能预测自杀的行为是可行的话,那么,人工智能介入更多心理疾病的治疗也就指日可待了。
我们都知道,抑郁症是导致自杀行为的第二大原因,而创伤后遗症也是导致自杀行为的重要原因,所以,这些严重的心理疾病患者,都是有望借助人工智能进行疾病的诊断,以及进行后续风险的排查的。
当然,不可否认的是,如果通过患者收集了丰富的数据之后,随之而来的就是数据的安全性、隐私性的挑战。到底怎么保证像线下心理咨询一样具备高度私密性?这是这些科技公司需要做到和保证做到的。否则,试想一下,患者的心理健康数据一旦泄漏,对他们的打击是否会更突然和更大呢?
你看好人工智对人自杀行为的判断和检测吗?欢迎留言跟我们讨论。
好了,这期节目就到这里了,我们下期再见。
该节目为付费内容,扫描左侧二维码,
使用最新的安卓或iPhone版本购买后即可畅享。
服务条款| 隐私政策| 儿童隐私政策| 版权投诉| 投资者关系| 广告合作 | 联系我们
廉正举报 不良信息举报邮箱: 51jubao@service.netease.com
互联网宗教信息服务许可证:浙(2022)0000120 增值电信业务经营许可证:浙B2-20150198 粤B2-20090191-18 浙ICP备15006616号-4 工业和信息化部备案管理系统网站
网易公司版权所有©1997-2025杭州乐读科技有限公司运营:浙网文[2024] 0900-042号 浙公网安备 33010802013307号 算法服务公示信息