他们在Soul上守护每一个本该被尊重的生命
科技
科技 > 传媒 > 正文

他们在Soul上守护每一个本该被尊重的生命

鲜有人知,在社交软件Soul的团队里,有一类特殊的职能岗位:预防用户自杀小组。

Soul与生俱来“解决孤独感”的社交概念使它承载了普通人生活中细腻的情绪和心情,而当那些消极情绪把人的理智逼退、压得人喘不过气时,在社交平台上发出的信号也许就是他们能抓住的最后一根稻草。

莹莹是Soul团队中预防用户自杀小组的一员,她最重要的任务就是每当有用户被发现在自己的动态中透露出自杀倾向时,尽自己最大的努力去挽救轻生的他们;更多时候,她所担任的角色更加默默无闻:关爱用户,采取更多的方式预防用户自杀。作为无数平凡90后中的一位,莹莹觉得自己在做的事情只不过遵循了最简单的价值观,但有时却又变得那么沉重。

“今天你报警了吗”

2020年7月25日19点41分,莹莹电脑屏幕突然弹出了一个反馈信息,一位用户说自己得了严重的抑郁症,“决定在今晚自杀”。瞟了一眼地址是深圳福田区时,莹莹立马紧张起来。这是她接到的自杀反馈最多的地区。“这一片密密麻麻的楼里住了很多年轻人,快节奏和高压力常常把人压得喘不过气。”

因为用户隐私保护政策,莹莹无法直接联系到男孩,只能根据ID迅速地查看了男孩在Soul里的所有动态,搜寻有效信息。这是一个原本很开朗的男孩子,24岁,跟莹莹一样大。他先前还会分享有趣的生活日常,也像同龄人一样喜欢发自拍、憧憬着能遇见另一半,但是不知道经历了什么,从7月开始就突然心情低落。21点左右,男孩子在Soul广场发布了一条动态:“去买饭了,吃完就上路。”

看到这个信息莹莹心里咯噔一下,立马报了警。

但警方反馈说男孩的手机打不通,所发布的瞬间提供的定位展示是在一个公园,能展开救助的有效信息很有限。莹莹只能从他18年的瞬间开始翻,把所有能找到的信息、图片和过往经历全都给到警方,配合警方缩小了排查范围。23点,警方来电话说结合Soul提供的信息已经确认了用户所在地点,准备立刻展开救援。

“希望他没事,他跟我们一样大,还那么年轻啊!”后来,在警方在反馈电话中得知,男孩子住在22楼,警察敲门没人回应,情急之下从23楼往下破窗而入进到家里,发现男孩子已经烧炭了,还好报警及时。

▲Soul用户留言墙

每天下班前,莹莹都会仔细检查自己一天的工作记录。收到用户的“自我伤害”反馈报多少次,处理不实信息几条,拨打了几个报警电话,收到了多少警方的反馈……在莹莹接到的所有的疑似自杀的用户里面,一线城市的情况要严重得多,尤其是20-30岁这个年龄段,原生家庭问题、辍学打工受挫、抑郁症、工作压力和感情受阻都有可能让这些年轻人选择轻生。

“可能大家都很不容易吧!”莹莹看着各种标红的重点跟进的反馈案例,割腕、煤气、吞药……在这份工作里不用接触到照片,每一个字眼都能让人内心倍感压抑。

“黑暗并非只于夜晚降临”

这样一份工作,意味着莹莹以及她的团队需要承受很多压力。为了不错过任何一个用户的自杀反馈信息,莹莹和她的团队成员的手机从来不敢调为静音,一接到电话就需要立马去作出判断并处理情况。她们办公场所可能是任何地方,包括与许久不见的朋友周末聚餐的海底捞,甚至在妈妈的手术病床旁和凌晨的医院走廊。

很多时候凌晨3、4点接到组内同事打来的电话,也想过大概率是骗子发布的动态,可以先拖一拖,但是就怕是万一。“拯救生命本来就是人承受不了的重量,我没法说我拯救了他,最多就是帮助了,甚至连帮助都算不上只是提供信息。”

莹莹一直觉得,自己在做的事是Soul价值观中最普通的事。Soul善意、平等的价值观,在最初面试的时候已经让莹莹深有感悟。这是莹莹的第一份正式工作,但进入Soul的过程却有些许乌龙。本来是面试审核岗位的她却记错面试时间,阴差阳错被公司高管面试了,一上来就被问了一串很难回答的问题。

“你相信世界上有真正的正确无误吗”“离婚的过错主要在女方”“破窗理论是完全正确的吗”……这些面试问题与专业技能毫无关联,但却作为了眼前这位高管最为看重的素质。

▲Soul员工团建合照

对Soul来说,总要做一些没有人做的工作。Soul专门成立了团队负责用户反馈,包括未成年人保护、女性保护小组,以及莹莹所在自我伤害处理小组。针对用户自我伤害这种情况,Soul也做出系统的处理规范。在Soul App内,许多Souler常常自发鼓励处于低迷状态的朋友,在“抑郁症”这个话题内,无数留言都在表达着对这个群体的关爱;当用户在Soul站内搜索“自杀”这个话题,系统将自动弹出“我会一直爱你”的问候语以及心理咨询电话;当站内用户发布疑似自我伤害的动态或者言论时,从“举报”入口提供相关信息,在系统判定真实性及风险程度后,莹莹团队将迅速采取救助措施。

▲Soul温暖弹窗

“这个世界有光明就有黑暗,光明大家一起努力,黑暗不能谁也不管。总要有人去把光往黑暗的地方照一照。”

“星球怎么会变成针刺呢”

在负责预防用户自杀工作的莹莹看来,自己所做的工作就是在用户身边安置一个透明的玻璃罩,在不干扰用户社交的情况下为用户挡住不良信息。“大家看不到我的工作反而更让我开心,至少证明没有人被骗到。”

但是,总有一些拎不清的人,在生死面前开玩笑。无论在任何平台,自杀话题都容易牵动人的神经而被大量关注。一些别有用心的人便会利用自杀、抑郁症等话题博取关注,甚至利用别人的同情心去欺骗善良的Souler们。很多用举报反馈来帮助别人的Souler自己本身就是抑郁症患者,这些骗子消极的话术和真相揭开时的荒唐,对他们来说伤害真的非常大。“那些真正抑郁绝望的人还在努力支撑,骗子们却拿他们的伤痕当作筹码!那些被骗子抄走的别人的真实经历,是他们抄走的人生啊!”莹莹几乎咬牙切齿。

为了整治类似的违规内容、提升风险判断与用户救助的效率,Soul搭建了一套具有针对性的预防自杀内容审核机制:当接到用户反馈时,迅速明确反馈报用户UID及反馈记录,确认自我伤害言论发表的场景,然后移交风控判断是否为不良信息;若判定用户为真实自杀信息,则迅速报警并提供尽可能提供用户手机号,等便于展开救助的有效信息。

从抑郁症到多次自残到自杀,是一个很难控制的过程。一个抑郁症患者与另一个相遇,很可能会一起抑郁下去,有死志的两个人很大概率会相互影响。

▲Soul用户留言墙

针对恶意以自杀博取关注的用户,Soul会直接进行封禁、冻结账号等处理;或者要求对方在瞬间发布真实情况,减少信息对用户的不良影响。“每个地方都会有不理智的人,我们所做的工作更像是清道夫。当环境中有垃圾大家很容易感知,而温暖干净氛围往往不容易察觉到,实际上是在这些不好的东西接触到用户之前,已经被我们清理了。”

2019年,Soul还获得艾媒咨询评比的“Z世代经济—最受95后用户喜爱产品/品牌”奖。上亿年轻人聚集在这里分享喜怒哀乐,彼此陪伴与温暖。相对很多社交平台来说,Soul的舆论环境要好很多,在网络上各种对立、极端、争吵的戾气中,平和、善良是Soul的一大特质。这个世界的价值观是多元的,人的选择也是多元的,在Soul这样一个多元的场域,一定是具备强大的善意和包容性的。

正如一位Soul用户曾在回访电话里说道:“每个人都变成一个星球的话,星球怎么会变成针刺呢?”

免责声明:市场有风险,选择需谨慎!此文仅供参考,不作买卖依据。

亲爱的凤凰网用户:

您当前使用的浏览器版本过低,导致网站不能正常访问,建议升级浏览器

第三方浏览器推荐:

谷歌(Chrome)浏览器 下载

360安全浏览器 下载