AI心理健康市场火爆增长,下一波浪潮能否带来实效?

2025年4月的一个午夜,阿曼达·卡斯韦尔发现自己正处于恐慌发作的边缘。在无人可求助、感到墙壁逼近的情况下,她打开了ChatGPT。正如她在《Tom's Guide》上所写的,这个AI聊天机器人冷静地回应了她,引导她进行一系列呼吸技巧和心理稳定练习。至少在那个时刻,这起到了作用。

卡斯韦尔并不孤单。《商业内幕》早前报道称,越来越多的美国人正在求助于ChatGPT等AI聊天机器人寻求情感支持,不是作为新奇事物,而是作为生命线。一项针对Reddit用户的最新调查发现,许多人报告使用ChatGPT和类似工具来应对情感压力。

这些数据描绘了一幅充满希望的画面:AI在传统心理健康护理无法触及的地方介入。但它们也引发了一个更深层的问题——这些工具是否真的有帮助。

心理健康AI的十亿美元投注

AI驱动的心理健康工具无处不在——有些嵌入员工援助项目中,其他则打包成独立应用或生产力伴侣。根据Rock Health的数据,仅在2024年上半年,投资者就向全球AI心理健康初创公司投入了近7亿美元,这是所有数字医疗细分领域中最多的。

需求是真实存在的。根据世界卫生组织的数据,抑郁症和焦虑症等心理健康状况每年因生产力损失给全球经济造成超过1万亿美元的损失。根据CDC的数据,2022年超过五分之一的45岁以下美国成年人报告出现症状。然而,许多人负担不起治疗费用或被困在等待名单上数周——留下了AI工具越来越希望填补的护理空白。

像Blissbot.ai这样的公司正试图做到这一点。该公司由莎拉·王创立——她是前Meta和TikTok技术负责人,曾为核心产品和全球心理健康项目构建AI系统——BlissBot融合了神经科学、情感韧性训练和AI,提供她所称的"可扩展的治疗系统"。

"心理健康是我们这一代人最大的未满足需求,"王解释道。"AI为我们提供了第一个真正的机会,让治疗变得可扩展、个性化并且人人可及。"

她说,Blissbot从零开始设计为AI原生平台,与现有工具将心理健康模型改装到通用助手中形成对比。在内部,公司正在探索使用量子启发算法来优化心理健康诊断,尽管这些早期声明尚未经过同行评议。它还采用隐私设计原则,让用户控制他们的敏感数据。

"我们已经用AI扩展了商业和内容,"王补充道。"现在是时候扩展治疗了。"

Blissbot在这一转变中并不孤单。其他公司,如Wysa、Woebot Health和Innerworld,也在将基于证据的心理学框架整合到他们的平台中。虽然每家公司采取不同的方法,但它们都有一个共同目标:提供有意义的心理健康结果。

为什么结果仍然滞后

尽管创新蓬勃发展,心理健康专家警告说,今天部署的许多AI仍然没有声称的那么有效。

"许多AI心理健康工具创造了支持的幻觉,"拥有心理学背景的信息安全专家芬索·理查德说。"但如果它们不具适应性、临床基础,也不提供情境感知支持,就有可能让用户情况更糟——特别是在真正脆弱的时刻。"

即使AI平台显示出前景,理查德也警告说结果仍然难以捉摸,指出AI感知的权威性可能误导脆弱用户信任有缺陷的建议,特别是当平台对其限制不透明或不受执业专业人士监督时。

王呼应了这些担忧,引用了《医学互联网研究杂志》最近的一项研究,该研究指出了AI驱动的心理健康工具在范围和安全功能方面的局限性。

监管环境也在跟进。2025年初,欧盟的AI法案将与心理健康相关的AI归类为"高风险",要求严格的透明度和安全措施。虽然美国尚未实施同等的防护措施,但法律专家警告说,如果系统在没有临床验证的情况下提供治疗指导,责任问题是不可避免的。

对于将AI心理健康福利作为多元化、公平、包容(DEI)和留存策略一部分推出的公司来说,风险很高。如果工具不能推动结果,它们就有可能成为形象导向的解决方案,无法支持真正的福祉。

然而,并非一切都是悲观的。如果明智地使用,AI工具可以通过处理结构化的日常支持来帮助解放临床医生,让他们专注于更深入、更复杂的护理——这是一种该领域许多人认为既可扩展又安全的混合模式。

购买前应该问什么

对于商业领袖来说,AI驱动的心理健康工具的吸引力是显而易见的:更低的成本、即时可用性和时尚、数据友好的界面。但在没有明确框架评估其影响的情况下采用这些工具可能会适得其反。

那么公司应该问什么呢?

王解释说,在部署这些工具之前,公司应该质疑它们背后的证据。"它们是建立在认知行为疗法(CBT)或接受与承诺疗法(ACT)等经过验证的框架上,还是仅仅用AI面纱重新包装健康趋势?"她质疑道。

"平台是基于实际结果——如症状减少或长期行为改变——还是仅仅基于登录次数来衡量成功?也许最关键的是,这些系统如何保护隐私、升级危机情景并适应不同文化、语言和神经多样性群体?"

理查德同意,补充说"在提供支持工具和创造虚假保证之间有一条细线。如果系统不知道何时升级——或假设文化普遍性——它不仅仅是无效的。它是危险的。"

王还强调参与度不应该是成功的衡量标准。"目标不是持续使用,"她说。"而是建立足够强的韧性,让人们最终能够独立站立。"她补充说,AI在心理健康中的真正经济学不是来自参与统计数据。相反,她说,它们稍后出现——在我们为浅层互动、错过信号和模仿护理但从未提供护理的工具付出的代价中。

底线

回到卡斯韦尔在恐慌发作期间咨询ChatGPT的那个安静时刻,AI没有动摇。它像人类治疗师一样引导她度过了那个时刻。然而,它也没有诊断、治疗或跟进。它帮助某人度过了那个夜晚——这很重要。但随着这些工具成为护理基础设施的一部分,标准必须更高。

正如卡斯韦尔指出的,"虽然治疗师可以使用AI为患者寻求诊断或治疗建议,但由于HIPAA要求,提供者必须注意不要泄露受保护的健康信息。"

这特别是因为扩展同理心不仅仅是UX挑战。这是对AI是否能真正理解——而不仅仅是模仿——人类情感复杂性的测试。对于投资于福祉未来的公司来说,问题不仅仅是AI是否能缓解危机时刻,而是它是否能负责任地、反复地、大规模地做到这一点。

"这就是下一波心理健康创新将被评判的地方,"王说。"不是在同理心的模拟上,而是在真实和可衡量的人类结果上。"


(科技责编:拓荒牛 )