ChatGPT 正在提供治疗,下一个可能是心理健康革命
在 ChatGPT 中输入“我有焦虑症”,OpenAI 的开创性人工智能聊天机器人几乎立即开始工作。
屏幕上潦草地写着,“得知您感到焦虑,我很难过。这可能是一次具有挑战性的经历,但你可以尝试一些方法来帮助控制你的症状。”
然后是一系列建议,包括努力放松,专注于睡眠,减少咖啡因和酒精,挑战消极想法,并寻求朋友和家人的支持。
虽然不是最原始的建议,它类似于在治疗师办公室中听到的内容或在 WebMD 上在线阅读的关于焦虑的文章,特别是因为 ChatGPT 是从广泛的互联网上搜集它的答案。
ChatGPT 自己会提出警告,它不能替代心理学家或心理咨询师。 但这并没有阻止一些人使用该平台作为他们的私人治疗师。 一些用户在 Reddit 等在线论坛上的帖子中描述了他们向 ChatGPT 寻求有关个人问题和困难生活事件(如分手)的建议的经历。
一些人指出,他们对聊天机器人的体验与传统疗法一样好或更好。
ChatGPT 模仿人类对话的惊人能力引发了对生成人工智能或治疗心理健康状况的潜力的质疑,特别是在世界的某些地区,例如亚洲,那里的心理健康服务捉襟见肘,并且被污名的阴影笼罩。
一些人工智能爱好者认为聊天机器人在治疗焦虑和抑郁等较轻微、常见的疾病方面具有最大潜力,其标准治疗包括治疗师倾听和诊断患者以及提供解决他或她的问题的实际方法。
理论上,与传统的心理健康服务相比,人工智能疗法可以提供更快、更便宜的支持。传统心理健康服面临着人员短缺、等待名单长和成本高的困扰,以及让患者避免评判和羞耻感,特别是在世界上一些精神疾病仍然是禁忌的地方。
乔治敦大学精神病学专业的医学生阿什利·安德鲁告诉半岛电视台,“心理治疗非常昂贵,即使在像我来自的加拿大和其他国家这样的地方,它也非常昂贵,等待名单真的很长。”
“人们无法获得可以增强药物治疗的药物,也无法获得基于证据的心理健康问题治疗方法。因此,我认为我们需要增加访问权限,并且我确实认为具有认证健康专家的生成人工智能会提高效率。”
人工智能增强甚至引领心理健康治疗的前景引发了无数伦理和实际问题。 这些问题的范围从如何保护个人信息和医疗记录,到关于计算机程序是否真的能够同情患者或识别警告信号(例如自残风险)的问题。
虽然 ChatGPT 背后的技术仍处于起步阶段,但该平台及其聊天机器人竞争对手在某些领域难以与人类匹敌,例如识别重复的问题,并且可以根据某些提示产生不可预测的、不准确的或令人不安的答案。
迄今为止,人工智能在专门的心理健康应用程序中的使用仅限于 Wysa、Heyy 和 Woebot 等健康应用程序中的“基于规则”的系统。
虽然这些应用程序模仿了治疗过程的各个方面,但它们使用的是一组由人类选择的问答组合,这与 ChatGPT 和其他基于生成式人工智能的平台不同,后者产生的原始反应几乎与人类语言无法区分。
印度 Wysa 的创始人拉玛肯特·文帕蒂(Ramakant Vempati)表示,生成式人工智能仍然被认为是太多的“黑匣子”,指的是如此复杂以至于其决策过程不被人类完全理解,因此无法在心理健康环境中使用。
文帕蒂告诉半岛电视台,“显然有很多关于人工智能聊天如何随着 ChatGPT 的推出而蓬勃发展的文献,等等,但我认为重要的是要强调 Wysa 是非常特定于领域的,并且在构建时非常小心地考虑了临床安全护栏。”
“而且我们不使用生成文本,我们不使用生成模型。 这是一个构建的对话,因此脚本是预先编写的,并通过关键安全数据集进行了验证,我们已经针对用户反应对这些数据集进行了测试。”
Wysa 的标志性特征是用户可以与之聊天的企鹅,尽管它们仅限于一定数量的书面回复,这与 ChatGPT 的自由形式对话不同。
如果 Wysa 的付费订阅者的问题加剧,他们也会被引导至人类治疗师。 在新加坡开发的 Heyy 和总部位于美国的 Woebot 遵循类似的基于规则的模型,并且除了提供日记、正念技巧和专注于睡眠和人际关系问题等常见问题的练习等资源外,还依靠现场治疗师和机器人化身聊天机器人与用户互动。
这三个应用程序都借鉴了认知行为疗法,这是一种治疗焦虑和抑郁的标准形式,重点是改变患者的思维和行为方式。
Woebot 创始人艾莉森·达西(Alison Darcy)将该应用程序的模型描述为“高度复杂的决策树”。
达西告诉半岛电视台,“对话的这种基本‘形式’以临床医生处理问题的方式为模型,因此它们是专门设计用于复制临床医生在交互过程中如何做出决定的‘专家系统’。”
Heyy 允许用户通过以多种语言提供的应用内聊天功能与人类治疗师互动,包括英语和印地语,并提供心理健康信息和练习。
Wysa、Heyy 和 Woebot 的创始人都强调,他们并不是要取代以人为基础的治疗,而是要补充传统服务并提供心理健康治疗的早期工具。
例如,英国国家卫生局推荐 Wysa 作为等待看人类治疗师的患者的权宜之计。 虽然这些基于规则的应用程序的功能有限,但尽管人们担心这个快速发展的领域可能对人类福祉构成严重风险,人工智能行业在很大程度上仍未受到监管。
人工智能的发展速度惊人,这促使特斯拉首席执行官埃隆·马斯克和苹果联合创始人史蒂夫·沃兹尼亚克上个月将他们的名字添加到一封公开信的数千名签名者中。这封信呼吁暂停训练比 ChatGPT 的后续产品GPT-4 更强大的人工智能系统6个月,以让研究人员有时间更好地掌握这项技术。
信中说道,“只有当我们确信它们的影响是积极的并且它们的风险是可控的时候,才应该开发强大的人工智能系统。”
今年早些时候,据报道,一名比利时男子在人工智能聊天机器人 Chai 的鼓励下自杀,而同时《纽约时报》的一位专栏作家描述了微软的聊天机器人 Bing 鼓励他离开妻子的经历。
人工智能监管一直跟不上技术进步的速度,中国和欧盟采取了最具体的措施来引入护栏。
中国国家互联网信息办公室本月早些时候发布了法规草案,旨在确保人工智能不会产生可能破坏北京权威的内容。而欧盟也正在制定立法,将人工智能归类为高风险和禁止、管制或不受管制的类别。美国尚未提出联邦立法来规范人工智能,但预计将在今年晚些时候提出草案。
目前,无论是 ChatGPT 还是 Wysa 和 Heyy 等专门的心理健康应用程序,这些应用程序通常被认为是“健康”服务,它们都都不受美国食品和药物管理局或欧洲药品管理局等健康监管机构的监管。
关于人工智能是否可以超越目前市场上基于规则的应用程序并自主提供与传统疗法相当的心理健康治疗的独立研究有限。
为了让人工智能匹配人类治疗师,它需要能够重现移情现象,即患者将感受投射到他们的治疗师身上,并模仿患者和治疗师之间的联系。
临床心理学家兼詹姆斯·库克大学副教授玛丽亚·轩尼诗(Maria Hennessy)告诉半岛电视台,“我们在心理学文献中知道,这部分疗效和使治疗起作用的因素,大约 40% 到 50% 的效果来自您与治疗师的融洽关系。这在很大程度上决定了心理疗法的有效性。”
轩尼诗表示,目前的聊天机器人无法进行这种交互,而 ChatGPT 的自然语言处理能力虽然令人印象深刻,但也有局限性。
她指出,“归根结底,这是一个很棒的计算机程序。仅此而已。”
慕尼黑工业大学医学史与医学伦理研究所高级研究员阿米莉亚·菲斯克(Amelia Fiske)认为,人工智能在未来心理健康治疗中的地位可能不是非此即彼的情况,例如,即将推出的技术可以与人类治疗师结合使用。
菲斯克告诉 半岛电视台,“要记住的一件重要事情是,当人们谈论人工智能在治疗中的应用时,会有这样一种假设,即它看起来像 Wysa 或看起来像 Woebot,而且它不需要这样。”
一些专家认为,人工智能可能会在幕后发现其最有价值的用途,例如开展研究或帮助人类治疗师评估患者的进展。
苏黎世大学生物医学伦理学和医学史研究所的伦理学家和定性研究员塔尼亚·曼里克斯·罗阿(Tania Manríquez Roa)告诉半岛电视台,“在识别数据模式方面,这些机器学习算法优于专家规则系统,它不仅非常擅长在数据中进行关联,也非常擅长在数据中进行预测。”
“这对进行心理健康研究非常有帮助,并且它也能够非常有助于识别复发的早期迹象,例如抑郁症或焦虑症。”
曼里克斯·罗阿表示,她质疑人工智能能否用作临床治疗的替代品。
曼里克斯·罗阿指出,“这些算法和人工智能在某种程度上非常有前途, 但我也认为它可能非常有害。”
“我确实认为,在精神保健方面,我们对算法和机器学习持矛盾态度是正确的,因为当我们谈论精神保健时,我们谈论的是护理和适当的护理标准。”
她补充道,“当我们考虑应用程序或算法时,有时人工智能并不能解决我们的问题,反而会产生更大的问题。我们需要退后一步思考,‘我们到底需要算法吗?’如果我们需要它们,我们将使用什么样的算法?”