医生用 ChatGPT 帮你看病,越来越有必要
医生用 ChatGPT 帮你看病,越来越有必要
如果你向 ChatGPT 倾诉过烦恼,它大概率会在开头说,很遗憾听见你感到难过。
当套路一再重复,你会见怪不怪,甚至觉得它在应付。
这也是医生无法替代的原因,只有他们能和患者建立真实、有效的治疗关系。
但这并不代表,AI 无法在医疗行业派上用场。ChatGPT 以一种意想不到的方式,帮医生打开了新世界的大门。
不仅懂得多,还比医生更贴心
前段时间,加州大学圣地亚哥分校进行了一项有趣的研究,研究人员在社交网站找到 195 个真实的医患问答,然后将相同的问题投喂给 ChatGPT,再交给专家盲评,比较人类医生和 AI 的高下。
这些问题多种多样,从「怎么治疗长期咳嗽」,到「吞了根牙签,朋友说我要死了」。
结果让人惊掉下巴。ChatGPT 在信息质量和同理心这两个方面,都打败了人类医生。
专家们的偏好,影响了评比结果。本次研究里,ChatGPT 的同理心通常体现在,会对患者的不适感到抱歉。也不同于医生简短、省时的风格,它的答案更长、更亲切。
举个简单的例子,问到「漂白剂进了眼睛后是否会失明」时,ChatGPT 先是表达了同情,然后具体说明了清洁眼睛的步骤。医生只是说「听起来没什么事」,建议对方冲洗眼睛。
你可能觉得,医生的答案更让你安心。不过,这项研究无意讨论 ChatGPT 能否取代医生,只是提出了一种可能性:ChatGPT 可以在远程医疗等场景担当辅助,节省医生的时间。
因为 ChatGPT 有胡说八道的毛病,必须由医生做最后的把关。研究人员展望了医生和 AI 合作的未来:
如果更多患者的问题,得到快速、高质量和富有同理心的回答,可能会减少不必要的临床就诊,为需要的人腾出资源。
不难想象,除了效率之外,人类与 AI 的合作也赋权了弱势群体。行动不便的、工作时间长的、负担不了费用的患者,可能更加需要相关服务。
这样的产品已经出现。今年 5 月,纽约健康技术公司 Belong.Life 推出了 Dave:世界上第一个针对癌症患者的对话式 AI。它只关注癌症领域,基于两个大语言模型,训练数据包括公司旗下 app 七年以来的数十亿数据点。
作为 24 小时待命的 AI,Dave 好就好在全天候回答问题,它可以帮助患者了解自身情况,方便他们之后与医生讨论。
另外,安慰患者、表现同理心,也是 Dave 的「职业操守」。Belong.Life 联合创始人在接受采访时说:
Dave 减轻了患者的压力水平,也减少了医生教育患者的时间。
来自 Dave 的每条消息,都会声明它由 AI 生成,可能并不总是准确,患者在真正做出决定之前,必须咨询医生。所以,AI 不能代替医生,但成了医患之间一道搭线的桥。
AI 对每位医生个体的作用,也像显影照片般渐渐清晰起来。外媒采访了几位使用 ChatGPT 的医生,方法五花八门,但或多或少和同理心有关。
有的医生通过 ChatGPT,在解释医嘱、通知坏消息时,更好地组织语言。他们半开玩笑地说自己的用语有时「过于高级」:
即使我们认为很容易理解的词,其实也不是那样。
有的医生需要定期和酗酒群体沟通,他们请 ChatGPT 帮忙列出谈话要点,如果患者没有足够的医学知识,那么就让 AI 根据小学生的阅读水平改写。其中一位医生十分满意 AI 写的开头。这句话乍看平平无奇,全靠真诚打动了医生:
如果你认为自己喝了太多酒,那么你并不孤单。很多人都有这个问题,但是有些药物可以帮助你感觉更好,让你的生活更健康、更幸福。
其实,很多医生不是不想表达出同理心,而是工作强度和压力太大了,光是应对门诊、远程问诊等需求已经分身乏术,他们自己也陷入倦怠和疲惫。
因此,也有医生请 ChatGPT 帮忙给保险公司写邮件,让对方给自己的患者承保。这其实是一项繁重的重复性劳动,甚至要花上几个小时,但交给 AI 后再微调,只需几分钟即可完成,让医生有更多时间投入救死扶伤之中。
话说回来,医生对同理心的定义,可能和大众不同,并且更加细分。
「认知同理心」,是指医生识别患者情绪,并在做出决定时考虑这些情绪的能力。与之相对的「情感同理心」,更接近我们所理解的「感同身受」。
《摆脱共情》一书提到了类似的观点,作者布卢姆大致将共情分为两种:「认知共情」与「情绪共情」。他认为做出更好的行为和道德决策,应该依赖认知而非情绪共情。
更多时候,同理心微妙而复杂,很难划分出楚河汉界,往往同时需要认知和情感同理心。
医生这个职业,既要感性地尊重患者感受,又要理性地展现专业素养,工作压力更是难以为外人道。如何把握共情的尺度,对他们来说是件难事。
AI 无法真正感同身受,但作为结果,它给部分患者带来共情的感觉,或许真能当上为医生分担重负的助手。
小心机械共情的陷阱
AI 的「同理心」不全是陈词滥调,另一端的患者也能够感知到。
《连线》杂志的一则报道提到,部分自闭症患者认为,和 AI 交流是很好的体验,因为它更接近他们的说话和行为方式。
自闭症患者的病征各不相同,但社交互动障碍较为普遍。有些患者会在和别人发生争执时,让 AI 提出建议,努力表达自己的情绪,而不是像以前那样保持沉默。
对于他们来说,AI 成了新的、宝贵的、独立的资源,随时随地可用,不按小时计费。
然而这只是个例,如何用 ChatGPT 帮助特殊群体,并没有经过严肃的研究,没人知道风险到底有多大。
所以,Hugging Face 的首席伦理科学家 Margaret Mitchell 建议,遭遇严重情绪困扰的人,应该被限制使用 AI。
我们无法完全控制它说什么,这是一个大问题。
不过,聊天机器人疗法有迹可循,这是一个可以追溯到几十年前的概念。
第一个允许人机之间进行类人对话的程序 ELIZA,诞生于 1960 年代的麻省理工学院,以现在的眼光审视,它其实非常粗糙,通常以问题的形式,重复用户发给他们的内容,让用户觉得自己好像被听到了,参透了人类本质是个复读机。
事实证明,不管如何简单粗暴,人们都需要机器的「同理心」,哪怕只是错觉。推出 ELIZA 的目的,是为了证明计算机对人类语言的理解多么肤浅。但它反而吸引了大量用户,人们把自己关在房间几个小时,就为了和它说悄悄话。
如今,基于大语言模型的生成式 AI 可以做出更多样的回复了,比 ELIZA 不知道聪明了多少个版本,但它们也存在独有的问题。
偏见、虚假信息、隐私泄露之外,「ChatGPT 们」可能让人掉进「机械共情」的陷阱,也就是回答某类问题时,给出重复的、标准化的模版。
心理治疗师 Daniela Marin 在尝试 ChatGPT 时发现,当你和它说「你想自杀」,它给出的答案几乎和教科书的答案一模一样。
ChatGPT 踩中了所有得分项,但这毕竟不是考试,Daniela Marin 觉得还不够好。如果你是和治疗师聊天,你会得到更加有意义和具体的回复。
重症监护室医生 Wael Haddara 也认为,同理心本该有丰富的表现形式,不应该只是 AI 生成的文字。
他每周平均和 30 个家庭打交道,发现当家属遭遇至亲去世时,开诚布公的沟通更能减少创伤。同理心也不仅仅是言语,有时候只是沉默着递出纸巾的行为。
不过,像 ChatGPT 这样的聊天机器人,本就是为了通用性设计的。OpenAI 也强调过,ChatGPT 不应该成为心理健康治疗的替代品。
对人类来说,同理心也是一件难事
从以前的 ELIZA,到现在的 ChatGPT,机器的共情,哪怕是虚假和机械的共情,仍然让人们求之不得。
不只是医生和患者,对 AI「同理心」的需要,也存在于更广泛的情感和社交关系里。
通过非人的 AI,人们才能学会怎么更好地和同类沟通。可见人与人的交流,很多时候确实是一件难事。
AI 聊天应用 Replika 背后的公司,最近推出了一款新的 AI 约会应用「Blush」。它的受众群体很明确:希望更好地处理亲密关系的人。
Blush 像是一个恋爱模拟游戏,用户可以和 AI 创建的、不同性格和背景的 NPC 聊天,和它们建立或近或远的关系,从而加强沟通和恋爱技巧。Blush 不仅会让你聊到牵手和约会,也会涉及分歧和误解,就像现实生活那样。
▲ 某个「NPC」.
Replika 首席产品官 Rita Popova 强调,Blush 不是用来替代亲密关系的,反而是让你提前演练之后,更好地进入现实世界。
与人交谈,深入了解他们,真的很困难,我觉得解决问题的最好方法就是练习。
Blush 的存在,恰恰提醒了人际交往的尴尬之处。很多用户下载它,就是因为不知道怎么开始和人交谈。帮他们预演的 AI 像是一面镜子,让他们看到自己,以及和别人的交流模式。
和 Blush 类似的,还有在 Tinder 等交友应用出谋划策的 AI 约会助手。Rizz 就是其中一个,它基于你的语气、对方的资料,建议你怎么聊天给对方留下更好的印象。
如果对方也在用 AI,那可能就是 AI 互相搭讪,你和对方成替身了。
或许有些悲哀,当手机让我们提笔忘字之后,思考如何通过方寸屏幕和人交流,竟然也像写论文一样无从下手。
这可能是因为,技术既是成因也是解药。
雪莉 · 特克尔的《群体性孤独》谈到,信息过载的社交媒体,既给了我们被陪伴的幻觉,又让我们削弱了对彼此的期待,无须像现实那样付出友谊,结果让我们更孤独了。
那么看似更有同理心的 AI 呢?它是让人锻炼自己的共情和沟通能力,还是让人彻底依赖它,不走心地表演虚与委蛇?
眼前的情况复杂而微妙——
之前我们认为,涉及情感和社交技能的职业,AI 不容易介入,但它正在建立一种新的关系。
被 AI 需要的领域,恰恰也被 AI 揭露不足,然后提供可能的解决办法。
在更广泛的维度里,AI 和时代共鸣,展现社会信息丰富、但时间和人际关系匮乏的一面。
我们同样可以拿社交媒体比喻,它缓解了短期的孤独,但过度依赖它只会加剧现实的疏离。AI 也是类似,应该将 AI 作为手段,把人作为目的,最终还是要回归人与人的关系。
文本交流工具 Keys AI 的创始人相信,人们承认自己借助 AI 交流时,也意味着正在努力成为更好的沟通者。
所以,我们需要 AI 的「同理心」,不是脱离人与人的互动,而是重新想象我们如何互动。
当 AI 将词语用统计规律相互关联,人类负责赋予这些概念意义,在职场和生活里与他人建立更好的联系,并关注更为重要的事情。其实技术发展以来皆是如此,我们总要在不断变化的社会关系和情感体验里,探索如何更好地与人相系。
-
- 大消息,今天重磅推出!腾讯、阿里、小米等 24 只港股可用人民币买了,港交所
-
2023-06-21 02:20:55
-
- 轰动日本!华为,刚刚霸气宣布!!
-
2023-06-21 02:18:38
-
- 理想纯电新车定名 MEGA,定位超 50 万元,还把「ChatGPT」搬进了车里
-
2023-06-21 02:16:21
-
- 试用苹果 Vision Pro 后,这是我对它的看法
-
2023-06-21 02:14:04
-
- 腾讯,终于入局大模型
-
2023-06-21 02:11:48
-
- 停止内耗,是生活最好的解药
-
2023-06-21 02:09:31
-
- 比尔盖茨:AI 时代开启,人生的第二次革命性时刻来了
-
2023-06-21 02:07:14
-
- 年纪轻轻成了“老油条”,以后怎么办?
-
2023-06-21 02:04:57
-
- 刘强东捐23亿美元股票用于教育环保(刘强东捐了多少款)
-
2023-06-20 07:47:03
-
- 丑时之女哪里多(丑时之女副本汇总)
-
2023-06-20 07:44:47
-
- 专家释疑京津冀现不明黑色昆虫(北京虫子为什么这么多)
-
2023-06-20 07:42:31
-
- 港版牛栏怎么样,牛栏的奶粉怎么样?
-
2023-06-20 07:40:15
-
- 部队文职为什么离职率高(部队文职工资到手多少钱)
-
2023-06-20 07:37:59
-
- 哈兰德和姆巴佩谁更强?亨利:姆巴佩更强,也更全面!
-
2023-06-20 07:35:43
-
- 新版qq勋章墙不见了(qq不显示勋章墙图标)
-
2023-06-20 07:33:27
-
- 婵真银杏洗面奶怎么样(还有哪些洗面奶推荐)
-
2023-06-20 07:31:11
-
- 京东自营店和旗舰店哪个可靠?有哪些区别
-
2023-06-20 07:28:55
-
- carryon是什么意思?(carry过去式)
-
2023-06-20 07:26:39
-
- 呼叫转移是什么意思(手机呼叫转移功能介绍)
-
2023-06-19 12:45:42
-
- 牛仔裤十大品牌排行榜(牛仔裤哪个牌子好)
-
2023-06-19 12:43:25