ChatGPT如何协助揭示十年未解病因:个人经历引发的AI医疗思考

ChatGPT助用户解十年怪病,AI医疗潜力无限,但仍需医生确认。

原文标题:求医十年,病因不明,ChatGPT:你看起来有基因突变

原文作者:机器之心

冷月清谈:

一位Reddit网友分享了长达十年求医未果的经历,其饱受多种不明症状困扰,寻遍顶尖医生也无法确诊。最终,在将所有化验报告和症状史输入ChatGPT后,AI推断其症状高度吻合纯合型A1298C MTHFR基因突变。经医生确认并补充相关营养素后,网友的症状奇迹般消失。文章还提及其他AI辅助诊断的成功案例,如解决长期呕吐和宠物疑难病症。这反映出AI在医疗领域,尤其在优质资源紧张、疑难杂症诊断方面的潜力,因其能快速整合海量信息。然而,作者也强调,AI仍可能出现“幻觉”,且无法承担医疗责任,其建议仅供参考,最终仍需人类医生诊断和决策,未来AI或将成为医生的“外挂”大脑。

怜星夜思:

1、文中提到纯合型A1298C MTHFR基因突变影响7%-12%的人群,听起来挺普遍的呀。为什么这么常见的基因突变,医生们却很难想到要检测它呢?是检测成本太高还是普遍认知不足?
2、文章说未来AI可能会成为医生的“外挂”大脑,帮助诊断。如果医生越来越依赖AI,那万一AI出错了,责任怎么界定?会不会影响患者对医生的信任度呢?
3、除了辅助诊断,大家觉得目前AI在医疗领域还有哪些方面能立刻发挥大作用?比如药物研发、个性化治疗推荐,还是医院管理?有没有什么领域是AI暂时还不能碰的“禁区”呢?

原文内容

机器之心报道

编辑:张倩

用AI给自己看病正在成为新趋势,但目前我们仍需要人类医生。

身体不适,求医十年,医生没找出原因,ChatGPT 给分析出来了。这是一位 Reddit 网友刚刚分享的个人经历。



这位网友提到:


十多年来,我一直被多种不明症状困扰。做过脊椎核磁共振、CT 扫描、全套血液检查(包括深入检测),甚至连莱姆病都没放过。


后来通过 Function Health 平台发现,我竟然携带纯合型 A1298C MTHFR 基因突变 —— 这种影响 7%-12% 人群的变异。虽然我所在的美国医疗网络是全国顶尖,甚至看过神经科医生排查过多发性硬化症,但始终没查出原因。

ChatGPT 整合了我所有的化验报告和症状史,推断这与基因突变高度吻合。原来即便维生素 B12 水平看似正常,这种突变也会导致身体无法有效利用,必须通过补充剂提升。


我把这些检查结果拿给我的医生看,他非常震惊,坦言一切症状突然都能解释了。我不确定他们之前怎么没想到给我做亚甲基四氢叶酸还原酶(MTHFR)基因突变检测。

如今几个月过去,我的症状已基本消失。整件事的发展至今仍让我觉得不可思议又充满惊喜。


这个帖子在 reddit 上热度非常高,很多人在评论区留言称,自己也有类似经历。


比如一位网友提到,自己呕吐超过 15 年,作为所有胃部检查和过敏测试,最近又被诊断出患有焦虑症。虽然药物确实起了作用,但呕吐一直没好过。于是,ta 就向 ChatGPT 发起了提问,并在 ChatGPT 的建议下去看了耳鼻喉科医生(因存在头晕症状),也确实查出了问题,看到了治愈的希望。



还有一位网友提到,自己家的狗被带去看兽医,结果兽医束手无策,让他们准备「告别」。而 ChatGPT 建议他们去能处理心脏问题的急诊室,狗狗由此获救……  



类似的故事在评论区还有很多。虽然这些故事的真实性还有待验证(很多可能是博人眼球),但一个明显的趋势是,在求医问药这件事上,越来越多的人开始求助于 AI 了,尤其是在病因难以明确的情况下。




这种趋势背后有很多原因,一是优质医疗资源紧张、地区分布不均,造成人类医生没有足够的能力或精力为每个病人深度排查;二是现在的 AI 确实比以前进步了很多,它们能够快速检索和整合大量医学文献资料,在信息处理速度和数据容量方面具有技术优势,可以为医生和患者提供更全面的信息参考。




对于一些罕见疾病,即便是资深医师的临床经验也难免存在盲区。更何况,许多疑难症状往往需要多学科协作才能明确诊断,而这在现行的医疗体系下实现成本极高。


这或许就是 ChatGPT 们能够发挥重要作用的地方:帮助患者整理就医思路(根据症状初步确定挂什么科),帮助医生识别疑难杂症,最终使得诊疗更加个性化。



目前,微软等公司也在开发专门的产品来应对这种需求,并且看起来表现不错。



不过,发帖人也特别提醒说,「我在尝试 AI 建议前已与主治医生反复确认。请勿盲目相信 AI 的医疗建议。」


他的提醒不无道理,毕竟,当前的 AI 依然无法克服幻觉等问题,可能生成看似合理实则错误的建议。而且,AI 无法为误诊担责,而医生需遵循伦理和法律框架。所以,如果你也有向 AI 咨询医疗建议的习惯,千万不要盲目相信,最终的诊断和处置还是需要人类医生来做,AI 的建议仅供参考。


在可预见的未来,大多数医生可能也会将 AI 作为自己的「外挂」大脑,帮助更多患者找到正确的治疗方法。




参考链接:

https://x.com/rohanpaul_ai/status/1941321376838951320

https://www.reddit.com/r/ChatGPT/comments/1lrmom4/chatgpt_solved_a_10_year_problem_no_doctors_could/


© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:[email protected]



针对“除了辅助诊断,大家觉得目前AI在医疗领域还有哪些方面能立刻发挥大作用?”这个问题,我觉得AI在医疗管理方面也能立刻发挥作用,比如优化医院排班、提高医疗资源利用率、处理海量医疗记录,甚至在医保诈骗检测上也能出一份力。这些都是需要处理大量重复性数据和优化流程的地方,AI的效率优势很明显。另外,远程医疗咨询方面,AI也可以作为初步筛选和信息收集的工具,减轻医生负担。至于‘禁区’嘛,我觉得就是那些需要真人触摸、需要温度、需要医生去体会病人感受的场景,还有就是直接开处方、做手术这种需要承担直接生命风险的操作,AI肯定不能单独进行,必须是人类医生来主导。

哈哈,这个问题有意思!我觉得AI现在还能干很多‘脏活累活’啊,比如整理海量的病历资料,医生再也不用在一堆纸里翻来翻去了,直接问AI就行了。还有帮药厂找找新的化合物,说不定哪天我们吃的药就是AI“想”出来的。再比如给病人智能推荐最近的空闲医院床位,或者分析全国的疾病流行趋势,这些都是AI的强项。‘禁区’嘛……我觉得涉及到‘安慰剂效应’或者需要‘手艺’特别好的,比如缝合伤口,目前AI还比不过人类的巧手吧?最重要的是,AI现在还不能拍拍你的肩膀,然后温柔地说‘没事的,一切都会好起来的’,这种情感上的支持,现在还是人类的专利!

问得好!针对“为什么这么常见的基因突变,医生们却很难想到要检测它”这个问题,是不是因为……医生们都太忙了,或者说这个MTHFR太会‘伪装’了,它穿的外衣都是别的病的样子,所以很难被发现?而且你说那7%-12%的人群,那基数可不小,如果一个个都去测,那医院不得排队到天荒地老啊?可能就是大家觉得‘还没到那一步’,常规检查都没问题,谁会想到更深层次的基因问题呢?ChatGPT这次算是歪打正着了,给常规思路‘打了个补丁’。

我觉得吧,针对“如果医生越来越依赖AI,那万一AI出错了,责任怎么界定?”,这个责任问题确实挺让人头疼的。但话说回来,现在医生诊断不也可能出错吗?只是以前出错了我们觉得是‘人’的问题,以后可能是‘机器’的问题。我觉得患者可能更在乎的是结果,只要治好了,是谁诊断的反而没那么重要。但如果出了问题,那肯定会追究到底。我的看法是,如果AI能辅助医生提高诊断准确率,那最终受益的是患者,医生可以把AI当成一个‘助手’,但他本人才是‘船长’。信不信任嘛,靠的是疗效和医生的人品,AI只是工具,它还没到能取代人情味的地步。

关于为什么A1298C MTHFR基因突变这种不罕见的变异却往往被忽视,这确实是个好问题。从专业角度看,MTHFR基因突变本身的临床表型复杂多样,且很多症状与其他常见疾病高度重叠,导致医生在面对常规症状时,往往会优先排查更为常见且有明确诊疗指南的疾病。此外,MTHFR突变检测不属于常规体检项目,且很多医生对其临床意义的认知程度不一,并非所有症状都必然指向MTHFR,这也在一定程度上限制了其检测的普及。简单来说,就是‘特异性’和‘敏感性’在临床实践中平衡的挑战。

关于“除了辅助诊断,目前AI在医疗领域还有哪些方面能立刻发挥大作用?”这个问题,人工智能在医疗领域的潜力远不止诊断。目前能够立即产生影响的领域包括:药物研发,AI能大幅加速新药筛选和分子设计,降低研发成本;个性化治疗方案推荐,基于患者的基因组、生活习惯、病史等大数据,提供最优化治疗建议;医疗影像分析,AI在识别X光片、CT、MRI中的微小病灶方面已展现出超越人类的效率和准确率;以及公共卫生管理和疫情预测,通过分析海量数据进行模型预测和资源调配。至于‘禁区’,涉及到人类情感、同理心、复杂的医患沟通、伦理决策以及手术中的精妙手部操作等,这些目前AI还难以完全替代,或者说至少在可预见的未来,人类医生的角色仍不可或缺。

关于“如果医生越来越依赖AI,那万一AI出错了,责任怎么界定?会不会影响患者对医生的信任度”这个问题,这在医疗AI发展中确实是核心伦理考量。如果医生过度依赖AI导致误诊,法律和伦理上,主要责任仍在于最终做出决策和执行治疗方案的医生。AI目前更多被视为辅助工具,不具备法律主体资格。然而,这确实可能动摇患者对‘人’的信任,转而疑虑AI的可靠性。因此,透明度至关重要,医生应向患者明确AI的角色,并强调其辅助而非替代的性质,同时加强自身AI素养,确保能理性评估AI输出,而非盲从。建立一套清晰的责任认定和风险分担机制,是未来医疗AI走向成熟的必经之路。

哎呀,这个问题问得很有深度啊!那不就和咱们用导航开车一样吗?导航让你左转,结果拐进死胡同,你也不能怪导航吧,最终还是你手握方向盘嘛!医生用AI,就好比用了个特别牛的医学百科全书,他最终怎么看病,怎么下药,还是得他自己思考拍板。至于信任嘛,就像我们信任一个做了很多年饭的大厨,AI可能只是给他提供了最新鲜的食材和菜谱,但饭好不好吃,还是看大厨手艺。真出了事儿,那肯定还是找开刀的医生,AI只是一堆代码,你不能把它关进小黑屋吧?哈哈。

哎呀,针对“为什么这么常见的基因突变,医生们却很难想到要检测它”这个问题,我觉得吧,可能这玩意儿虽然听着挺‘基因’的,但表现出来的症状又特别‘日常’,比如文中说的B12吸收不好,那症状可太多了,医生肯定先从最常见的原因查起。谁会一开始就想到去测基因呢?这就像你嗓子不舒服,你肯定先以为是感冒,而不是扁桃体发炎,更不会联想到是基因问题对吧。可能也是医生在学习的时候,这类知识还没普及到非专业的程度,然后检测费用或者普及度也是个问题吧。