有一项研究发出警告,家庭医生依靠人工智能辅助诊断,正在危及患者的安全。
有五分之一的全科医生承认在临床实践中使用了诸如ChatGPT和必应人工智能等程序,尽管目前没有关于如何使用这类程序的官方指南。
专家警告说,像‘算法偏差’这样的问题可能会导致误诊,患者数据也可能有泄露的风险。他们表示,一定要让医生意识到这些风险,并且呼吁通过立法来涵盖其在医疗保健环境中的使用。
研究人员借助英国医生目前在英国医学总会注册的最大专业网络,向一千名全科医生发送了调查问卷。
医务人员被问到在其临床实践的任何方面是否曾用过以下任何一种:ChatGPT;必应 AI;谷歌的 Bard;或“其他”。超过一半(54%)的受访者年龄在 46 岁或以上。
五分之一(20%)的人表示在临床实践中使用了生成式 AI 工具。
在这些人当中,近三分之一(29%)的人表示在患者就诊后使用这些工具生成了文档。
据发表于《英国医学杂志》的研究结果,有相近数量(28%)的人表示,他们借助这些工具来给出鉴别诊断。
四分之一(25%)的人表示,他们运用这些工具来提出治疗方案,比如潜在的药物或转诊建议。
研究人员——其中包括来自瑞典乌普萨拉大学和苏黎世大学的科学家——称,虽说人工智能有助于协助记录,可它们“容易生成错误信息”。
他们写道:“我们在此提醒,这些工具具有局限性,因为它们可能会嵌入细微的错误和偏差。
“它们还存在损害患者隐私的风险,因为不清楚生成式人工智能背后的互联网公司是如何使用其所收集的信息的。”
他们补充说,虽然聊天机器人越来越成为监管努力的目标,但立法在实际中如何与这些工具相互交叉的情况“仍不清楚”。
他们总结道,医生和医学实习生需要充分知晓人工智能的优点和缺点,尤其是鉴于其带来的“固有风险”。
皇家全科医生学院主席卡米拉·霍桑教授认同使用人工智能“存在潜在风险”这一观点,并呼吁在常规实践中对其应用进行严格监管,以保障患者安全以及其数据的安全。
她说:“技术始终需要与医生和其他医疗专业人员的工作相互协同、互为补充,绝不能被视作合格医疗专业人员专业知识的替代品。”
“显然,生成式人工智能在普通诊疗实践中具有应用潜力,但为了患者安全,谨慎地实施和严格地监管是至关重要的。”