世界卫生组织(WHO)于 5 月 16 日发布文章呼吁谨慎使用人工智能(AI)生成的大型语言模型工具(LLM),以保护和促进人类福祉、人类安全和自主权以及保障公共卫生。
LLM 包括一些发展最快的平台,例如 ChatGPT、Bard、Bert以及许多其他模仿理解、处理和产生人类交流的平台。它们在公众中的迅速传播,也越来越多的用于医疗相关目的,这些实验性使用正在激发对支持人类健康需求潜力的极大兴奋。
当使用 LLM 来改善医疗信息的获取,作为决策支持工具,甚至用于在资源贫乏地区提高诊断能力以保护人们的健康和减少不公平时,必须仔细审查其风险。
虽然 WHO 对技术(包括 LLM)的适当使用以支持医疗卫生专业人员、患者、研究人员和科学家持积极态度,但令人担忧的是,在 LLM 的使用中并未采取与惯常对待其它新技术一致的谨慎态度。这包括广泛遵守透明度、包容性、公众参与、专家监督和严格评估的关键价值观。
贸然采用未经检验的系统可能导致医疗卫生工作者出错,对患者造成伤害,削弱对 AI 的信任,从而破坏(或延迟)此类技术在世界范围内的潜在长期获益和使用。
WHO 指出,需要严格监督以确保通过安全、有效和合乎道德的方式使用这些技术,这方面的担忧包括:
用于训练AI的数据可能存在偏差,产生误导性或不准确的信息,可能对医疗卫生、公平和包容性构成风险;
LLM 生成的回复对终端用户来说可能具有权威性和合理性;但是,这些回复可能完全不正确或包含严重错误,尤其是与医疗卫生相关的回复;
LLM 可能接受过先前未同意使用的数据的培训,并且 LLM 可能不会保护用户提供给应用程序以生成回复的敏感数据(包括健康数据);
LLM 可能会被滥用,以文本、音频或视频的形式生成和传播令人信服的虚假信息,而公众难以将其与可靠的医疗卫生内容区分开来;
WHO 致力于利用新技术(包括 AI 和数字健康)来改善人类健康,同时建议政策制定者在技术公司努力实现 LLM 商业化的同时确保患者安全和防护。
WHO 建议,无论是个人、医护人员还是医疗系统管理者和决策者,在常规医疗卫生和医学中广泛使用这项技术之前,应处理这些问题,并衡量明确的获益证据。
WHO重申,在设计、开发和部署用于医疗卫生的 AI 时,应用伦理原则和适当的管治的重要性。WHO 确定的 6 项核心原则是:(1)保护自主权;(2) 促进人类福祉、人类安全和公共利益;(3) 确保透明度、可解释性和可理解性;(4) 培养责任感和问责制;(5) 确保包容性和公平性;(6)促进具有响应性和可持续性的 AI。