聚慕 - 专业医疗器械服务商
设为首页 收藏本页 人事招聘 关于聚慕
400-901-5099
全部商品分类
防范ai大模型应用风险,who发布最新《指南》
发布时间:2024-01-25 10:20:35

1月18日,世界卫生组织(WHO)发布了关于多模态大模型伦理标准和治理指南一文,指出人工智能(AI)在整个医疗卫生领域应用前景广阔,但同时也要防范其中可能出现的诸如“自动化偏见”导致的过度依赖等风险。

上述指南概述了40多项建议,供各国政府、技术公司和医疗服务提供者予以参考,以确保适当使用人工智能技术,促进和保护人口健康。

作为一项快速发展的生成式人工智能技术,多模态大模型是指能够处理图像、文本、声音等多种类型数据的深度学习模型,广泛应用于医疗卫生领域。其普及速度比历史上任何消费应用都要快,如ChatGPT、Bard等多个平台于2023年在人群中快速流行。

世卫组织首席科学家Jeremy Farrar博士指出,生成式人工智能技术具有改善卫生保健的潜力,但前提是这些技术的开发、管理和使用人员能够识别并充分考虑到相关风险,并对其进行监管并制定相关规范。

Farrar表示,我们需要透明的信息和政策来管理多模态大模型的设计、开发和使用,以实现更好的医疗成果,并克服持续存在的不公平现象。

风险和建议

世卫组织在最新的指南中概述了多模态大模型在医疗卫生领域的五种广泛应用:

诊断和临床护理,例如回复患者的书面询问;

患者指导使用,例如用于调查症状和治疗;

文书和行政工作例如在电子健康记录中记录和汇总患者就诊情况;

医疗和护理教育,包括为受训人员提供模拟病人接触的机会;

科学研究和药物开发,包括识别新的化合物。

世卫组织也提到了多模态大模型使用时可能的风险,如产生虚假、不准确、有偏见或不完整陈述的信息,这可能会损害使用此类信息做出健康决定的人。

此外,多模态大模型可能在质量较差或有偏见的数据上进行训练,无论是种族、民族、血统、性别、性别认同还是年龄等方面。

该指南还详细说明了卫生系统面临的更广泛风险,例如表现最佳的多模态大模型的可及性和可负担性;多模态大模型可能助长“自动化偏见”,使医疗专业人员和患者过于依赖人工智能,忽略原本可以由人发现的差错,或把困难的选择不恰当地交给多模态大模型;多模态大模型与其他形式的人工智能一样,也容易受到网络安全风险的影响,从而危及患者信息安全、有损算法的可信度等。

基于上述风险,世卫组织认为各国政府负有制定多模态大模型使用规范的主要责任,以便将其整合和用于公共卫生和医疗目的。

世卫组织建议称,政府应该投资或提供非营利的公共基础设施,包括算力和公共数据集,供公共、私人和非营利部门的开发人员访问,这要求用户遵守道德原则和价值观,以换取访问权限。在大规模部署大模型时,应该由独立第三方实施强制性的审计和影响评估,包括数据保护和人权方面的评估。

注:文章来源于大健康派,如有侵权,请联系删除

为您找货 · 告诉我们您想要找什么商品?我们将尽快给您答复。
* 商品名称:
* 您想了解:
  • 商品资料
  • 货期
  • 价格
  • 安调
  • 其他
* 手机号码:
* 姓名: