科学家警告称,在医疗保健领域的人工智能可能会加剧种族和收入不平等现象

科学家警告人工智能可能加剧医疗保健领域的种族和收入不平等现象

科学家们担心在医疗领域使用像ChatGPT这样的人工智能模型会加剧不平等现象。

剑桥大学和莱斯特大学的流行病学家们警告说,大型语言模型(LLM)可能会对少数民族和低收入国家的不平等问题造成巩固。

他们的担忧源于系统性的数据偏见。在医疗领域使用的人工智能模型是通过从网站和科学文献中获取信息进行训练的。但是证据表明,这些信息源中经常缺乏种族数据。

因此,对于被较少代表的群体,人工智能工具的准确性可能较低。这可能导致无效的药物推荐或种族主义的医疗建议。

研究人员在其研究论文中表示:“众所周知,在许多疾病群体中,种族少数民族背景与不同风险相关。”

“如果已发表的文献中存在偏见和较低的精确性,那么未来的人工智能模型将会保持并进一步加剧这些问题。”

科学家们还对低收入和中等收入国家(LMICs)面临的威胁表示担忧。人工智能模型主要是在富裕国家开发的,这些国家也主导医学研究的资金。

因此,LMICs在医疗培训数据中“严重缺乏代表性”。这可能导致人工智能工具向这些国家的人们提供错误的建议。

尽管存在这些担忧,研究人员们认识到人工智能在医学上的好处。为了减轻风险,他们提出了几项措施。

首先,他们希望模型清楚地描述其开发所使用的数据。他们还呼吁进一步努力解决研究中的健康不平等问题,包括更好地招募和记录种族信息。

培训数据应该具有足够的代表性,同时还需要进一步研究人工智能在弱势群体中的应用。研究人员表示,这些干预措施将促进公平和包容的医疗保健。

来自莱斯特大学的Mohammad Ali博士表示:“我们必须谨慎行事,认识到我们无法也不应该阻止进步的流动。”