WikiEdge:MedRxiv-2024.06.18.24309113
- 标题:Analyzing Diversity in Healthcare LLM Research: A Scientometric Perspective
- 中文标题:分析医疗保健大语言模型研究中的多样性:科学计量学视角
- 发布日期:2024-06-19
- 作者:Restrepo, D.; Wu, C.; Vasquez-Venegas, C.; Matos, J.; Gallifant, J.; Nakayama, L. F.
- 分类:health informatics
- 原文链接:10.1101/2024.06.18.24309113
摘要:在医疗保健中部署大型语言模型(LLMs)已经显示出增强临床决策、提高行政效率和改善患者结果的巨大潜力。然而,这些模型的开发和应用中缺乏多元化群体的代表性可能会延续偏见,导致医疗保健服务的不公平。本文对医疗保健的LLM研究进行了全面的科学计量分析,包括2021年1月1日至2024年7月1日的数据。通过分析PubMed和Dimensions的元数据,包括作者所属机构、国家和资金来源,我们评估了LLM研究的贡献者多样性。我们的发现突显出显著的性别和地理差异,主要是男性作者和来自高收入国家(HICs)的贡献。我们引入了一种基于吉尼多样性的新颖期刊多样性指数,以衡量科学出版物的包容性。我们的结果强调了需要更大的代表性,以确保LLMs在医疗保健中的公平应用。我们提出了可行的策略,以增强人工智能研究的多样性和包容性,最终目标是促进医疗保健创新的更加包容和公平的未来。
问题与动机
作者面对的研究问题包括:
- 在大型语言模型(LLMs)在医疗保健领域的研究中,参与者的多样性如何?
- 这些研究中存在的性别和地理差异有多大?
- 这些差异对于LLMs在医疗保健中的公平性和有效性有何影响?
- 如何通过提高研究的多样性和包容性来确保LLMs在全球范围内的公平应用?
背景介绍
这篇文献的研究背景主要集中在以下几个方面:
大型语言模型(LLMs)在医疗保健中的应用
- 大型语言模型(LLMs)在医疗保健领域展现出了显著的潜力,包括提升临床决策、优化行政效率和改善患者结果。
- 通过自然语言处理任务,如病历分析、自动诊断和个性化治疗建议,LLMs能够理解和生成人类语言,为现代医疗保健中的一些紧迫挑战提供了解决方案。
- 然而,LLMs在医疗保健中的应用存在挑战,特别是在数据和计算资源的需求、机器学习和医疗保健社区内的代表性问题。
- 缺乏多样性的群体在LLMs的开发和应用中可能导致偏见的延续或放大,对医疗保健的质量和公平性产生负面影响。
- 例如,如果LLMs主要由高收入国家(HICs)的研究人员开发和训练,这些模型可能无法充分满足低收入和中等收入国家(LMICs)人群的医疗保健需求。
- 这种代表性的缺失可能导致算法产生偏见,无法跨不同人群泛化,从而限制了人工智能驱动的医疗保健解决方案的全球适用性和公平性。
- 为了解决这些挑战,需要共同努力促进人工智能研究和开发中的多样性和包容性。
- 通过科学计量学分析——一种涉及科学、技术和创新的定量研究方法——可以提供对科学研究成果及其全球影响的演变态势的关键见解。
- 这种分析有助于识别当前研究格局中的空白和偏见,并为促进LLMs开发中更大多样性的战略提供信息。
- 本文通过从PubMed和Dimensions API提取数据,对2021年1月1日至2024年7月1日期间的LLM在医疗保健研究进行了科学计量综述。
- 通过分析,旨在揭示LLM研究在医疗保健领域的贡献者多样性,并强调需要更广泛的代表性以确保LLMs在全球范围内的公平和有效应用。
- 通过证明当前代表性的状态并提出可操作的解决方案,本研究旨在为人工智能和医疗保健中多样性的持续讨论做出贡献,最终倡导在健康技术创新中实现更具包容性和公平性的未来。