GPT醫(yī)生,會加劇醫(yī)療不平等嗎?
文/陳根
隨著AI+醫(yī)療的不斷成熟,尤其是基于GPT訓練醫(yī)生正在成為現(xiàn)實。日前,有科學家警告說,醫(yī)療保健中的人工智能可能會加劇種族和收入不平等。
來自劍橋大學和萊斯特大學的流行病學家警告說,大型語言模型(LLM)可能會加深少數(shù)民族和低收入國家的不平等。尤其是在醫(yī)療保健中使用ChatGPT等人工智能模型會加劇不平等。
那么這種擔心是來源于哪里呢?主要是科學家擔憂源于系統(tǒng)性的數(shù)據(jù)偏差。醫(yī)療保健中使用的人工智能模型是根據(jù)來自網(wǎng)站和科學文獻的信息進行訓練的。但有證據(jù)表明,這些來源往往缺少種族數(shù)據(jù)。也就是說,GPT醫(yī)生基于前沿的醫(yī)學知識進行訓練之后,在診斷層面會有明顯的優(yōu)勢,但是在開具藥方建議方面可能會出現(xiàn)無效藥方的情況。
這主要是兩方面的原因:一方面是在不同地區(qū)的藥物會有很大的差異,尤其是貧困地區(qū)很難擁有最新的,或者比較先進的藥物,這就會導致GPT醫(yī)生所開具的藥物處方失效;另外一方面是針對于不同族群,由于基因、體型方面的差異,患者所使用的藥物劑量也會存在著比較大的差異,這也會導致GPT醫(yī)生開具無效的藥物建議或基于特定種族的醫(yī)療建議。
此外,科學家們還擔心對低收入和中等收入國家(LMICs)的威脅。當前基于GPT所訓練的醫(yī)生,這種人工智能模型主要是由較富裕的國家所訓練與開發(fā),這些國家也主導著醫(yī)學研究的資金。而中低收入國家的醫(yī)療數(shù)據(jù)在GPT醫(yī)生的訓練過程中,在醫(yī)療數(shù)據(jù)中的“代表性嚴重不足”。這可能導致GPT醫(yī)生無法根據(jù)一些非發(fā)達國家的實際醫(yī)療情況,給出客觀有效的診療建議。
但是不論如何,這至少讓我們看到了借助于GPT醫(yī)生可以在疾病診斷層面,實現(xiàn)有效的平等化,而在治療方面或許還需要一些時間,或許會在GPT醫(yī)生的推動下,我們?nèi)祟惿鐣䲡瓉砘贕PT醫(yī)生的醫(yī)療標準共享體系。
原文標題 : 陳根:GPT醫(yī)生,會加劇醫(yī)療不平等嗎?

請輸入評論內(nèi)容...
請輸入評論/評論長度6~500個字
圖片新聞
最新活動更多
-
即日-9.20點擊報名>>> 【免費試用】宏集運輸沖擊記錄儀
-
即日-12.31立即下載>> 【限時下載】《2025激光行業(yè)應(yīng)用創(chuàng)新發(fā)展藍皮書》
-
精彩回顧立即查看>> 高價值貨物的‘數(shù)字保鏢’:沖擊記錄儀重塑貨運安全與效率
-
精彩回顧立即查看>> 【在線研討會】解析安森美(onsemi)高精度與超低功耗CGM系統(tǒng)解決方案
-
精彩回顧立即查看>> 【在線會議】CAE優(yōu)化設(shè)計:醫(yī)療器械設(shè)計的應(yīng)用案例與方案解析
-
精彩回顧立即查看>> 全數(shù)會2025(第六屆)機器人及智能工廠展