<tt id="vwe5b"></tt>
      1. <tfoot id="vwe5b"><progress id="vwe5b"></progress></tfoot><abbr id="vwe5b"></abbr>

      2. 91人人妻,99偷拍,碰碰免费视频,亚洲中文字幕AV,丝袜a片,91纯肉动漫,中文无码日,伊人福利导航

        急性精神病護理中基于機器學習的攻擊性預測公平性分析:揭示模型偏見與社會結構性不平等

        《npj Mental Health Research》:Fairness analysis of machine learning predictions of aggression in acute psychiatric care

        【字體: 時間:2026年03月03日 來源:npj Mental Health Research

        編輯推薦:

          本研究聚焦于機器學習(ML)在預測急性精神病患者攻擊性風險時可能存在的算法不公問題。為彌補此領域研究的空白,研究團隊基于17,703名患者的電子健康記錄,訓練了一個隨機森林(RF)模型,并系統(tǒng)評估了模型在不同種族/民族、性別、入院模式、公民身份和住房狀況等子群體中的預測公平性。結果顯示,該模型盡管取得了ROC-AUC=0.81的預測性能,但在中東裔、黑人、男性、被警方送入急診、住房不穩(wěn)定等弱勢群體中存在顯著的假陽性率(FPR)和真陽性率(TPR)差異。這一研究揭示了ML模型在臨床應用中可能放大現(xiàn)有社會不平等的重要風險,強調了在模型部署前評估和解決公平性問題的至關重要性。

          
        在急性精神病護理環(huán)境中,患者的攻擊性行為——包括辱罵、騷擾乃至肢體暴力——是一個嚴峻的挑戰(zhàn)。它不僅威脅到醫(yī)護人員和患者自身的安全,也影響到醫(yī)療質量和公眾對精神健康的認知。為應對這一風險,臨床上有時會使用藥物(化學約束)或物理約束等手段,但這些強制干預措施本身也可能對患者造成創(chuàng)傷性體驗。近年來,機器學習(ML)技術被寄予厚望,它能夠利用復雜的臨床數(shù)據(jù),對患者未來的攻擊風險進行個性化預測,從而為早期、精準的非強制干預提供可能,有望改變這一困境。然而,一個被忽視的關鍵問題是:這些看似“智能”的預測模型,真的對所有人都公平嗎?會不會因為患者的種族、性別或社會經濟背景,而產生帶有偏見的預測?
        這正是發(fā)表在《npj Mental Health Research》上的研究“Fairness analysis of machine learning predictions of aggression in acute psychiatric care”所要回答的核心問題。已有研究表明,在刑事司法再犯預測和醫(yī)療資源分配等領域,ML算法對黑人、低收入人群等邊緣化群體存在不公平現(xiàn)象。在精神病學領域,用于評估攻擊風險的數(shù)據(jù)(如警方非自愿送醫(yī)記錄、臨床風險評估量表評分)本身就深深嵌入了社會結構性不平等。如果算法不加甄別地學習了這些帶有偏見的數(shù)據(jù)模式,那么其預測結果很可能不是發(fā)現(xiàn)風險,而是復制和放大社會對特定群體的既有偏見。為了系統(tǒng)探究這一風險,一個研究團隊開展了一項迄今為止在急性精神病護理領域最為全面的ML預測公平性評估。
        研究人員為開展此項研究,主要運用了以下幾項關鍵技術方法:首先,研究利用了加拿大成癮與心理健康中心(CAMH)在2016年1月至2022年5月期間,17,703名急診入院患者的電子健康記錄(EHR),構建了一個包含42,719個觀察日的大型、臨床異質性數(shù)據(jù)集。其次,他們訓練了一個隨機森林(RF)機器學習模型,其預測任務是基于人口統(tǒng)計學、臨床特征和情境因素,來預測患者在給定日期內是否會發(fā)生攻擊事件或導致約束措施的使用。最后,也是本研究最核心的部分,是采用了基于“均衡幾率”標準的公平性評估框架,重點分析了模型在不同種族/民族、性別、入院模式、公民身份和住房狀況等敏感屬性亞組中的假陽性率(FPR)和真陽性率(TPR)差異,并進一步進行了種族/性別交叉性公平分析。
        模型性能與關鍵預測因子
        研究訓練出的最優(yōu)模型是一個包含200個估計器的隨機森林(RF)模型,其在獨立測試集上取得了ROC-AUC(受試者工作特征曲線下面積)為0.81的良好預測性能。對模型特征重要性的分析顯示,情境性攻擊動態(tài)評估量表(DASA)的條目(特別是“易怒”項),以及患者在入院前是否發(fā)生過攻擊事件或受到約束,是預測未來攻擊行為最重要的特征。
        公平性評估揭示顯著差異
        公平性分析表明,該模型的預測在不同亞組間存在顯著的不公平現(xiàn)象,違反了“差異誤處理”和“均衡幾率”的公平準則。假陽性率(FPR)在中東裔和黑人患者、男性、被警方送入急診的患者、加拿大公民以及住房不穩(wěn)定或居住在支持性住房的患者中明顯更高。例如,中東裔患者的FPR最高,其次是黑人患者;男性的FPR高于女性和性別多元者;被警方送醫(yī)者的FPR遠高于其他入院方式群體。
        交叉性分析凸顯復雜偏見
        當同時考慮種族和性別時,不公平的模式更為復雜。中東裔男性的FPR在所有交叉組別中最高,并且存在顯著的性別差異(中東裔男性的FPR遠高于中東裔女性)。黑人男性和原住民男性的FPR也相對較高,并且他們的TPR也傾向于高于同種族的女性。在所有種族/民族中,男性的交叉性FPR均等于或高于女性。
        結論與重要意義
        這項研究得出的核心結論是:用于預測急性精神病護理中攻擊行為的機器學習模型,如果不在開發(fā)與評估階段充分考慮公平性,將極有可能對特定的社會弱勢群體造成不公正的預測結果。這種算法不公并非技術缺陷的偶然,而是深層社會與結構性不平等在數(shù)據(jù)中的反映與放大。例如,黑人在獲得門診治療方面的障礙、更高比例的非自愿入院,以及警方對種族邊緣化和原住民群體更高頻率的非自愿送醫(yī),這些社會現(xiàn)實都可能被編碼進訓練數(shù)據(jù),進而導致模型對這些群體做出更多錯誤的危險預測(高FPR)。同樣,不穩(wěn)定的住房狀況可能與一系列行為表現(xiàn)相關,這些表現(xiàn)在臨床量表(如DASA)上被記錄為攻擊性前兆,從而推高了相關患者的風險預測分數(shù)。
        該研究的重大意義在于,它首次在急性精神病學背景下,如此廣泛而深入地評估了ML預測模型跨越多重社會人口屬性(包括交叉性屬性)的公平性。它有力地警示,在臨床實施此類預測模型之前,進行嚴格的公平性評估不可或缺。否則,算法不僅無法成為普惠的工具,反而可能淪為加劇健康不平等的幫兇——一個針對弱勢群體的假陽性預測,可能導致不必要的強制干預,破壞治療關系,甚至可能引發(fā)原本不會發(fā)生的攻擊事件。
        研究同時指出,解決算法公平性問題不能僅靠技術性的“去偏見”方法,因為這些方法通常以現(xiàn)有的、可能已帶有偏見的數(shù)據(jù)標簽為“真實”標準。更深層次的挑戰(zhàn)在于,我們需要首先從社會層面界定“一個公平的算法應該怎樣行為”。這意味著,理解和解決ML的公平性問題,必須超越純算法的范疇,將其置于更廣闊的社會技術系統(tǒng)(Sociotechnical System)中,結合定性研究等方法,深入探究不公平現(xiàn)象背后的社會結構根源。因此,未來在精神病學及其他臨床領域的機器學習研究中,應將公平性作為模型評價的核心維度,并在數(shù)據(jù)收集階段就注重獲取高質量、細致的人口統(tǒng)計學信息,為公平性分析和更公正的算法開發(fā)奠定基礎。
        相關新聞
        生物通微信公眾號
        微信
        新浪微博

        知名企業(yè)招聘

        熱點排行

          今日動態(tài) | 人才市場 | 新技術專欄 | 中國科學人 | 云展臺 | BioHot | 云講堂直播 | 會展中心 | 特價專欄 | 技術快訊 | 免費試用

          版權所有 生物通

          Copyright© eBiotrade.com, All Rights Reserved

          聯(lián)系信箱:

          粵ICP備09063491號