<tt id="vwe5b"></tt>
      1. <tfoot id="vwe5b"><progress id="vwe5b"></progress></tfoot><abbr id="vwe5b"></abbr>

      2. 91人人妻,99偷拍,碰碰免费视频,亚洲中文字幕AV,丝袜a片,91纯肉动漫,中文无码日,伊人福利导航

        AI代理的低感知溫度如何削弱人機信任:一項社會認知維度的實證研究

        《Scientific Reports》:Low perceived warmth of AI agents reduces trust towards them

        【字體: 時間:2026年03月03日 來源:Scientific Reports 3.9

        編輯推薦:

          【編輯推薦】人工智能(AI)作為新型社會主體,其人機信任機制亟待闡明。本研究以美國代表性居民為樣本(N=400),在信任博弈中操控受托人(人類與AI)的溫度與能力維度,探究社會感知基本維度如何影響對人/對AI的信任差異。結果表明,AI受托人總體信任度低于人類,尤其在低溫度條件下更為顯著。這提示溫度是構建可信賴AI系統的關鍵設計要素。

          
        在數字化浪潮奔涌的今天,人工智能(Artificial Intelligence, AI)已不再是科幻作品的專屬,它們正以虛擬助手、客服、乃至決策伙伴等形態,悄然嵌入我們的社會與經濟系統,成為一類全新的“社會行動者”。然而,與人類同事或伙伴不同,我們與這些硅基智能之間的互動,始終籠罩著一層微妙的不確定性面紗。人類社會的順暢運轉,基石在于信任。那么,當我們的合作伙伴從血肉之軀變為代碼與算法,信任將如何產生?是哪些因素在背后默默操控著我們對AI的評判與托付?這不僅是人機交互(Human-AI Interaction)領域的核心學術命題,更是所有AI系統設計者無法回避的實踐挑戰:如何設計出真正值得信賴的AI?
        為了揭開這層面紗,一項研究將目光投向了社會心理學中經典的雙維模型——社會感知(Social Perception)的溫度(warmth,與友好、善意相關)與能力(competence,與效能、技能相關)。長久以來,這兩個維度被視為我們評判他人、形成印象的基石。那么,這套用于衡量同類的“標尺”,是否也同樣適用于我們眼中的AI?更重要的是,AI在這把“標尺”上的表現,會如何深刻地影響我們是否愿意對其“投下信任的一票”?
        發表在《Scientific Reports》上的這項研究,正是為了系統性地回答上述問題。研究團隊沒有停留在理論推演,而是設計了一項嚴謹的行為實驗。他們招募了400名美國居民,確保樣本具有人口統計學上的代表性,以提升研究結論的普遍性。在實驗中,參與者扮演“投資者”的角色,與不同的“受托人”進行經典的信任博弈(Trust Game)。這些“受托人”的身份是關鍵變量:有些被明確標識為“人類”,有些則被標識為“AI代理”。更重要的是,研究者精細地操控了每位“受托人”在溫度與能力兩個維度的表現,從而創造出“高溫度-高能力”、“高溫度-低能力”、“低溫度-高能力”、“低溫度-低能力”等不同組合的虛擬角色。通過測量參與者在博弈中愿意投資給不同受托人的金額,研究者得以量化“信任”這一抽象概念,并精確分析身份(人類 vs. AI)和感知特質(溫度與能力)如何共同塑造信任決策。
        為開展這項研究,研究人員主要采用了問卷調查研究法與實驗行為經濟學范式。研究基于一個具有代表性的美國居民樣本(N=400)。核心方法是在線實施的信任博弈,通過系統性地操控受托人(分為人類和AI兩類)的感知溫度與能力水平,并測量參與者相應的信任行為(以投資金額衡量),從而量化社會感知維度對人機信任差異的影響。
        研究結果
        AI受托人總體上面臨“信任赤字”
        數據分析揭示了一個清晰的總體趨勢:無論感知特質如何組合,AI受托人獲得的信任投資,顯著低于人類受托人。這表明,在當前的社會認知背景下,AI作為一種新型社會主體,在獲取人類信任的起跑線上就處于不利地位,存在一種固有的“信任赤字”。
        “溫度”是決定人機信任鴻溝寬窄的關鍵閥門
        研究最核心的發現在于,身份(人類/AI)與感知溫度之間存在顯著的交互作用。具體而言:
        • 在“低溫度”條件下,AI與人類受托人之間的信任差距被急劇放大。當一個AI被感知為冷漠、不友好時,它遭受的信任懲罰遠超過一個同樣被感知為冷漠的人類。
        • 相比之下,在“高溫度”條件下,AI與人類受托人之間的信任差距雖然依然存在,但顯著縮小。一個被感知為溫暖、善意的AI,能夠部分彌合因其“非人”身份帶來的信任鴻溝。
        “能力”的影響力相對有限且模式不同
        與溫度的強效調節作用形成對比,感知“能力”維度的效應模式有所不同。研究發現,能力對信任有主效應(高能力者通常獲得更多信任),但其與受托人身份(人類/AI)的交互作用并不像溫度那樣顯著。這意味著,無論是人類還是AI,高能力通常都能帶來更多信任,但能力的高低并未顯著改變人類與AI之間信任差距的大小。換言之,提升AI的能力固然能增加對其的信任,但無法像提升其“溫度”那樣,有效緩解因其AI身份導致的信任不足。
        結論與討論
        本研究通過精巧的實驗設計,實證了社會感知的基本維度,特別是“溫度”,在塑造人機信任中扮演著至關重要的角色。結論明確指出:人工智能代理普遍面臨比人類更低的信任水平,而這種“信任鴻溝”在代理被感知為缺乏溫暖(低溫度)時會變得尤為深壑。
        這一發現具有多重重要意義。首先,在理論層面,它將經典的社會認知框架成功應用于新興的人機交互領域,證實了人類在評估AI時,會不自覺地調用與評估人類相似的認知圖式,尤其是對“意圖”和“友善度”(即溫度)的評估,這可能比對其“技能”(即能力)的評估更能影響深層的信任決策。這挑戰了單純強調AI性能與準確性的傳統設計思路。
        其次,在實踐與應用層面,研究為“可信賴AI(Trustworthy AI)”的設計提供了極具價值的指引。它強烈提示,為了構建更易被人類接受和信賴的AI系統,開發者和設計者不能只專注于提升算法的效率、準確性與能力(competence)。相反,必須將“塑造溫暖的感知”提升到戰略高度。這意味著AI的交互設計(如對話語調、響應方式、解釋風格)、外觀呈現乃至決策透明度,都需要有意識地傳遞出友好、善意、為人類利益考慮的“溫度”信號。例如,一個在出錯時能表達歉意、解釋原因并給出后續建議的客服AI,可能比一個僅僅高效準確地報錯但態度冰冷的AI,更能維持用戶的長期信任。
        總之,這項研究猶如一盞明燈,照亮了人機信任構建道路上曾被忽略的關鍵岔口。它告訴我們,要讓AI真正融入人類社會,成為可靠的伙伴,我們或許需要投入與優化算法同等甚至更多的精力,去為這些數字智能“賦予溫度”。因為最終,信任不僅關乎機器“能做什么”,更關乎我們感覺它“愿為何人”。
        相關新聞
        生物通微信公眾號
        微信
        新浪微博

        知名企業招聘

        熱點排行

          今日動態 | 人才市場 | 新技術專欄 | 中國科學人 | 云展臺 | BioHot | 云講堂直播 | 會展中心 | 特價專欄 | 技術快訊 | 免費試用

          版權所有 生物通

          Copyright© eBiotrade.com, All Rights Reserved

          聯系信箱:

          粵ICP備09063491號