![]()
![]()
(1)概念
隨著機器學習和人工智能技術在各個領域中的迅速發展和應用,向用戶解釋算法輸出的結果變得至關重要。人工智能的可解釋性(Explainable Artificial Intelligence,XAI)是指人能夠理解人工智能模型在其決策過程中所做出的選擇,包括做出決策的原因,方法,以及決策的內容。簡單的說,可解釋性就是把人工智能從黑盒變成了白盒。
在學術領域,可解釋性人工智能可以更好的幫助研究人員有效的理解模型做出的決策,從而發現模型做出的決策偏差并且針對性的糾正錯誤,提升模型的性能;可解釋性算法可以找出算法的薄弱點,并針對性的加入噪音來促進算法的魯棒性,例如對抗性學習;可解釋性可以確保只有有意義的變量才能推斷出輸出,來使得決策過程中因果關系更加真實。
![]()
![]()
(2)研究的作用
可解釋性是現在人工智能在實際應用方面面臨的最主要的障礙之一。人們無法理解或者解釋為何人工智能算法能取得這么好的表現。可解釋性人工智能模型的作用主要有:
①可解釋性人工智能可以打破研究和應用之間的差距,加速先進的人工智能技術在商業上的應用:出于安全,法律,道德倫理等方面的原因,在一些管制較多的領域場景例如醫療,金融等,會限制無法解釋的人工智能技術的使用。
②通過可解釋性理解模型做出的決策,找出偏差出現的原因,從而提升模型的性能。
③有助于人工智能模型的使用:可解釋性可以幫助用戶理解人工智能所做出的決策,使得用戶能更有效地使用模型,也能糾正用戶在使用模型時因為不清楚算法所做的事情而產生錯誤的操作;
④可解釋性人工智能能增加用戶的信任度:用戶知道了人工智能決策的依據之后,會更加信任人工智能所做出的政策。
![]()
![]()
(3)可解釋 AI 技術中的關鍵因素
XAI 技術中最重要的因素有三個,預測準確性和可跟蹤性可滿足技術方面的需求,而決策理解可滿足人類需求。
①預測準確性
準確性是在日常運營中成功使用 AI 的關鍵因素。通過運行模擬并將 XAI 輸出與訓練數據集中的結果進行比較,可以確定預測準確性。在這方面,最主流的技術是模型無關的局部解釋 (LIME),它解釋了 機器學習(ML)算法對分類器的預測。
②可跟蹤性
可跟蹤性是實現 XAI 的另一關鍵技術。可通過多種方法實現可跟蹤性,比如通過限制決策的制定方式,以及為機器學習規則和功能設置更小的范圍。可跟蹤性 XAI 技術的一個例子是 DeepLIFT(深度學習重要特征),該算法將每個神經元的激活與其參考神經元進行比較,并顯示每個已激活神經元之間的可跟蹤鏈路,甚至顯示它們之間的依賴關系。
③決策理解
這是指人為因素。許多人對 AI 并不信任,然而,要高效利用 AI,就需要學會信任 AI。通過教導團隊使用 AI,可以建立對 AI 的信任,這樣他們就能理解 AI 如何決策以及為何做出此等決策。
新聞傳播學專業公眾號
微信號 : media-power
▇ 新傳考研智庫 洞察社會脈動
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.