新時代高科技不計其數越來越發達,小伙伴們看過不少科技新聞吧,在我們生活中應該也用到很多這些高科技東西,有哪些小伙伴值的關注的呢,今天就跟大家分享一篇有關科技方面知識,希望大家會喜歡。
機器學習(ML)方面的最新成功導致了人工智能(AI)應用的新潮流,這些應用為各個領域提供了廣泛的好處。但是,這些系統中的許多系統無法向人類用戶解釋其自主決策和行動。對于某些AI應用程序,解釋可能不是必需的,并且一些AI研究人員認為,對解釋的強調是放錯了位置,太難實現甚至可能是不必要的。然而,在國防,醫藥,金融,法律等許多關鍵應用,解釋是必要的,便于用戶理解,信任,并有效地管理這些新的人工智能伙伴[查看最近的評論(1-3)]。
人工智能的最新成功很大程度上歸功于以內部表示構造模型的新ML技術。這些包括支持向量機(SVM),隨機森林,概率圖形模型,強化學習(RL)和深度學習(DL)神經網絡。盡管這些模型表現出很高的性能,但在可解釋性方面卻是不透明的。機器學習性能(例如預測準確性)與可解釋性之間可能存在內在沖突。通常,性能最高的方法(例如DL)是最難以解釋的,而最具解釋性的(例如決策樹)則是最不準確的。圖1用一些ML技術的性能-可解釋性折衷的概念圖說明了這一點。
可解釋的AI(XAI)系統的目的是通過提供解釋使人類的行為更易于理解。有一些通用原則可以幫助創建有效的,更易于理解的AI系統:XAI系統應該能夠解釋其功能和理解;解釋它做了什么,現在正在做什么以及接下來將發生什么;并公開其作用的顯著信息(4)。
但是,每種解釋都在取決于AI系統用戶的任務,能力和期望的上下文中進行設置。因此,可解釋性和可解釋性的定義取決于領域,并且不能獨立于領域進行定義。解釋可以全部或部分。完全可解釋的模型給出完整而完全透明的解釋。部分可解釋的模型揭示了其推理過程的重要部分。可解釋的模型服從根據域定義的“可解釋性約束”(例如,關于某些變量和相關變量的單調性服從特定的關系),而黑盒或不受約束的模型則不一定服從這些約束。部分解釋可能包括重要程度的變化,
用戶的期望
XAI假定根據AI系統的決策,建議或操作向最終用戶提供了解釋,但是可能會有許多不同類型的用戶,通常在系統開發和使用的不同時間點(5)。例如,一種類型的用戶可能是情報分析師,法官或操作員。但是,需要系統解釋的其他用戶可能是開發人員或測試操作人員,他們需要了解可能需要改進的地方。但是,另一個用戶可能是決策者,他們正在嘗試評估系統的公平性。每個用戶組可以具有首選的解釋類型,該解釋類型能夠以最有效的方式傳達信息。有效的解釋將考慮系統的目標用戶組,他們的背景知識和對所要解釋內容的需求可能會有所不同。
解釋性—評估和測量
已經提出了許多評估和衡量解釋有效性的方法。但是,目前尚沒有測量XAI系統是否比非XAI系統更能使用戶理解的通用方法。從用戶的角度來看,這些度量中的一些是主觀度量,例如用戶滿意度,可以通過對說明的清楚性和實用性進行主觀評估來度量。更有效率的客觀解釋可能是任務執行;即,說明是否改善了用戶的決策能力?可靠,一致地衡量解釋的影響仍然是一個開放的研究問題。XAI系統的評估和衡量包括評估框架,共同點[不同的思維和相互理解(6)],常識和論證[為什么(7)]。