這是我們許多人在童年時都會遇到的問題:“你為什么要這么做?”隨著人工智能(AI)開始越來越多地做出影響我們生活的重要決定,我們也希望這些機器能夠回答這個簡單而深刻的問題。畢竟,我們為什么要相信人工智能的決定呢?
這種渴求令人滿意解釋的想法促使美國國家標準與技術研究院(NIST)的科學家們提出了一套評判原則,通過這些原則我們可以判斷人工智能是如何解釋它所做的決定的。他們發布的草案《可解釋人工智能的四個原則》(NISTIR 8312草案),旨在激發一場關于我們應該對AI決策系統有何等期望的討論。
根據作者的觀點,可解釋人工智能決策的四個基本原則是:
? 人工智能系統應該為其所有決策結果提供相應的證據或理由
? 系統應該提供對使用者有意義和可理解的解釋
? 該解釋需正確反映AI系統進行決策的過程
? 系統僅在設計的條件下或當系統對其決策結果達到足夠的置信度時運行。(其理念是,如果系統對其決策結果沒有足夠的信心,它就不能向用戶提供決策。)
該報告是NIST幫助開發“可信”人工智能系統的一部分。NIST的基礎研究旨在通過理解AI系統的理論功能和局限性,以及提高它們的準確性、可靠性、安全性、穩定性和可解釋性來建立對AI系統的信任,這將是該報告重點討論的內容。
草案作者正在征求公眾的反饋意見,因為這個主題涉及范圍非常大,從機械工程、計算機科學到心理學和法律研究都有所涵蓋,所以他們希望可以對此進行廣泛的討論。
該草案的作者之一,NIST電子工程師喬納森·菲利普斯說:“人工智能越來越多地參與到高風險的決策中,沒有人希望機器在不了解原因的情況下做出決定。但是一個能讓工程師滿意的解釋可能并不適用于其他職業背景的人。因此,我們希望能從不同的角度和觀點來完善這個草案?!?
理解人工智能系統做出決策背后的原因可以使決策所涉及的每個人都受益。例如,如果人工智能有助于改進貸款批準決策,那么這種理解可以幫助軟件設計師改進系統。同時申請人也會想深入了解人工智能的推理過程,或許是想知道為什么被銀行拒絕,或許是在貸款批準后幫助申請人繼續保持良好的信用評級。 菲利普斯說,雖然這些原則看起來很簡單,但使用者通常有不同的標準來判斷人工智能是否成功地滿足了他們的需求。例如,第二個原則中的“解釋”有多種含義,對不同的人來說有不同的意義,這取決于他們的角色同人工智能工作之間的聯系。
提到《星際迷航》中的角色時,菲利普斯說:“想想柯克和史波克他們是如何交談的,使用人工智能系統來協助診斷疾病的醫生可能只需要史波克解釋為什么這臺機器會推薦其中一種特殊的治療方法。而病人可能不太需要知道其中的技術細節,但他們會希望了解柯克的背景,了解柯克與他的生活有何關系?!?
菲利普斯和他的合著者們將可解釋AI決策依據的概念與之前AI的相關工作聯系起來,同時他們也將人類對機器的可解釋性的要求與人類對自己的要求進行了比較。我們的設定是否達到了人類對AI的需求?在使用報告的四個原則探索了人類的決策支撐過程后,作者得出結論——我們的設定沒有達到。
研究員們引用了幾個例子,寫道:“人類對自己做出的選擇和推論的解釋在很大程度上是不可靠的。在沒有意識的情況下,人們會將不相關的信息整合到各種決策中,從人格特質判斷到陪審團裁決都會有這樣的問題?!?
然而,這種意識上的顯著的雙重標準體系最終會幫助我們更好地理解自己所做的決定,并創造一個更安全、更透明的世界。
利普斯說:“隨著在AI可解釋性研究方面取得的進步,我們可能會發現人工智能系統的某些部分比人類自己更能滿足社會的期望和目標?!彼^去的研究表明,人類和人工智能之間的合作比任何一方單獨工作都能產生更高的準確性?!袄斫馊斯ぶ悄芟到y和人類決策行為的可解釋性為人類與AI不斷融合各自優勢的實現打開了大門?!?
菲利普斯說,目前作者希望他們收到的評論能推進這一課題的討論更深一步展開。他說:“我認為我們尚不清楚什么才是正確的解釋基準。說到底,我們并不是想回答所有的問題,而是努力地充實這一領域,從而讓我們的討論富有成效?!?