人工智能

可解釋AI為什么是下一次關(guān)鍵浪潮?

ainet.cn   2022年02月17日

  隨著以機器學(xué)習(xí)為代表的新一代人工智能技術(shù)不斷朝著更加先進(jìn)、復(fù)雜、自主的方向發(fā)展,我們的經(jīng)濟和社會發(fā)展都紛紛迎來了變革性的機遇。

  但與此同時,AI算法的透明度、可解釋性問題也為公眾信任、公共安全等諸多領(lǐng)域帶來了前所未有的挑戰(zhàn)。

  1月11日-14日,由騰訊研究院和騰訊可持續(xù)社會價值事業(yè)部(SSV)聯(lián)合主辦的“騰訊科技向善創(chuàng)新周”在線上舉辦?!巴该骺山忉孉I——打開黑箱的理念與實踐”作為本屆創(chuàng)新周的第一個專題論壇,聚焦討論人工智能的可解釋性與透明度問題。

  本場論壇由騰訊集團副總裁、騰訊研究院總顧問楊健主持。會上,騰訊研究院秘書長張欽坤、優(yōu)圖實驗室人臉識別技術(shù)負(fù)責(zé)人丁守鴻首先共同發(fā)布了《可解釋AI發(fā)展報告2022》,隨后由加拿大皇家科學(xué)院&加拿大工程院兩院院士楊強老師、南方科技大學(xué)計算機科學(xué)與工程系系主任姚新老師、廈門大學(xué)人文學(xué)院朱菁院長、騰訊AI Lab顧問吳保元老師、京東探索研究院算法科學(xué)家何鳳翔老師、天衍實驗室負(fù)責(zé)人鄭冶楓老師,共同參與了關(guān)于可解釋AI的圓桌討論。

  以下為圓桌研討環(huán)節(jié)的整理文章:

  可解釋AI的概念共識

  姚新:

  大家在討論AI算法的透明性和可解釋性的時候,首先應(yīng)該考慮三個W的問題——Who,What和Why的問題。

  首先,到底是對誰講透明和可解釋?因為從科學(xué)研究來說,任何一個研究都必須透明,都必須可解釋,否則這個論文是發(fā)不出來的。所以我猜過去講透明性和可解釋性,可能不是對科學(xué)家來說的可解釋性或者透明性,因為對科學(xué)家的透明性和可解釋性,不一定對大眾透明和可解釋。第二是解釋什么?解釋模型做出來的結(jié)果還是解釋這個模型的工作原理。第三,解釋總是有一個目的,目的是要追責(zé)還是理解這個模型的科學(xué)原理。

  根據(jù)對這三個W不同的答案,會得出非常不一樣的透明性和可解釋性,相應(yīng)的解決辦法可能也完全不一樣。不管怎樣,考慮透明性和可解釋性的時候,首先大家要有一個概念上的共識,使得我們知道我們是講同樣一件事情,而不是用了同樣一個名詞,大家在不同的抽象層次講不同的問題。

  吳保元:

  可解釋是可信AI的重要組成部分,是可信的前提條件之一,但是相比于魯棒性、公平性等可信特性,我覺得可解釋不是獨立存在的概念。就是姚老師剛才提到的,我們到底在解釋什么?其他的特性都是有自己明確的數(shù)學(xué)定義,比如魯棒性、公平性等,但是可解釋性是沒有的,因為我們單獨提到它的時候,背后默認(rèn)的更可能是對模型準(zhǔn)確度的可解釋性。或許這也可以解釋為什么當(dāng)前的可解釋研究思路這么多,但是好像沒有一個明確的框架,我覺得最主要的原因是它的解釋對象不一樣,沒有辦法統(tǒng)一到一起。

  基于這種理解,我個人有一點小的想法,不應(yīng)該把它稱為可解釋性,把它稱為可解釋力或許更準(zhǔn)確??山忉屝?,大家可能誤認(rèn)為它是一種獨立存在的性質(zhì);可解釋力是一種可解釋的能力,就像我們說的理解力、領(lǐng)導(dǎo)力等等,它是一種手段,一種行為,一種操作存在,需要跟別的綁在一起。我覺得以后提到它的時候,應(yīng)該準(zhǔn)確地描述它是針對什么特性的可解釋力,而不是籠統(tǒng)地說可解釋性如何。

  可解釋AI的價值何在?

  朱菁:

  人們對于人工智能系統(tǒng)可解釋性、透明性的要求,大致有四個層次:

  第一個針對的是直接用戶,用戶需要了解人工智能產(chǎn)品、服務(wù)背后的原理是什么,這是建立可信任AI的重要基礎(chǔ)。可解釋AI,實際上支撐了可信任AI。

  第二個層次,對于政策和監(jiān)管部門,他們希望通過解釋原理來了解人工智能產(chǎn)品的公平性、可問責(zé)性,歸因的過程是我們進(jìn)一步問責(zé)、追究責(zé)任的基礎(chǔ)。所以,可解釋AI也與負(fù)責(zé)任的AI、可問責(zé)的AI是聯(lián)系在一起的。

  第三個層次就是技術(shù)工程與科學(xué)層次,我們希望了解為什么某些算法能夠成功,它成功背后的奧秘是什么,它的應(yīng)用范圍是什么,它能否在更大的范圍內(nèi)使用這樣一些算法或者是一些技術(shù)。

  第四個是公眾理解AI,如果社會大眾大多數(shù)關(guān)心的話,他也能夠在這方面了解相應(yīng)的技術(shù)、系統(tǒng)大體的工作原理方式是什么。

  何鳳翔:

  在現(xiàn)在的AI系統(tǒng)中,其實很多算法背后運作機制是未知的,是不清楚的,這種未知帶來了未知的、難以管理的風(fēng)險,包括安全性、魯棒性、隱私保護(hù)、公平性等等。

  這些點關(guān)系到了社會運轉(zhuǎn)中非常關(guān)鍵、人命關(guān)天的領(lǐng)域,比如醫(yī)療、自動駕駛。這會帶來很大的應(yīng)用方面的困難,以及社會對AI的不信任。因為當(dāng)AI算法運作機制是未知的時候,它的風(fēng)險機制、風(fēng)險大小、風(fēng)險尺度就是未知的,我們就難以去管理風(fēng)險,進(jìn)而去控制風(fēng)險。

  可解釋AI的挑戰(zhàn)何在?

  姚新:

  原來我一個學(xué)生跟我做了一點關(guān)于公平性的工作,跟其他的文獻(xiàn)發(fā)現(xiàn)的點非常一致,就是說模型的準(zhǔn)確性和公平性之間是相互矛盾的。性能最好的模型從公平性的角度來說,按指標(biāo)來測量不見得最好,你要把模型做得都是最公平,用指標(biāo)來衡量的話,它的性能就會受到損失。實際上可解釋性非常類似現(xiàn)在有各版的可解釋性指標(biāo),但是要真正考慮這些指標(biāo)的話,模型的性能總是會掉下來,要考慮在實際過程中怎么來找一個折中的方案。

  吳保元:

  針對可解釋性本身的不可行、不可取,這也是值得我們思考的問題。比如說我們在研究犯罪率或者說疾病的傳播率、發(fā)病率等,如果我們就拿現(xiàn)成的統(tǒng)計數(shù)據(jù),比如在不同種族、不同地域采集的數(shù)據(jù),很有可能會得出來某些種族或者某些地域犯罪率很高,這是因為數(shù)據(jù)采集的時候就是這樣的。這樣一來,如果可解釋給出的類似結(jié)論被公開,可能會造成種族或者地域歧視。但實際上數(shù)據(jù)背后是我們在采集的時候沒有采集其他特性,比如說為什么這個地域的傳播率很高呢?很有可能是政府投入不足,或者說其他的因素。

  所以這也啟發(fā)我們可解釋性本身它的可信性是什么,它的準(zhǔn)確性,它的公平性,它是否忽略了某些特征,或者夸大了某些特征,它的魯棒性,是不是把樣本變化一點,它的可解釋性截然相反,這些需要我們進(jìn)一步思考。

  另外,我跟很多研究可解釋的專家聊過,他們的困惑在于現(xiàn)在的可解釋性方法是不可印證的,甚至是矛盾的,這就引出了可解釋性方法本身的可信度的問題。

  何鳳翔:

  在我看來,理解深度學(xué)習(xí)算法的運作機制,大致有理論和實踐兩條路徑。在理論方面,當(dāng)前的研究無法完全解釋理論上泛化性較差的深度模型為何能在多領(lǐng)域取得如此的成功。這種理論與實踐的矛盾,就像曾經(jīng)物理學(xué)中的烏云一樣,反映出來了人們對于機器學(xué)習(xí)理解的缺失,而這是現(xiàn)在在理論上提升算法可解釋性的一個難點。

  而在實驗角度上,很多實驗學(xué)科中的做法可以作為對于機器學(xué)習(xí)研究的啟發(fā),比如說物理學(xué)、化學(xué),以及剛才提到的醫(yī)療。比如說藥物研發(fā)流程中的合格檢驗,要做雙盲實驗;在物理學(xué)、化學(xué)的研究中,對控制變量實驗有嚴(yán)格要求。類似的機制是否能在AI研究中嚴(yán)格執(zhí)行呢?我覺得這可能是另外一條路徑。在我看來,現(xiàn)有的很多對于AI算法的解釋是啟發(fā)式的,而在關(guān)鍵領(lǐng)域中我們需要的是證據(jù),這需要在理論和實驗兩方面做很多工作。

  可解釋AI如何實現(xiàn)?

  朱菁:

  前面很多專家都指出對于解釋有不同的目標(biāo),不同的對象,不同的要求,所以實際上關(guān)于人工智能的可解釋性問題可能是屬于多元性的,就是要允許有多種不同層次不同方式的解釋在這里面起作用,針對不同的領(lǐng)域、不同的對象,使用不同解釋的方式。

  當(dāng)可解釋性有它的局限或者和其他的目標(biāo)、要求,需要做出權(quán)衡取舍的時候,我們想也可以從多個層面來進(jìn)行替代性的,或者說是補償性、補充性的策略。比方說針對監(jiān)管部門,它對于可解釋性的要求,和面向公眾或者專家層面的,會有所不同,所以這個可以通過若干個層次,比如說監(jiān)管部門的,行業(yè)的,市場的,以及傳播普及層面的,對于安全性、魯棒性要求更高一些,或者在專家層面上有更好的溝通理解,而對于社會公眾而言,這里面就需要有一些轉(zhuǎn)換,同時有需要一些權(quán)威部門,有公信力的部門,向社會做一些說明和認(rèn)定。

  姚新:

  深度神經(jīng)網(wǎng)絡(luò)可以解決特別復(fù)雜的問題,我覺得現(xiàn)在大家用深度網(wǎng)絡(luò)有一個原因,即所針對的問題本身可能就比較復(fù)雜。這是一個假設(shè)。假如這個假設(shè)是對的話,那么相應(yīng)的可解釋性不會特別好理解。因為需要對付這些復(fù)雜性,相應(yīng)的模型就必然是要復(fù)雜。

  所以我總覺得透明性、可解釋性和性能之間是有一個固有的矛盾,如果現(xiàn)在把從技術(shù)上討論的方向,是怎么找一個折中方案,根據(jù)不同的場景、可解釋的目的,找不同折中方案,這樣導(dǎo)致有可能會出來一些比較具體的技術(shù),或者可以促進(jìn)這些技術(shù)往落地的方向走。

  吳保元:

  我們嘗試過一些從技術(shù)上可行的方案去量化各種可信特性,但是,要實現(xiàn)統(tǒng)一量化很困難,比如說公平性和魯棒性都有不同的量化準(zhǔn)則和指標(biāo)。當(dāng)把不同的特性簡單組合到一起的時候很難優(yōu)化,因為它們的準(zhǔn)則是高度不對齊的,差異非常大,這就涉及怎么去對齊這些特性坐標(biāo)。我認(rèn)為想要找到一個全局坐標(biāo)系是非常困難的。我們可以從局部出發(fā),針對某種場景,比如醫(yī)療場景,首先把隱私性當(dāng)做前提,在金融或者自動駕駛,我們把魯棒性當(dāng)做前提,然后再去研究其他特性,或許一步一步能夠找到這種坐標(biāo)系。

  可解釋AI的技術(shù)現(xiàn)狀?

  鄭冶楓:

  總體來說,因為我們現(xiàn)在還缺乏非常好的理論框架,所以可能針對問題,我們創(chuàng)造性地想一些算法,試圖提高本身這個系統(tǒng)的可解釋性,給大家舉兩個例子來說明一下我們天衍實驗室在這方面的探索。

  深度學(xué)習(xí)可能有千億、萬億的參數(shù),這對于醫(yī)生來說太復(fù)雜了,他很難理解這個算法的底層原理,算法本身可能缺乏一個全局的可解釋性。但是深度學(xué)習(xí)框架準(zhǔn)確率非常高,所以我們不可能不用。而可解釋性非常好的模型就是回歸模型,這類模型主要的問題就是準(zhǔn)確率太低。所以我們做了一個探索,我們希望把這兩個模型結(jié)合起來,它具有非常高的準(zhǔn)確率,還有一定的可解釋性,不是完全可解釋性。

  我們把這個混合模型用于疾病風(fēng)險預(yù)測,就是根據(jù)病人歷次的就診記錄,我們預(yù)測病人在未來6個月之內(nèi)得某個重大疾病的概率,比如他得卒中的概率。病人每一次的就診記錄包含大量信息,這里面我們需要提取一些跟預(yù)測目標(biāo)相關(guān)的重要信息,我們知道深度學(xué)習(xí)網(wǎng)絡(luò)最擅長的就是自動特征學(xué)習(xí)。所以我們利用深度學(xué)習(xí)網(wǎng)絡(luò)把一次就診記錄壓縮成一個特征的向量,接著我們利用回歸模型,把病人多次就診記錄綜合起來預(yù)測未來6個月之內(nèi)這個病人得腦卒中的風(fēng)險。

  這里我們用的是稀疏線性回歸模型,從病人幾十次、上百次過去歷年就診記錄里面,選取幾次與預(yù)測目標(biāo)最相關(guān)的就診,選擇這幾例就診,我們會給它相應(yīng)的權(quán)重。所以這種稀疏線性回歸模型的可解釋性非常好,因為它只關(guān)注很少的變量,普通人都能很好理解它,用哪幾次就診記錄,做信息加權(quán),得出最后的風(fēng)險估計。這是一個全局性的可解釋性,比深度學(xué)習(xí)好很多。

  楊強

  我們在審視各個算法和它對應(yīng)的可解釋性的關(guān)聯(lián)問題上,發(fā)現(xiàn)一個有趣的現(xiàn)象,比方說在機器學(xué)習(xí)里面,深度學(xué)習(xí)就是屬于效率非常高的,但是它卻對應(yīng)的可解釋性很差。同樣,線性模型沒有那么高,但是它的可解釋性相對強一些,樹狀模型也是,因果模型更是這樣。所以往往我們確實得做一個取舍,就是我們在可解釋這個維度和高效率這個維度,在這個空間里面選擇哪一個點,現(xiàn)在并沒有在兩個維度都高的這樣一個算法。

  可解釋AI的行業(yè)實踐

  鄭冶楓

  各行業(yè)對可解釋性和透明性的要求不同,我結(jié)合醫(yī)療AI這個場景給大家分享一下我的體會和理解。大家知道醫(yī)療在全世界范圍內(nèi)都是被強監(jiān)管的領(lǐng)域,一款醫(yī)療產(chǎn)品要上市必須拿到醫(yī)療器械注冊證,輔助診斷算法AI產(chǎn)品屬于三類醫(yī)療醫(yī)療,也就是監(jiān)管最嚴(yán)格的級別,所以我們要披露的信息很多,大致包括數(shù)據(jù)集和臨床算法驗證兩方面。前者主要強調(diào)數(shù)據(jù)集的公平多樣性和廣泛覆蓋性,后者則重視披露我們的算法真正在臨床試驗中、真正臨床應(yīng)用的時候它的性能。

  此外,我們的測試樣本也需要有很好的多樣性,覆蓋不同醫(yī)院,不同區(qū)域,不同病人群體、廠商、掃描參數(shù)等等。臨床實驗更加嚴(yán)格,首先我們要固化算法的代碼,在臨床試驗期間是不能改代碼的,因為你不能一邊做實驗一邊改代碼,這就失去了臨床試驗的意義。

  所以醫(yī)療AI的監(jiān)管是非常強的,藥監(jiān)局需要我們披露很多信息,提高醫(yī)療AI產(chǎn)品的透明性,它有非常嚴(yán)格甚至苛刻的書面要求。因為我們知道深度學(xué)習(xí)網(wǎng)絡(luò)天然不具有很好的解釋性,雖然你可以做一些中間增強,可以一定程度上改善這些事情,監(jiān)管也可以理解這個解釋性差一點,正因為解釋性差,要求的透明性就越高。

  何鳳翔:

  我覺得提供AI系統(tǒng)的說明書有兩個路徑.第一個路徑從生成AI系統(tǒng)的過程出發(fā)。這一點現(xiàn)在有一些實踐,比如開源代碼,說明使用了什么數(shù)據(jù),數(shù)據(jù)是如何使用的、如何預(yù)處理的。這會提升人們對AI的信任和理解,這也像剛才鄭老師提到,申請醫(yī)療相關(guān)的資質(zhì)的時候,我們需要把生產(chǎn)細(xì)節(jié)匯報給相關(guān)機構(gòu)。

  第二種方式就是從生成的AI系統(tǒng)所做出的預(yù)測以及決策的指標(biāo)來入手做算法的說明書。比方對AI系統(tǒng)做一些測評。對于剛才我們提到的指標(biāo),包括可解釋性、魯棒性、準(zhǔn)確性、隱私保護(hù)、公平性,找到一些比較好的量化指標(biāo)、找到一些評測算法,把這些指標(biāo)作為AI系統(tǒng)的使用說明書。

  可解釋AI的未來發(fā)展

  楊強:我期待在未來人工智能的治理,在人工智能,人和機器這種和諧共存,共同解決我們要解決問題的前提下,會越來越成熟。我是非??春眠@個領(lǐng)域的。

  朱菁:我期待這個領(lǐng)域進(jìn)一步的探討,不同領(lǐng)域的學(xué)者都能夠參與進(jìn)來。比如說像我自己做的主要是哲學(xué),科技哲學(xué)。在科技哲學(xué),實際上對于解釋有將近一百年的積累和探索,這里面應(yīng)該有很多可以發(fā)掘借鑒的資源,參與到目前這樣一個很有意思很有挑戰(zhàn)性的話題里面。

  何鳳翔:

  AI本身是一個跨學(xué)科領(lǐng)域,它可能會用到很多數(shù)學(xué)、統(tǒng)計、物理、計算機等各個知識的領(lǐng)域,今天提到的很多點,包括隱私保護(hù)、公平性,很多也是來源于人文學(xué)科、法律、社會學(xué)這些方面。所以這就意味著研究可信AI以及可解釋性等等方面會需要各個學(xué)科領(lǐng)域的人合作起來一起去做的一件事情,會非常需要大家的通力合作,共同推進(jìn)這個領(lǐng)域的發(fā)展。

  姚新:

  對于做研究來說,我希望將來可以有一點聚焦的討論。我剛才講的3W,到底我們要解決透明性、可解釋性的哪一部分,對誰而言。假如對醫(yī)療而言,是對法規(guī)的制定者來說還是對醫(yī)生來說,還是對病人來說,還是對這個系統(tǒng)的開發(fā)者來說?我覺得在這里面有非常多可以發(fā)揮自己的想象力和能力的地方。

  吳保元:

  希望今后的AI研究者具備綜合的思考能力,不僅僅關(guān)注于某一個特性,比如說關(guān)注準(zhǔn)確度。希望把可信當(dāng)做一個前提條件,多種特性之間的關(guān)聯(lián),大家是值得思考的。希望AI的研究者和人文學(xué)者多多交流,開拓視野。對于公眾和政府來講,希望通過討論也可以了解到當(dāng)前發(fā)展的現(xiàn)狀,希望有一種包容的心態(tài)了解這個領(lǐng)域。

  鄭冶楓:

  對算法人員來說,當(dāng)然我們希望將來科學(xué)家們找到非常好的,具有良好可解釋性,同時準(zhǔn)確性非常高的算法,真正做到魚和熊掌兼得。

(轉(zhuǎn)載)

標(biāo)簽:人工智能 我要反饋 
泰科電子ECK、ECP系列高壓直流接觸器白皮書下載
ABB協(xié)作機器人,自動化從未如此簡單
優(yōu)傲機器人下載中心
億萬克
專題報道
聚力同行 · 新智“碳”索
聚力同行 · 新智“碳”索

“新華社-智能·零碳”項目策劃以“聚力同行·新智‘碳’索”為主題的新能源專題,主要圍繞光伏、儲能、鋰電、氫能、風(fēng)能五大新... [更多]

2025中國國際機床展覽會
2025中國國際機床展覽會

4月21至26日,以“融合創(chuàng)新,數(shù)智未來”為主題的第十九屆中國國際機床展覽會在首都國際會展中心盛大舉辦。憑借場館的卓越服... [更多]

2023-2024 智能·零碳成果展映
2023-2024 智能·零碳成果展映

“2023-2024智能·零碳成果展映”展示國內(nèi)外企業(yè)推進(jìn)“雙碳”實踐的最新成果,鼓勵更多企業(yè)、科研機構(gòu)、投資機構(gòu)等廣泛... [更多]