siemens x
人工智能

倫理即服務(wù):科技倫理與可信AI的下一個(gè)浪潮

2025China.cn   2021年08月18日

科技倫理成為

“必選項(xiàng)”和“必答題”

  對(duì)于科技行業(yè)而言,科技倫理已是“必選項(xiàng)”和“必答題”??萍紓惱肀粚懭肓耸艑盟闹腥珪?huì)《決定》和《十四五規(guī)劃和2035年遠(yuǎn)景目標(biāo)綱要》,上升到了國(guó)家頂層政策設(shè)計(jì)。在監(jiān)管層面,互聯(lián)網(wǎng)監(jiān)管聚焦人工智能算法應(yīng)用,算法濫用、算法推薦的治理被提上日程,《數(shù)據(jù)安全法》要求數(shù)據(jù)活動(dòng)和數(shù)據(jù)新技術(shù)應(yīng)當(dāng)“符合社會(huì)公德和倫理”。

  科技倫理是科技活動(dòng)必須遵守的價(jià)值準(zhǔn)則,科技公司需要踐行科技倫理。今年5月,在曠視科技IPO過程中,上交所首次對(duì)科技倫理進(jìn)行了問詢,要求曠視披露公司在人工智能倫理方面的組織架構(gòu)、核心原則、內(nèi)部控制及執(zhí)行情況。今年7月28日,科技部發(fā)布《關(guān)于加強(qiáng)科技倫理治理的指導(dǎo)意見(征求意見稿)》,明確了倫理先行、敏捷治理等基本要求,并提出了五項(xiàng)科技倫理原則,同時(shí)要求企業(yè)根據(jù)實(shí)際情況建立科技倫理(審查)委員會(huì),并要求“從事生命科學(xué)、醫(yī)學(xué)、人工智能等科技活動(dòng)的機(jī)構(gòu),研究?jī)?nèi)容涉及科技倫理敏感領(lǐng)域的,應(yīng)設(shè)立科技倫理(審查)委員會(huì)”,此外還要求對(duì)科技人員加強(qiáng)科技倫理培訓(xùn)?!渡钲诮?jīng)濟(jì)特區(qū)人工智能產(chǎn)業(yè)促進(jìn)條例(草案)》要求人工智能企業(yè)“設(shè)立倫理風(fēng)險(xiǎn)崗位”,“履行倫理審查和風(fēng)險(xiǎn)評(píng)估職責(zé)”。

  可信的(trustworthy)、負(fù)責(zé)任的(responsible)、以人為本(human-centric)的人工智能已是AI領(lǐng)域的主旋律。然而,過去幾年這一領(lǐng)域的主要進(jìn)展停留在提出、建立AI倫理原則及相關(guān)框架,較少關(guān)注如何將這些原則轉(zhuǎn)化為AI領(lǐng)域的技術(shù)實(shí)踐。據(jù)不完全統(tǒng)計(jì),全球關(guān)于人工智能原則的文件超過百份。將倫理原則付諸實(shí)踐才能產(chǎn)生現(xiàn)實(shí)的價(jià)值。當(dāng)前,各界已在探索將倫理原則翻譯為實(shí)踐的機(jī)制、做法、工具等,讓人工智能原則操作化、落地化,真正融入、嵌入人工智能研發(fā)流程與業(yè)務(wù)應(yīng)用。這些機(jī)制包括倫理審查委員會(huì)、倫理標(biāo)準(zhǔn)與認(rèn)證、關(guān)于算法透明和倫理檢查的最佳實(shí)踐做法、技術(shù)工具等等,大都處于前期的摸索階段。但這些實(shí)踐具有一定的局限性,受限于成本、效率等因素,難以對(duì)AI領(lǐng)域產(chǎn)生規(guī)?;绊?。借鑒互聯(lián)網(wǎng)領(lǐng)域中的SaaS概念,以倫理工具方式展現(xiàn)的倫理即服務(wù)(ethics as a service)這一全新的理念開始得到重視,推動(dòng)AI倫理產(chǎn)業(yè)化發(fā)展,讓可信AI的普惠化成為可能。

圖1:國(guó)外科技公司成立的科技倫理相關(guān)組織

以倫理即服務(wù)的方式消除倫理

要求與技術(shù)實(shí)踐之間的隔閡

  在此背景下,AI倫理行業(yè)繼續(xù)方興未艾,AI研發(fā)者和使用者對(duì)倫理領(lǐng)域的重視程度也愈發(fā)濃厚,一種新生的實(shí)踐理論呼之欲出:倫理即服務(wù)(Ethics as Service)。2021年初,Jessica Morley等國(guó)外學(xué)者在論文“Ethics as a Service: a pragmatic operationalisation of AI Ethics”中提出了“倫理即服務(wù)”這一概念。簡(jiǎn)言之,“倫理即服務(wù)”旨在運(yùn)用科技工具或其他方式將抽象的倫理原則轉(zhuǎn)譯為具體的服務(wù)措施,以數(shù)字化服務(wù)工具的方式將倫理要求嵌入AI產(chǎn)品與服務(wù)的全生命周期,從而推動(dòng)AI倫理的實(shí)踐和落地。

  盡管該理念的愿景非常美好,希望切實(shí)推動(dòng)AI倫理的實(shí)踐和落地,但距離真正實(shí)現(xiàn)將科技倫理嵌入技術(shù)服務(wù)還存在一些不足。其中,倫理標(biāo)準(zhǔn)的抽象性、不確定性以及多樣性,是制約將倫理轉(zhuǎn)化為服務(wù)工具的首要因素。在眾多關(guān)于倫理框架的文件的描述中,這些倫理原則涉足領(lǐng)域廣泛,其標(biāo)準(zhǔn)涵蓋了透明、公平、責(zé)任、隱私、信任、安全等內(nèi)容。但在實(shí)踐中,這些標(biāo)準(zhǔn)可能會(huì)隨著不同國(guó)家的文化、風(fēng)俗、習(xí)慣而不相一致,也導(dǎo)致AI倫理從概念轉(zhuǎn)化為實(shí)踐存在著較大的理論難題,需要通過國(guó)家立法和行業(yè)標(biāo)準(zhǔn)的“軟硬治理”,消除由概念帶來(lái)的模糊性和不可執(zhí)行性,在抽象原則和技術(shù)工具之間建立起溝通橋梁。

  同時(shí),作者在論文中認(rèn)為,除了倫理定義上的模糊,在實(shí)現(xiàn)AI倫理與技術(shù)耦合過程中,還存在著一些技術(shù)限制:

  首先,倫理轉(zhuǎn)譯的工具和方法大多不具有強(qiáng)檢驗(yàn)性(extra-empirical)。其主要體現(xiàn)在倫理標(biāo)準(zhǔn)的選擇上,AI實(shí)踐者會(huì)傾向于選擇與自身價(jià)值觀和理解認(rèn)識(shí)相一致的倫理工具,而不是與社會(huì)的主流偏好相一致的倫理工具,這意味著開發(fā)者可以自主制定算法實(shí)踐的評(píng)估標(biāo)準(zhǔn),但自身卻不受社會(huì)普世價(jià)值的約束,導(dǎo)致這些轉(zhuǎn)譯工具可能面臨人為操縱的風(fēng)險(xiǎn)。

  其次,許多既存的轉(zhuǎn)譯工具和方法都屬于分析和判斷型(diagnostic),而非規(guī)范和確定型(prescriptive),使得大部分的倫理工具欠缺實(shí)效性。例如,在算法偏見的場(chǎng)景中,倫理工具雖然能夠提示是否存在偏見問題,但卻無(wú)法提供解決偏見的路徑。

  最后,倫理轉(zhuǎn)譯工具通常會(huì)被開發(fā)者用于完成某些程序的一次性測(cè)試(one-off test),只能在系統(tǒng)設(shè)計(jì)之初對(duì)其合乎倫理性進(jìn)行檢測(cè),而無(wú)法在之后對(duì)其進(jìn)行貫穿生命周期的重復(fù)審查。

  因此,作者認(rèn)為,有必要定期檢查算法系統(tǒng)的倫理影響,至少經(jīng)過三個(gè)階段的檢驗(yàn)程序:確認(rèn)、驗(yàn)證、評(píng)估。確認(rèn)程序旨在檢驗(yàn)算法系統(tǒng)的性能是否良好;驗(yàn)證程序旨在檢驗(yàn)算法系統(tǒng)是否遵循了正確的開發(fā)流程;評(píng)估程序旨在檢驗(yàn)算法系統(tǒng)在部署期間是否能保持正確的運(yùn)行狀態(tài)(Floridi, 2019)。有學(xué)者(Arnold & Scheutz, 2018)認(rèn)為,除非倫理評(píng)估成為算法系統(tǒng)的必備選項(xiàng),否則難以使倫理轉(zhuǎn)譯工具(pro-ethical translational tools)對(duì)AI系統(tǒng)的倫理影響(ethical implication)產(chǎn)生積極作用。

  此外,上述對(duì)倫理工具的批判也引發(fā)了人們對(duì)倫理工具的質(zhì)疑,認(rèn)為倫理難以甚至不可能嵌入算法的設(shè)計(jì)、升級(jí)、部署以及使用等算法流程。然而,諸如醫(yī)療倫理、搜索倫理等算法應(yīng)用領(lǐng)域的經(jīng)驗(yàn)表明,將倫理原則付諸AI實(shí)踐并非不切實(shí)際,而且有利于保護(hù)個(gè)人、團(tuán)體、社會(huì)以及環(huán)境免受算法傷害,激勵(lì)A(yù)I產(chǎn)出最優(yōu)的算法結(jié)果。

  作者在文中認(rèn)為,“倫理即服務(wù)”是可實(shí)現(xiàn)、可操作的,但在研發(fā)思路上要滿足以下兩種標(biāo)準(zhǔn):一是在抽象的倫理概念和具象的技術(shù)措施中達(dá)成妥協(xié),也即,倫理原則不必過于抽象,也不必過于具體,倫理轉(zhuǎn)譯工具不能過于嚴(yán)格,也不能過于寬松;二是摒棄一次性、一攬子測(cè)試的倫理審查機(jī)制。

  AI倫理服務(wù)是一項(xiàng)長(zhǎng)期性、持續(xù)性的活動(dòng),不應(yīng)以暫時(shí)性的審查結(jié)果為目標(biāo)。同時(shí),AI的開發(fā)機(jī)制應(yīng)當(dāng)是可回溯、可反思的(reflective),因?yàn)檫@種開發(fā)理念能夠助益AI從業(yè)人員(practitioner)理解自身在特定環(huán)境下的主觀目的(subjectivity)以及潛在偏見,從而揭示有悖于倫理的算法結(jié)果為何出現(xiàn),也有利于對(duì)此類結(jié)果制定合適的解決方案。上述思路對(duì)于倫理服務(wù)工具的設(shè)計(jì)、開發(fā)以及應(yīng)用而言,也極具啟發(fā)意義。

AI倫理服務(wù)產(chǎn)業(yè)方興未艾,

為AI產(chǎn)業(yè)補(bǔ)上缺失的一環(huán),

助力可信AI發(fā)展

  開發(fā)倫理工具是提供倫理服務(wù)的基礎(chǔ),也是讓抽象的倫理原則操作化的重要方式。為此,在國(guó)內(nèi),谷歌、微軟、IBM等頭部科技公司開始積極研發(fā)倫理工具,越來(lái)越多的初創(chuàng)公司也開始投身于AI倫理市場(chǎng),AI倫理開啟了由框架到工具、由工具到服務(wù)的產(chǎn)業(yè)化道路。谷歌、微軟、IBM等科技公司不僅主動(dòng)研發(fā)倫理工具,而且通過將倫理工具開源化,或者在云服務(wù)上集成化來(lái)促進(jìn)行業(yè)踐行AI倫理。

  例如,在算法模型安全領(lǐng)域,微軟公司發(fā)布了一項(xiàng)名為Counterfit的對(duì)抗性技術(shù)開源化項(xiàng)目,旨在幫助開發(fā)人員測(cè)試AI系統(tǒng)和機(jī)器學(xué)習(xí)的安全性問題,在不同環(huán)境中針對(duì)合作伙伴機(jī)器學(xué)習(xí)模型展開測(cè)試,繼而為AI企業(yè)的算法安全提供合適的風(fēng)險(xiǎn)評(píng)估工具,以確保AI業(yè)務(wù)的穩(wěn)健性、安全性以及可靠性。

  IBM公司依托其Watson OpenScale平臺(tái),通過IBM云和IBM云私人服務(wù)提供倫理服務(wù),幫助企業(yè)在達(dá)到充分透明度、實(shí)現(xiàn)可解釋性與公平性的情況下大規(guī)模運(yùn)行和操作自動(dòng)化AI系統(tǒng),確保在AI模型在設(shè)計(jì)、研發(fā)、部署期間始終保持公平性、可解釋性以及合規(guī)性,并且可以檢測(cè)和糾正人工智能模型在生產(chǎn)中的數(shù)據(jù)漂移問題,以便對(duì)其進(jìn)行故障診斷,從而提升模型性能。

  谷歌公司則在谷歌云上規(guī)劃AI倫理服務(wù)化的計(jì)劃,以幫助其客戶發(fā)現(xiàn)和修復(fù)其人工智能系統(tǒng)中的道德問題,相關(guān)服務(wù)可能包括檢測(cè)算法歧視、制定AI項(xiàng)目的倫理指南、對(duì)客戶的AI系統(tǒng)進(jìn)行審計(jì)等等。

圖二:國(guó)外科技公司開發(fā)的倫理工具及服務(wù)

  在現(xiàn)階段,除了頭部科技公司開發(fā)AI倫理工具、提供相關(guān)AI倫理服務(wù)外,國(guó)外AI產(chǎn)業(yè)開始出現(xiàn)以專門提供倫理服務(wù)為主要業(yè)務(wù)的初創(chuàng)公司。該類初創(chuàng)公司并不關(guān)注于人工智能技術(shù)研發(fā),而是為了幫助從事AI技術(shù)研發(fā)應(yīng)用的AI企業(yè)應(yīng)對(duì)其AI系統(tǒng)中的潛在倫理問題。AI倫理創(chuàng)業(yè)公司的出現(xiàn),可以彌補(bǔ)AI產(chǎn)業(yè)化中缺失的倫理一環(huán),助力可信、負(fù)責(zé)任AI的發(fā)展。類似于Parity AI、Fiddler、Arthur等小有名氣的初創(chuàng)公司紛紛專注于不同倫理領(lǐng)域的技術(shù)支持和服務(wù),旨在為其他科技公司提供更具專業(yè)和效益的倫理服務(wù)。AI倫理服務(wù)不僅可以幫助AI企業(yè)建立負(fù)責(zé)任的人工智能系統(tǒng),還可以為該類企業(yè)現(xiàn)有的人工智能業(yè)務(wù)提供道德指導(dǎo),從而促進(jìn)整個(gè)AI產(chǎn)業(yè)更好思考、應(yīng)對(duì)倫理問題,確??萍枷蛏?。

  AI倫理創(chuàng)業(yè)市場(chǎng)的興起并非毫無(wú)邏輯,其原因主要在于:

  第一,科技企業(yè)在日常的AI技術(shù)研發(fā)上已經(jīng)投入或占用了企業(yè)研發(fā)人員大量的時(shí)間與精力,在技術(shù)研發(fā)之外再要求其關(guān)注AI倫理問題則會(huì)導(dǎo)致分身乏術(shù),并非所有AI企業(yè)或團(tuán)隊(duì)都愿意投入時(shí)間研發(fā)AI倫理工具。

  第二,人工智能技術(shù)本身的研發(fā)成本始終高昂,并非所有AI研發(fā)企業(yè)都能夠有充足的資金協(xié)調(diào)人工智能技術(shù)自身的研發(fā)成本以及嵌入AI倫理的成本,在技術(shù)研發(fā)以外再在AI倫理上進(jìn)行額外的投入將會(huì)對(duì)技術(shù)研發(fā)造成一定負(fù)面影響。頭部公司具有雄厚的研發(fā)資金以支持其倫理工具的研發(fā),但對(duì)于其他的中小微企業(yè)而言,如果苛求其成立專門的審查機(jī)構(gòu)、投入大量的研發(fā)成本,可能會(huì)成為壓死駱駝的最后一根稻草,得不償失,既不現(xiàn)實(shí),也無(wú)必要。

  第三,AI倫理問題的專業(yè)性極高,對(duì)從事與AI倫理相關(guān)范疇工作的專家要求極高,技術(shù)研發(fā)人員并不能直接轉(zhuǎn)化為AI倫理研究人員,技術(shù)人員在沒有AI倫理研究人員指導(dǎo)下所開發(fā)的倫理工具也將具有局限性。為了破解AI產(chǎn)業(yè)中AI倫理的供需不對(duì)稱,AI產(chǎn)業(yè)中開始出現(xiàn)專門提供AI倫理服務(wù)的第三方企業(yè),該類企業(yè)專門研發(fā)幫助落實(shí)AI倫理原則的技術(shù)服務(wù),供缺少AI倫理相關(guān)內(nèi)置產(chǎn)品的人工智能技術(shù)企業(yè)使用。AI倫理產(chǎn)業(yè)化發(fā)展需要積聚眾多科技企業(yè)的智慧和力量,鼓勵(lì)、引導(dǎo)AI倫理服務(wù)企業(yè)的創(chuàng)新和發(fā)展,是推動(dòng)AI倫理落地的長(zhǎng)久之策。

AI倫理創(chuàng)業(yè)公司

搶占細(xì)分領(lǐng)域賽道,

倫理服務(wù)趨向精細(xì)化和專業(yè)化

  目前,細(xì)分不同倫理領(lǐng)域,提供專業(yè)精細(xì)服務(wù),是國(guó)外AI倫理企業(yè)迅速搶占市場(chǎng),樹立品牌特色的主流做法。提供倫理服務(wù)的初創(chuàng)公司并非提供一攬子面面俱到的服務(wù)內(nèi)容,而是根據(jù)細(xì)分的倫理要求提供專業(yè)度高的精細(xì)化服務(wù)?,F(xiàn)階段,各類初創(chuàng)公司主要關(guān)注于如實(shí)現(xiàn)可解釋性要求、實(shí)現(xiàn)公平性要求、風(fēng)險(xiǎn)管理、倫理審計(jì)等服務(wù)內(nèi)容。根據(jù)倫理服務(wù)的不同領(lǐng)域,可以將目前提供倫理服務(wù)的初創(chuàng)公司劃分為以下幾類:

  第一,立足決策穩(wěn)健,提供風(fēng)險(xiǎn)評(píng)估服務(wù)。Parity AI公司為AI企業(yè)提供開發(fā)、監(jiān)測(cè)和修復(fù)其人工智能模型的工具方法,主要聚焦于緩解偏見、實(shí)現(xiàn)公平、可解釋性以及倫理審計(jì)。在審計(jì)方面,Parity AI創(chuàng)建了一套能夠縮減倫理審計(jì)時(shí)間的工具,該工具的運(yùn)行模式為,根據(jù)客戶需求確定人工智能模型審計(jì)的內(nèi)容,進(jìn)而提供相關(guān)建議,而且Parity AI幫助AI企業(yè)組織審計(jì)的全過程。審計(jì)過程中,首先協(xié)助AI企業(yè)進(jìn)行內(nèi)部影響評(píng)估,在AI企業(yè)內(nèi)部針對(duì)人工智能業(yè)務(wù)進(jìn)行開放式調(diào)查,在這過程中可以采用由Parity AI公司所建立的建議問題庫(kù),其中包含超過一千個(gè)來(lái)自世界各地區(qū)AI倫理準(zhǔn)則或相關(guān)立法的提示詞匯及相關(guān)問題;在開放調(diào)查的基礎(chǔ)上,Parity AI會(huì)提出相關(guān)倫理風(fēng)險(xiǎn)緩解的推薦與建議。在此過程中,Parity AI能夠幫助專門的技術(shù)人員更好地理解AI倫理的原則與要求。

  第二,立足決策透明,提供可解釋性服務(wù)。2018年成立的Fiddler公司致力于實(shí)現(xiàn)AI可解釋的目標(biāo),為解決模型可解釋性、模型監(jiān)控以及模型偏差檢測(cè)等問題,開發(fā)出一套機(jī)器學(xué)習(xí)模型性能管理工具(ML Model Performance Management,MPM)。該工具的作用在于能夠有效降低算法模型的黑箱性風(fēng)險(xiǎn),并實(shí)時(shí)對(duì)模型的參數(shù)進(jìn)行持續(xù)監(jiān)控,幫助AI開發(fā)者驗(yàn)證模型、解釋模型性能以及記錄模型指標(biāo)。同時(shí),由于機(jī)器學(xué)習(xí)模型的預(yù)測(cè)質(zhì)量可能會(huì)隨著時(shí)間的推移而下降,當(dāng)用于算法運(yùn)作的數(shù)據(jù)和實(shí)際使用的數(shù)據(jù)不相一致時(shí),就會(huì)產(chǎn)生模型漂移(model drift)的問題?;诖?,MPM工具還能幫助數(shù)據(jù)科學(xué)團(tuán)隊(duì)跟蹤人工智能模型不斷變化的性能,并根據(jù)結(jié)果為業(yè)務(wù)主管創(chuàng)建高級(jí)別報(bào)告,如果該模型的準(zhǔn)確性隨著時(shí)間的推移而惡化,或者顯示出偏見傾向性,F(xiàn)iddler亦可幫助該人工智能系統(tǒng)調(diào)試及發(fā)現(xiàn)可能的原因。

圖三:MPM工具的運(yùn)作機(jī)制

  在定位上,MPM工具并不會(huì)替代現(xiàn)有的機(jī)器學(xué)習(xí)訓(xùn)練、部署以及服務(wù)系統(tǒng),而是在機(jī)器學(xué)習(xí)流程中扮演守夜人的角色,旨在對(duì)模型運(yùn)作的全程進(jìn)行監(jiān)控和解釋說(shuō)明。具體而言,MPM具有兩方面的作用:一是偏離度監(jiān)測(cè)(Detect Train/Serving Skew)。當(dāng)機(jī)器學(xué)習(xí)的數(shù)據(jù)發(fā)生偏離時(shí),訓(xùn)練模型會(huì)出現(xiàn)異常并需要糾正,MPM工具能夠?qū)⒂?xùn)練數(shù)據(jù)和預(yù)測(cè)日志保存在同一個(gè)地方,使得開發(fā)者可以及時(shí)發(fā)現(xiàn)偏離。二是時(shí)間回溯(Time Travel)。MPM工具能夠?yàn)橛脩籼峁┏绦虻共榈墓δ堋iddler官方為此舉了一個(gè)形象的例子,當(dāng)銀行使用機(jī)器學(xué)習(xí)算法來(lái)駁回客戶的特定貸款申請(qǐng),而招致客戶的投訴和抱怨時(shí),使用者就可以登錄MPM系統(tǒng),就其保存的數(shù)據(jù)為客戶還原模型的預(yù)測(cè)和決策過程,從而達(dá)到AI可解釋的效果。

  Arthur公司與Weights & Biases公司同樣強(qiáng)調(diào)可解釋性和緩解偏見、實(shí)現(xiàn)公平性。Arthur公司努力解決人工智能系統(tǒng)中的黑盒問題,并且承認(rèn)解決人工智能可解釋性問題有較高難度,目前并未形成最優(yōu)解決方案。Weights & Biases公司旨在幫助機(jī)器學(xué)習(xí)工程師分析其網(wǎng)絡(luò)的潛在問題,日本豐田公司已經(jīng)在使用Weights & Biases公司所創(chuàng)建的工具來(lái)監(jiān)測(cè)其企業(yè)內(nèi)機(jī)器學(xué)習(xí)設(shè)備的訓(xùn)練情況。

  第三,立足決策公平,提供算法修復(fù)服務(wù)。針對(duì)AI決策層出不窮的算法歧視問題,埃森哲公司致力于開發(fā)出一款能夠快速評(píng)估數(shù)據(jù)是否創(chuàng)造公平結(jié)果的倫理工具(fairness tool)。該工具運(yùn)用一種能夠定義公平性的統(tǒng)計(jì)算法來(lái)識(shí)別人們是否受到了算法的不公正對(duì)待,同時(shí)還會(huì)挖掘、分析、定義公平性相關(guān)的敏感變量。例如,算法在做決策時(shí)通常不會(huì)考慮性別問題,但如果加入收入因素的考量,就會(huì)容易在男女性別間產(chǎn)生不同的決策結(jié)果。該工具會(huì)將此類相關(guān)信息納入公平性的評(píng)估范疇,同時(shí)還要關(guān)注每個(gè)決策變量的錯(cuò)誤率,通過比較不同變量之間的錯(cuò)誤率,分析出影響決策公平性的變量因素。同時(shí),此前的研究表明,AI倫理對(duì)于公平性的界定存在多達(dá)21種類型的解釋方法,因此,很難對(duì)不同場(chǎng)景下的公平性作出統(tǒng)一定義。盡管埃森哲的倫理工具能夠減少影響公平性評(píng)估的錯(cuò)誤因素,但考慮到修復(fù)程序可能會(huì)降低算法評(píng)估的準(zhǔn)確性,因此該工具將是否調(diào)整參數(shù)的決定權(quán)交還給用戶,也即只提供修復(fù)結(jié)果的權(quán)衡選擇(trade-off),但最終交由用戶來(lái)決定錯(cuò)誤因素的調(diào)整范圍。

  雖然目前AI仍無(wú)法做到對(duì)算法公平進(jìn)行精確定義,但埃森哲負(fù)責(zé)任AI的前團(tuán)隊(duì)負(fù)責(zé)人、現(xiàn)任Twitter公司機(jī)器學(xué)習(xí)倫理團(tuán)隊(duì)負(fù)責(zé)人的喬杜里表示,該公平性工具能夠用于解決某些實(shí)際問題。2020年,埃森哲與愛爾蘭聯(lián)合銀行(AIB)達(dá)成合作,正式將算法公平工具應(yīng)用于傳統(tǒng)銀行業(yè)。AIB希望借助該工具減少算法模型的偏離度和歧視性,增進(jìn)銀行AI業(yè)務(wù)的公平性和可信任度。在應(yīng)用路徑上,二者采用傳統(tǒng)業(yè)務(wù)和算法決策相配合的協(xié)作機(jī)制,共同評(píng)估銀行算法模型的公平性,包括將該工具用于檢測(cè)、評(píng)估銀行業(yè)務(wù)中的潛在風(fēng)險(xiǎn)以及預(yù)期效果,最終取得了顯著成效。實(shí)踐證明,算法公平工具能夠基于公平的維度幫助AIB更深入地理解其數(shù)據(jù)模型結(jié)果,也使得AIB的大數(shù)據(jù)科學(xué)團(tuán)隊(duì)可以借助公平性分析減少算法偏見和決策風(fēng)險(xiǎn),從而增強(qiáng)銀行使用AI的信心和能力。

科技倫理治理需要多管齊下,

以“倫理嵌入設(shè)計(jì)”的理念與實(shí)踐

實(shí)現(xiàn)技術(shù)與倫理之間的有效互動(dòng)

  《關(guān)于加強(qiáng)科技倫理治理的指導(dǎo)意見(征求意見稿)》提出了“倫理先行,敏捷治理”的基本要求。倫理如何先行?需要倫理委員會(huì)、技術(shù)工具、倫理培訓(xùn)等多管齊下,也需要?jiǎng)?chuàng)新治理方式。在這方面,我們可以借鑒互聯(lián)網(wǎng)領(lǐng)域的一個(gè)成熟概念:隱私嵌入設(shè)計(jì)(privacy by design,PbD)。PbD已具有很好的實(shí)踐基礎(chǔ),可以為人工智能的倫理治理提供有益經(jīng)驗(yàn)。在PbD理念與實(shí)踐的基礎(chǔ)上,人工智能產(chǎn)業(yè)需要擁抱“倫理嵌入設(shè)計(jì)”(ethics by design,EbD)這一全新的理念,并推動(dòng)這一理念在人工智能實(shí)踐中的落地。各界可以一起探索“倫理嵌入設(shè)計(jì)”的最佳實(shí)踐做法、行業(yè)標(biāo)準(zhǔn)、技術(shù)指南等。

  而近年來(lái)倫理工具和AI倫理即服務(wù)的勃興豐富了“倫理嵌入設(shè)計(jì)”的理念和實(shí)踐路徑,在某種程度上,這也是產(chǎn)業(yè)界開始推動(dòng)負(fù)責(zé)任創(chuàng)新,以技術(shù)的方式解決技術(shù)帶來(lái)的問題。如前所述,隨著提供AI倫理服務(wù)的初創(chuàng)公司不斷涌現(xiàn),AI產(chǎn)業(yè)中的倫理供需失衡促使AI倫理服務(wù)公司開始走向成熟化、精細(xì)化、規(guī)?;擃惙?wù)公司能夠在細(xì)分領(lǐng)域中提供適應(yīng)AI產(chǎn)業(yè)變化的倫理服務(wù),加速AI倫理由原則到框架再到實(shí)踐的進(jìn)程,幫助AI倫理在更多使用場(chǎng)景和產(chǎn)業(yè)范圍內(nèi)順利落地,彌補(bǔ)AI產(chǎn)業(yè)中缺失的倫理一環(huán)。同時(shí),從長(zhǎng)遠(yuǎn)來(lái)看,倫理服務(wù)已成為未來(lái)AI產(chǎn)業(yè)的應(yīng)有之義,盡管AI倫理服務(wù)有著廣闊的發(fā)展前景,但目前仍處于起步和探索階段,需要各界一起凝聚更多共識(shí)與實(shí)現(xiàn)機(jī)制、模式等。

  最后,在人工智能、區(qū)塊鏈、虛擬現(xiàn)實(shí)、metaverse等新興技術(shù)與模式加速演進(jìn)變革的今天,科技倫理固然顯得愈發(fā)重要,但一方面需要注意不要把科技倫理當(dāng)作一種華而不實(shí)的雕飾與粉飾,而需要通過真正有效的機(jī)制讓科技倫理對(duì)科技創(chuàng)新形成正向引導(dǎo);另一方面科技創(chuàng)新本就是一種不確定性的探索,無(wú)法免疫所有的風(fēng)險(xiǎn),因此也需要立法與倫理規(guī)范的精細(xì)平衡,平衡好安全與創(chuàng)新發(fā)展。

  作者

  曹建峰 騰訊研究院高級(jí)研究員

  胡錦浩 騰訊研究院助理研究員

(轉(zhuǎn)載)

標(biāo)簽:人工智能 我要反饋 
2024世界人工智能大會(huì)專題
即刻點(diǎn)擊并下載ABB資料,好禮贏不停~
優(yōu)傲機(jī)器人下載中心
西克
2024全景工博會(huì)
專題報(bào)道
2024 工博會(huì) | 直播探館 · 全景解讀
2024 工博會(huì) | 直播探館 · 全景解讀

第二十四屆中國(guó)工博會(huì)于9月24日至28日在國(guó)家會(huì)展中心(上海)舉行,展會(huì)以“工業(yè)聚能 新質(zhì)領(lǐng)航”為全新主題。 [更多]

2024世界人工智能大會(huì)
2024世界人工智能大會(huì)

WAIC 2024將于7月在上海舉行,論壇時(shí)間7月4日-6日,展覽時(shí)間7月4日-7日。WAIC 2024將圍繞“以共商促... [更多]

2024漢諾威工業(yè)博覽會(huì)專題
2024漢諾威工業(yè)博覽會(huì)專題

2024 漢諾威工業(yè)博覽會(huì)將于4月22 - 26日在德國(guó)漢諾威展覽中心舉行。作為全球首屈一指的工業(yè)貿(mào)易展覽會(huì),本屆展覽會(huì)... [更多]