《WAIC UP!》作為世界人工智能大會(huì)(WAIC)旗下首份刊物,持續(xù)邀請(qǐng)全球AI及跨領(lǐng)域的先鋒力量,共同釋放思考的力量與智慧的主張,探究關(guān)乎技術(shù)躍遷、自我邊界和未來(lái)文明的無(wú)限可能。
本期《WAIC UP!》以「AI: The Only Way is UP!」為題,回應(yīng)當(dāng)下AI飛速進(jìn)化所引發(fā)的時(shí)代叩問(wèn):我們究竟希望AI駛向怎樣的方向?
我們?cè)噲D捕捉AI超越“工具理性”的微光時(shí)刻,在那些AI向上突破、向好生長(zhǎng)、向善進(jìn)化的瞬間,回望技術(shù)的溫度與價(jià)值。
本期嘉賓王國(guó)豫,將與我們共探——當(dāng)AI技術(shù)越過(guò)情感、倫理與生命的邊界,我們?cè)撊绾沃匦抡J(rèn)識(shí)“人”的本質(zhì)?當(dāng)算法不斷走進(jìn)生活深處,誰(shuí)來(lái)為它的決定負(fù)責(zé)?
王國(guó)豫
復(fù)旦大學(xué)哲學(xué)學(xué)院教授
科技倫理與人類(lèi)未來(lái)研究院院長(zhǎng)
哲學(xué)博士
王國(guó)豫是國(guó)家倫理委員會(huì)醫(yī)學(xué)倫理分委員會(huì)委員,上海市人工智能治理專(zhuān)家委員會(huì)委員。專(zhuān)注于生命醫(yī)學(xué)與人工智能倫理、新興技術(shù)治理等方向。長(zhǎng)期參與中國(guó)科技倫理政策制定及相關(guān)倫理指南起草,倡導(dǎo)負(fù)責(zé)任創(chuàng)新,推動(dòng)倫理制度化建設(shè)與公眾意識(shí)提升。參與WHO醫(yī)學(xué)人工智能倫理專(zhuān)家建議修改,具備全球視野與深厚學(xué)術(shù)影響力。
高能前瞻——
《AI倫理專(zhuān)題報(bào)告——王國(guó)豫:AI倫理治理要充分尊重人的主體性和社會(huì)多元價(jià)值觀(guān)念》
文章目錄:
1、數(shù)字復(fù)活的倫理悖論
2、AI成癮的倫理尺度
3、AI對(duì)齊的倫理困境
4、算法決策中的責(zé)任空白
「數(shù)字復(fù)活的倫理悖論」
AI的“溫柔”是否能真的撫慰失去親人的創(chuàng)傷?在王國(guó)豫看來(lái),AI復(fù)活并非單純的科技慰藉,它還涉及對(duì)生命本質(zhì)的追問(wèn)與遺忘的倫理爭(zhēng)議。
“遺忘雖然是人類(lèi)的‘缺陷’,卻也是人類(lèi)向前的必要前提,也是人的權(quán)利。沒(méi)有遺忘的人,其生活將會(huì)變得非常沉重。借助于數(shù)字技術(shù)復(fù)活親人的音容笑貌,在一定程度和一定范圍內(nèi)也許可以彌補(bǔ)突來(lái)的情感遺憾,但是這畢竟不是真實(shí)的。如果我們總是活在虛擬的世界里,那么真實(shí)的世界將會(huì)被忽視,對(duì)個(gè)人的身心健康也是不利的。”
在“數(shù)字永生”概念走紅的當(dāng)下,不要讓科技打亂了生命與告別的節(jié)奏。
「AI成癮的倫理尺度」
成癮已不僅僅是個(gè)人問(wèn)題,更是一個(gè)系統(tǒng)性的社會(huì)病灶。
在王國(guó)豫看來(lái),人類(lèi)對(duì)AI的依賴(lài),不止于工作效率,而正在改變我們的思維習(xí)慣、情感結(jié)構(gòu)與社會(huì)互動(dòng)方式:
“我認(rèn)為我們現(xiàn)在需要真正地從結(jié)構(gòu)上分析人工智能為什么會(huì)讓人上癮。除了個(gè)人原因之外,這里面還有家庭的原因、社會(huì)的原因、教育的原因,以及企業(yè)的原因。我們整個(gè)社會(huì)需要進(jìn)行反思,政府也需要通過(guò)立法來(lái)加以規(guī)范。”
「AI對(duì)齊的倫理困境」
技術(shù)倫理無(wú)法靠程序撰寫(xiě),它必須回到人類(lèi)的自我審視。
AI“價(jià)值對(duì)齊”常被視為化解風(fēng)險(xiǎn)的希望,但王國(guó)豫提出了根本性追問(wèn):AI并沒(méi)有“反思能力”,它只是按反饋趨利避害。
“現(xiàn)階段來(lái)看,人工智能還沒(méi)有自我意識(shí),不能反思,因而也不具備判斷真假善惡的能力。另一方面,人類(lèi)的價(jià)值觀(guān)是多元的。你對(duì)齊的人是誰(shuí)?你按照什么方式對(duì)齊?這本身也涉及很大的問(wèn)題。”
「算法決策中的責(zé)任空白」
技術(shù)介入越深,責(zé)任歸屬越模糊,王國(guó)豫認(rèn)為:
“責(zé)任本身是系統(tǒng)性的,尤其在人工智能時(shí)代,這會(huì)涉及多方主體。那么在此之前,我們就應(yīng)該構(gòu)建一個(gè)詳細(xì)的責(zé)任模型,包括主體責(zé)任、連帶責(zé)任、因果責(zé)任、前瞻性責(zé)任等,不同層次的責(zé)任應(yīng)該明晰清楚地展現(xiàn)出來(lái)。一旦出現(xiàn)模型內(nèi)的相關(guān)情況,就應(yīng)立即觸發(fā)預(yù)警,明確誰(shuí)應(yīng)該負(fù)責(zé)。這一切都應(yīng)該是前瞻性的,而不至于等到事故發(fā)生后,責(zé)任就蒸發(fā),誰(shuí)都沒(méi)有責(zé)任,就剩下機(jī)器的責(zé)任。”
科技不是擋箭牌,必須用制度性設(shè)計(jì)為倫理保底。
讓我們隨王國(guó)豫一起,在哲學(xué)的目光中重新審視技術(shù)的權(quán)力邊界,為未來(lái)設(shè)定可思考、可對(duì)話(huà)、可負(fù)責(zé)的底線(xiàn)。
(來(lái)源:世界人工智能大會(huì))