siemens x
人工智能

當(dāng)AI有了“自由意志”

2025China.cn   2020年12月15日

  在人工智能呈現(xiàn)一番欣欣向榮的景象之時(shí),這項(xiàng)技術(shù)的問題和潛在威脅也正在顯現(xiàn)。是時(shí)候認(rèn)真探討一下AI技術(shù)的“價(jià)值觀”問題了。

  很多人最近一定注意到,有關(guān)AI的負(fù)面新聞?lì)l頻上頭條,而且還帶有很強(qiáng)的魔幻色彩。

  11月20號(hào),韓國13歲的天才圍棋少女金恩持承認(rèn)了她在9月底的一場(chǎng)在線圍棋比賽中作弊,使用了AI推薦的棋譜,約等于斷送了自己的職業(yè)生涯。11月27日,伊朗核武器專家法赫里扎遭到一挺由AI控制的自動(dòng)機(jī)槍的襲擊而身亡,這意味著精準(zhǔn)的人臉識(shí)別技術(shù)作為AI武器已經(jīng)參與到人間的殺戮當(dāng)中。

  說回國內(nèi),前一段時(shí)間有人帶頭盔去售樓處看房,就是為避免被房地產(chǎn)商進(jìn)行精準(zhǔn)的人臉識(shí)別而被,當(dāng)做“熟客”來“宰殺”,人臉識(shí)別濫用問題已擺在我們面前。

  更荒誕的是,最近曝出一個(gè)房產(chǎn)中介就利用政府機(jī)構(gòu)的在線服務(wù)的流程流動(dòng),輕而易舉地讓售房者在不知情的狀況下通過人臉識(shí)別系統(tǒng)把房子過戶給了買家,自己套取了交易款。原本為民提供便利的AI服務(wù)成了別有用心者的幫兇。

  “殺人者人也,非刀也”,這是我們?yōu)椤肮ぞ邿o道德價(jià)值”做辯護(hù)的古老理由,也是人類確證自己具有獨(dú)一無二的道德價(jià)值的傲嬌說辭。

  同樣這一理由似乎也可以為上面這些AI的負(fù)面案例做解釋,可以說這里的AI技術(shù)也都只是人類應(yīng)用的工具,真正始作俑者的還是人類。

  這樣說似乎無可厚非,正如一切技術(shù)的發(fā)明帶給人類巨大福祉的同時(shí)也可能帶來可能的災(zāi)禍一樣,反之亦然。比如諾貝爾發(fā)明的炸藥可以開礦搬山也可以投入戰(zhàn)場(chǎng)屠戮生靈,核技術(shù)可以用來制造原子彈毀天滅地也可以用來做核電站造福大眾。理性樂觀派總是相信人類可以通過技術(shù)進(jìn)步創(chuàng)造一個(gè)美麗新世界,并克服技術(shù)產(chǎn)生的種種負(fù)面效應(yīng)。

  不過,我們需要注意的是,這一次人工智能技術(shù)革命的不同之處在于它將真正重塑人類。以往的任何一場(chǎng)技術(shù)革命只是增強(qiáng)了人類在體力、腦力等方面的專項(xiàng)能力,但這一次AI將直接抵達(dá)人的核心本質(zhì)——那個(gè)所謂撐起人尊嚴(yán)和價(jià)值的“自由意志”。

  大多數(shù)人會(huì)將這種宏大議題當(dāng)作杞人憂天的無稽之談,因?yàn)椤袄莵砹恕钡墓适氯藗円呀?jīng)聽過多次。很多大人物對(duì)于人工智能威脅人類地位的告誡,也有種“口嫌體正直”的意味,無不在自己的領(lǐng)域內(nèi)推動(dòng)AI技術(shù)的進(jìn)化和使用。

  但是作為人類社會(huì)基石的“自由意志”本身已經(jīng)從腦神經(jīng)科學(xué)和社會(huì)學(xué)上被嚴(yán)重挑戰(zhàn),而人工智能在模擬和指導(dǎo)人類決策的能力又在大幅提升,這樣我們就將接近這個(gè)人類命運(yùn)改變的交匯點(diǎn):人的自由被還原為一種可計(jì)算的生理機(jī)制,AI的計(jì)算能力又超過人類的計(jì)算能力。

  這時(shí),我們也就如同溫水中的青蛙,只能黯然接受“被煮熟”的命運(yùn)安排。幸而在AI技術(shù)正在日漸暴露出這些無傷大雅的問題之時(shí),我們?nèi)匀灰幸环N對(duì)AI的警惕。

  那就是AI擁有“自由意志”之時(shí),可以做到價(jià)值中立嗎?

技術(shù)的價(jià)值中立難成立,AI亦然

  在關(guān)于“技術(shù)是否價(jià)值中立”的探討中,現(xiàn)在的人們大多會(huì)傾向于“技術(shù)中立”的觀點(diǎn)。

  我們通常認(rèn)為一項(xiàng)技術(shù)的道德價(jià)值在于使用它的人,比如決定一把刀是用來烹飪還是用來行兇的關(guān)鍵是手握這把刀的那個(gè)人的想法;而一項(xiàng)技術(shù)的價(jià)值大小也不在于它自身而在于使用它的人的用途。

  比如在電影《上帝也瘋狂》里,非洲原始部落的人們獲得了一個(gè)完整的可樂玻璃瓶,這個(gè)在現(xiàn)代社會(huì)平平無奇的消費(fèi)品,從一開始被當(dāng)做無所不能的神物到后面變成引發(fā)族群紛爭(zhēng)的魔鬼。這個(gè)可樂瓶的價(jià)值在土著人手里就經(jīng)歷了天壤之別的變化。

  這一假設(shè)的好處就是維護(hù)了人的尊嚴(yán),選擇什么樣的技術(shù)用來做什么樣的事情,都是我們自己的選擇,最終的后果都要由我們來負(fù)責(zé)。

  但實(shí)際上真的如此嗎?

  從最初的人類開始掌握生火和放火這一項(xiàng)最初級(jí)技術(shù)的時(shí)候,一個(gè)部落中的女性就能釋放出超出她體力數(shù)以萬倍的能量,因?yàn)橐话鸦鹁湍軣鲆淮笃郑麄兙湍苁斋@這片土地里沒有來得及逃跑的生靈的肉類,后面還可以開墾出一片又一片的農(nóng)田。

  想想今天的亞馬遜雨林,在全球化的消費(fèi)貿(mào)易網(wǎng)絡(luò)中,被巴西農(nóng)民幾乎燒毀殆盡來該種糧食作物。火本身是無目的的,但是使用火的人是知曉火的特性和威力,也能控制火的范圍和用途。人類之火,與天然之火的不同之處在于,火本身已經(jīng)包含了人類的意志和目的。

  可以想見,人類此后發(fā)明的任何一個(gè)工具或技術(shù)都或多或少包含著發(fā)明者本身的目的。一把鋒利的石刀既帶有了切割了功用,也帶有了殺戮的能力,而一把槍發(fā)明出來,自然就有著更高效地殺戮的功效在里面,不管買它的人是用來防身還是用來害人,都是深知這一點(diǎn)的。

  一項(xiàng)技術(shù)的發(fā)明總是有原因的,而原因背后一定是有目的方向性的,暗含了其主觀價(jià)值。

  隨著人類的技術(shù)工具越來越復(fù)雜和高級(jí),技術(shù)的目的性對(duì)于使用者的影響也就越大。而且我們已經(jīng)越發(fā)習(xí)慣這些技術(shù),就如同我們須臾離不開電池和網(wǎng)絡(luò)一樣,這些技術(shù)已經(jīng)在潛移默化地改變著我們的選擇和判斷。

  當(dāng)我們以為自己的選擇是自由選擇的時(shí)候,其實(shí)大多數(shù)都是被工具所訓(xùn)練和改變了的。

  最典型的現(xiàn)代技術(shù)莫過于各種互聯(lián)網(wǎng)應(yīng)用和游戲,以短視頻最為典型。依托沉浸式展示、無限下滑換頁和偏好推薦算法,短視頻成為手機(jī)用戶的“殺時(shí)間”神器,很多人不知不覺就會(huì)在其中花費(fèi)數(shù)十分鐘時(shí)間。如果稍加反省,我們就會(huì)發(fā)現(xiàn)這套推薦技術(shù)當(dāng)中所包含的利用人性弱點(diǎn)和上癮機(jī)制來獲取用戶時(shí)間的價(jià)值傾向。

  雖然我們清楚這些公司和他們的聰明無比的工程師未必有操縱人心的惡意,而只是有取得商業(yè)成功的動(dòng)機(jī),就會(huì)不斷地加入操縱人心的技術(shù)。而這一次,工程師們有了一個(gè)最好的助手,那就是人工智能。

  AI算法的最初目標(biāo)一定是體現(xiàn)了人類的某一目的,比如在對(duì)抗學(xué)習(xí)中拿到最高的分?jǐn)?shù)、在圖像識(shí)別中得到最高的識(shí)別率,在偏好推薦上要不斷滿足用戶喜好,找到盡可能多的相似內(nèi)容。人工智能不僅在某些方面表現(xiàn)不錯(cuò),而且還有了趕超人類決策的計(jì)算能力。

從“不夠好”的AI到“被用壞”的AI

  AI威脅論,很多人已經(jīng)講了很多次,但我們這里并不是再重復(fù)這種大眾所理解的“AI統(tǒng)治人類”、“AI取代人類工作”的觀點(diǎn)。因?yàn)檫@種觀點(diǎn)也仿佛再說AI會(huì)成為一個(gè)獨(dú)立于人的新的物種存在,而如今來看,這樣的AI不知要到猴年馬月才實(shí)現(xiàn),或者根本無法實(shí)現(xiàn)。

  我們這里強(qiáng)調(diào)的是,不同于以往任何力學(xué)的、化學(xué)的、生物的技術(shù),僅僅提高人類的局部性的能力,這一次AI技術(shù)這次要替代的是人的感知、判斷和決策能力,是對(duì)人的理性行為的一種“復(fù)刻”。

  AI技術(shù)的這種“非中立”特性難免會(huì)導(dǎo)致以下結(jié)果:

  一、AI算法在數(shù)據(jù)訓(xùn)練中由于模型設(shè)計(jì)和數(shù)據(jù)樣本不足等問題會(huì)難以避免地出現(xiàn)偏見。

  比如,2018年的一則報(bào)道中,亞馬遜的AI招聘系統(tǒng)被指出系統(tǒng)性地歧視女性,在發(fā)現(xiàn)簡(jiǎn)歷中出現(xiàn)“女性”字樣就會(huì)降低應(yīng)聘者的分?jǐn)?shù),而且還被發(fā)現(xiàn),標(biāo)注某兩所女子大學(xué)的簡(jiǎn)歷也會(huì)在排序上被降級(jí)。而人工智能的這一權(quán)重決策正是來自于學(xué)習(xí)了亞馬遜此前10年的簡(jiǎn)歷數(shù)據(jù)。

  顯然,這十年中,大部分被錄用的候選人都是男性,人類HR在招募技術(shù)崗位上的偏好也教會(huì)了人工智能采用同樣的策略。

  而在更常見的人臉識(shí)別領(lǐng)域,則出現(xiàn)了明顯的性別和種族歧視的算法偏見。根據(jù)美國NIST(國家標(biāo)準(zhǔn)及技術(shù)研究院)在2019年12月的一份報(bào)告,在美國人臉識(shí)別系統(tǒng)中,黑人的人臉識(shí)別錯(cuò)誤率是白種人的100倍,與黃種人相比,黑人人臉的識(shí)別錯(cuò)誤率也是前者的10倍,而在執(zhí)法機(jī)關(guān)的人臉圖片庫中,識(shí)別錯(cuò)誤率最高的是美國原住民。另外,女性和老人的臉部也更難以識(shí)別。

  這一研究的數(shù)據(jù)來源是美國簽證申請(qǐng)和過境數(shù)據(jù)庫中的1800萬張人臉照片,并測(cè)試了189種人臉識(shí)別算法,研究結(jié)果代表了絕大部分商業(yè)應(yīng)用算法的結(jié)果。

  今年上映的一部《編碼偏見》的流媒體影片正揭露了這一問題,人工智能正在接管著關(guān)于人們的信息、安全、機(jī)會(huì)甚至自由等權(quán)力的時(shí)候,如果人們不改正這些算法中存在的偏見和歧視,那么AI技術(shù)會(huì)必然創(chuàng)造一個(gè)更加糟糕的世界,比如被錯(cuò)誤識(shí)別并逮捕的少數(shù)族裔青年、被算法判斷為能力不足的女性員工,被垃圾信息所包圍的少年。

  當(dāng)然,這還只是AI技術(shù)不夠好的一種表現(xiàn)。很多人覺得我們可以不斷調(diào)整算法,增大數(shù)據(jù)樣本就可以解決這些低級(jí)錯(cuò)誤、算法歧視等問題。假如偏見可以消除、算法可以優(yōu)化,我們又將迎來一個(gè)怎樣的局面呢?

  二、AI技術(shù)很可能會(huì)由于數(shù)據(jù)的規(guī)模聚集和技術(shù)競(jìng)賽的排他性中,掌握在少數(shù)技術(shù)公司和政府手中,幫助擁有技術(shù)特權(quán)的人群和組織獲得難以撼動(dòng)的權(quán)力和財(cái)富,從而鞏固這一趨勢(shì)。

  我們不能說AI技術(shù)一定會(huì)助長極權(quán)和壟斷,但是我們正在看到這樣的苗頭出現(xiàn)。

  普通大眾不僅通過在互聯(lián)網(wǎng)上的各種操作交出了自己的習(xí)慣偏好和消費(fèi)數(shù)據(jù),而且現(xiàn)在還在通過可穿戴設(shè)備等信息來獲取我們的生理指標(biāo)數(shù)據(jù)。如果任何一個(gè)AI算法系統(tǒng)能夠同時(shí)擁有這兩種數(shù)據(jù),并且對(duì)其建立起相對(duì)應(yīng)的相關(guān)性,那么,這一系統(tǒng)將真正全面獲得操縱人心的能力。

  正由于我們?nèi)祟惖娜魏螞Q策可以轉(zhuǎn)化為各種生理、心理和行為的各種數(shù)據(jù),而我們又想通過AI技術(shù)來洞悉這一切背后的因果鏈條,那么AI將有極大地可能完成人類的這一使命,如果往好處走,AI將代替人類的智力釋放出前所未有的生產(chǎn)力,如果往壞處走,AI技術(shù)也將產(chǎn)生無法想象的破壞力。

  比如,在核冬天的威懾之后,AI武器的發(fā)展將使得精準(zhǔn)殺戮成為可能,雖然在一定意義上可以避免大規(guī)模的熱武器沖突,但是每個(gè)國家都將在這種無孔不入的AI武器或殺手機(jī)器人的威脅下產(chǎn)生十足的敵意。

  如果這些AI武器一旦被極端組織掌握,更有可能成為挑起事端的大殺器。再比如更有可能的一個(gè)趨勢(shì)是,AI算法只是代表了少數(shù)特權(quán)階層的意志,而大部分人淪為供AI進(jìn)化的數(shù)據(jù)源。

  盡管來說,AI直接統(tǒng)治人類既無可能,但AI被人類用壞,成為塑造人類不平等的幫兇是極有可能的。

  現(xiàn)在,我們更重要的是,放棄對(duì)AI技術(shù)客觀中立性的幻想,也要警惕AI算法對(duì)于我們決策的強(qiáng)大操縱力,同時(shí)又得致力于推動(dòng)人工智能的普惠,才是接下來要做的事情。

對(duì)AI的自由意志保留拒絕的權(quán)利

  我們這里只是指明了一個(gè)問題:人工智能是存在價(jià)值觀的,其價(jià)值觀的來源并非來自于突然的“自我覺醒”,而是從人這里繼承了相應(yīng)的價(jià)值觀,“復(fù)刻”了人的所謂“自由意志”。

  當(dāng)AI算法不夠強(qiáng)大的時(shí)候,其可能繼承人類的認(rèn)知錯(cuò)誤和偏見,但當(dāng)AI算法足夠強(qiáng)大的時(shí)候,其也并不會(huì)變得“客觀中立”,而是體現(xiàn)了人類工具理性推向極致的價(jià)值觀,那就是更集中的權(quán)力、更多的財(cái)富、不斷自我強(qiáng)化和升級(jí)。

  這一價(jià)值觀反作用到普通的人類個(gè)體身上,可能有兩個(gè)結(jié)果,一種是與AI算法協(xié)同進(jìn)化,在智識(shí)上甚至生理上不斷升級(jí)自己,成為掌控AI的發(fā)展趨向的超級(jí)人類;一種是無法理解AI技術(shù)運(yùn)行邏輯,也沒有辦法參與自主決策的大眾,將自己的生活決策交給算法。

  因?yàn)槿说纳飳W(xué)的進(jìn)化速度實(shí)在難以趕上AI計(jì)算能力的增長,人類的知識(shí)只能以線性循環(huán)的方式一代又一代傳授,而AI則是以指數(shù)級(jí)方式累計(jì)增長,這就決定了大多數(shù)人只能交付出自己的決策機(jī)制,而由AI來判斷我們的各種想法的成功概率。

  而在今天,這一問題已以種很隱蔽的方式呈現(xiàn)著。正如很多人認(rèn)為自己要聽從自己內(nèi)心的聲音,但是我們卻并不知道這些內(nèi)心的需求哪些是我們的“自由意志”想要的,哪些是被各種價(jià)值體系所塑造的。而我們知道AI算法已經(jīng)開始從每一個(gè)廣告推薦、每一個(gè)內(nèi)容篩選、每一次自拍美顏、每一次你的行為追蹤下,就已經(jīng)開始為你進(jìn)行需求的植入了。

  在人工智能狂飆突進(jìn)的這幾年當(dāng)中,我們其實(shí)已經(jīng)過分站在“AI將造福人類”的宏大敘事當(dāng)中,畢竟我們對(duì)于這一新型技術(shù)產(chǎn)業(yè)寄予了太多的希望。但是我們看到現(xiàn)在針對(duì)個(gè)人隱私領(lǐng)域上馬的AI應(yīng)用,正在竭盡所能地掌握人們的全方位數(shù)據(jù),但其實(shí)我們并未對(duì)這一趨勢(shì)做好準(zhǔn)備。

  最近我們也注意到,由于一些行業(yè)和場(chǎng)景中人臉識(shí)別技術(shù)被大量濫用,一些地方的相關(guān)部門開始推出整治規(guī)范,要求拆除這些AI設(shè)備。未來,這場(chǎng)關(guān)于人工智能的應(yīng)用邊界博弈的拉鋸戰(zhàn)還將一直持續(xù)下去。

  但未來的長期博弈中,我們哪怕犧牲一點(diǎn)便利性,也要在讓度自己的選擇權(quán),交給人工智能來處理的時(shí)候,保持足夠的冷靜,同時(shí)對(duì)AI有擁有“Say No”的力量。

(轉(zhuǎn)載)

標(biāo)簽:人工智能 我要反饋 
2024世界人工智能大會(huì)專題
即刻點(diǎn)擊并下載ABB資料,好禮贏不停~
優(yōu)傲機(jī)器人下載中心
西克
2024全景工博會(huì)
專題報(bào)道
2024 工博會(huì) | 直播探館 · 全景解讀
2024 工博會(huì) | 直播探館 · 全景解讀

第二十四屆中國工博會(huì)于9月24日至28日在國家會(huì)展中心(上海)舉行,展會(huì)以“工業(yè)聚能 新質(zhì)領(lǐng)航”為全新主題。 [更多]

2024世界人工智能大會(huì)
2024世界人工智能大會(huì)

WAIC 2024將于7月在上海舉行,論壇時(shí)間7月4日-6日,展覽時(shí)間7月4日-7日。WAIC 2024將圍繞“以共商促... [更多]

2024漢諾威工業(yè)博覽會(huì)專題
2024漢諾威工業(yè)博覽會(huì)專題

2024 漢諾威工業(yè)博覽會(huì)將于4月22 - 26日在德國漢諾威展覽中心舉行。作為全球首屈一指的工業(yè)貿(mào)易展覽會(huì),本屆展覽會(huì)... [更多]