siemens x
人工智能

陸奇對話Gary Marcus:面對技術(shù)缺陷、倫理爭議和實踐缺失的當(dāng)下,如何構(gòu)建可信AI?

2025China.cn   2020年07月20日

  新冠疫情是一個警鐘,提醒我們要去構(gòu)建信任度 90% 以上的 AI。

  當(dāng)人類第一次仰望星空的時候,離文明就不遠(yuǎn)了。對于當(dāng)下的 AI 來說,也是如此。席卷全球的疫情釋放出信號和警告,我們需要一個新的 AI 劇本。

  過去我們花了太多時間開發(fā)銷售廣告的 AI,從現(xiàn)在開始,不妨重新評估未來幾十年,我們到底需要打造一個什么樣的 AI?如何以我們想要的方式實現(xiàn)更為美好的 AI?對這一 「重啟(reboot)」 問題的多維思考,串連起 「圍爐夜話」 的所有環(huán)節(jié)與亮點。

  7 月 10 日晚間八點,WAIC· 開發(fā)者日正式啟動,作為開場的特色環(huán)節(jié),機器之心與上海交通大學(xué)人工智能研究院聯(lián)合邀請到了奇績創(chuàng)壇創(chuàng)始人兼 CEO 陸奇和 Robots.AI CEO 兼創(chuàng)始人 Gary Marcus 進(jìn)行高峰對話。

  此外,在「Demo Day」環(huán)節(jié),一系列優(yōu)質(zhì)的開源項目陸續(xù)登場,除對主流開源工具及框架的探討外,還有實踐中的熱門方向,比如人臉圖像、熱門游戲開源項目等。企業(yè)內(nèi)部的開源及技術(shù)框架也成亮點之一,比如阿里巴巴的淘系技術(shù)部無限開發(fā)專家吳子奇分享路關(guān)于 MNN 的部署實踐。

  而當(dāng)我們將目光從技術(shù)角度轉(zhuǎn)移到整個 AI 產(chǎn)業(yè),會發(fā)現(xiàn) AI 尚處于無法被完全信任的狀態(tài),這無疑將阻擋 AI 應(yīng)用開發(fā)的腳步。

  比如,深度學(xué)習(xí)主導(dǎo)下的機器無法靈活的處理不可預(yù)知事件,隱私、偏見、版權(quán)等倫理問題一次次引發(fā)輿論風(fēng)暴。放眼學(xué)界和業(yè)界,可復(fù)制性審查的缺失和巨頭重度壟斷的市場都在阻礙行業(yè)往前進(jìn)。

  針對這些問題,陸奇和 Gary Marcus 帶來了不少精彩觀點。

  對話首先探討了深度學(xué)習(xí)的局限性。在 Gary Marcus 看來,現(xiàn)有的深度學(xué)習(xí)訓(xùn)練方式是在用數(shù)據(jù)代替機器本身的思考,無法讓其對世界有更深層的感知和推理。相比深度學(xué)習(xí),「常識推理」是訓(xùn)練 AI 更有效的方法,可從思維方式上改變機器的認(rèn)知水平。

  在 AI 倫理方面,對話直面了近日陷入輿論漩渦的隱私和偏見問題。Gary Marcus 認(rèn)為,利用分布式學(xué)習(xí)框架的「聯(lián)邦學(xué)習(xí)」可以有效解決數(shù)據(jù)獲取和隱私保護(hù)間的矛盾。而 AI 的偏見是由數(shù)據(jù)本身的不平衡產(chǎn)生,除非能訓(xùn)練 AI 理解數(shù)據(jù)背后的含義,否則偏見問題還無法解決。

  在大多數(shù)人的觀念中,要解決這些倫理問題,AI 應(yīng)該朝著 Artificial General Intelligence(通用人工智能)努力。但 AGI 太遙不可及,Gary 認(rèn)為目前我們的目標(biāo)應(yīng)該是「穩(wěn)健的人工智能」,比如創(chuàng)造一個可以對物理世界進(jìn)行推理的系統(tǒng)。

  如何創(chuàng)建?從學(xué)術(shù)屆的角度來說,應(yīng)當(dāng)改革激勵機制,鼓勵「可復(fù)現(xiàn)性」的項目研究;而從 AI 市場來看,則需要改變壟斷現(xiàn)狀,將巨頭公司拆分為多個創(chuàng)業(yè)項目,激發(fā)市場活力。

一、技術(shù)重啟:深度學(xué)習(xí)做的遠(yuǎn)遠(yuǎn)不夠

  當(dāng)陸奇問到「人工智能在疫情中的應(yīng)用潛力時」,Gary 的回答是,「AI 做的遠(yuǎn)遠(yuǎn)不夠?!?/P>

  在 Gary 的設(shè)想中,人工智能的未來方向是在更深層的科研方面幫助人類,它應(yīng)當(dāng)可以閱讀文獻(xiàn),學(xué)習(xí)醫(yī)學(xué)、生物學(xué)和化學(xué),幫助人類篩查藥物,在無需人體測試的情況下通過計算機模擬了解藥物安全性,或者篩查新冠病毒論文并判斷研究價值。但目前機器最多只可以根據(jù)關(guān)鍵詞篩選論文。

  在深度學(xué)習(xí)成為人工智能主導(dǎo)的這些年里,機器感知世界的方式就是數(shù)據(jù),它需要大量的數(shù)據(jù)認(rèn)知物體,行動也需要依靠設(shè)定好的程序。

  所以,當(dāng)碰見新冠病毒者這類缺乏龐大數(shù)據(jù)庫的新型疾病時,機器的作用就會非常有限。

  學(xué)界一直存在對深度學(xué)習(xí)的批判,如果一直用大量數(shù)據(jù)代替真正的思考,機器將永遠(yuǎn)無法像人類一樣進(jìn)行感知和推理。

  Gary 舉例說,「我現(xiàn)在看見的畫面中間有一個紅色的水瓶,我沒有看見任何支持它的東西,但用物理學(xué)常識預(yù)測,它肯定不是漂浮在空中,我可以猜測他是穩(wěn)定的,但是機器不能?!?/P>

  同樣的,機器也無法處理突發(fā)情況,正如 AlphaGo 擊敗人類圍棋大師時流傳的那則笑話,「當(dāng)房間著火的時候,我們的機器人可以下出超人一般的圍棋棋步。」——人類擁有關(guān)于這個世界的基本知識(火很危險),同時還有推理的能力(應(yīng)該遠(yuǎn)離火),但機器沒有。

  如何做到?Gary 給出的回答是,「用常識推理訓(xùn)練機器」,機器不聰明的關(guān)鍵是其不像人類一樣擁有世界的常識。

  回望 20 世紀(jì) 60、70 年代,當(dāng)時的科學(xué)家們并非用數(shù)據(jù)訓(xùn)練機器,而是嘗試教給機器關(guān)于世界的常識,讓其用邏輯做一些簡單的推理。

  比如,麥卡錫提出的 Advice Taker 是世界上第一個解決常識知識的人工智能程序,它想讓機器做的推理是,「因為想讓別人吃蛋糕而去烤蛋糕?!埂敢驗?tweety 是一只鳥,所以 tweety 會飛?!?/P>

  「任何想要進(jìn)入人工智能領(lǐng)域的人都需要透過現(xiàn)在回望過去。」Gary 說。在當(dāng)今時代,尤其是當(dāng)今的中國,我們擁有極其龐大人類交互數(shù)據(jù)庫,比如微軟小冰,每月有上億人與之聊天,如何利用這些數(shù)據(jù)庫讓機器了解世界的常識,進(jìn)而擁有思想,才是現(xiàn)代科學(xué)家應(yīng)該做的事情。

  Gary 所說的機器理解常識在現(xiàn)階段還無法做到,但已經(jīng)有一些公司在往這個方向努力。比如 Gary 創(chuàng)建的公司 Robust.AI 一直在將深度學(xué)習(xí)與符號人工智能結(jié)合,培養(yǎng)機器的邏輯思維。

  Cyc 項目沿用的傳統(tǒng)的常識教授方法,雇傭了來編寫 2500 萬條常識性規(guī)則,比如「水是濕的」或者「大多數(shù)人都知道他們朋友的名字」。這讓 Cyc 能夠推斷:「如果你的襯衫濕了,所以你可能是在雨中?!?/P>

二、倫理重啟:隱私、偏見與版權(quán),AI 會走向何方?

  談及 AI,一個不可忽視的問題就是倫理,人工智能的發(fā)展似乎一直伴隨著倫理爭議。在新冠疫情肆虐的背景下,AI 引發(fā)的倫理似乎更加嚴(yán)重。

  陸奇和 Gary 的對話并沒有回避這個敏感問題,而是就隱私、偏見、版權(quán)侵犯等極受爭議的領(lǐng)域進(jìn)行了反思與探討。

  聯(lián)邦學(xué)習(xí):數(shù)據(jù)與隱私的兩全法

  在新冠肆虐的背景下,許多組織都開發(fā)了追蹤者應(yīng)用程序,但受到了不少隱私捍衛(wèi)者的反對,最后蘋果和谷歌聯(lián)手推出了藍(lán)牙追蹤項目,利用藍(lán)牙將用戶信息匿名傳播到云上。

  但關(guān)于人工智能與隱私問題的討論從未停止。西方有《歐盟通用數(shù)據(jù)保護(hù)條例》,今年 4 月,國務(wù)院也在《關(guān)于構(gòu)建更加完善的要素市場化配置體制機制的意見》里,強調(diào)了數(shù)據(jù)的共享、數(shù)據(jù)資源的整合和安全保護(hù)。

  不管是個人應(yīng)用還是 2B 項目,都面臨著隱私保護(hù)與數(shù)據(jù)孤島問題?!溉绾慰创斯ぶ悄芘c隱私保護(hù)的矛盾?」陸奇問到。

  這方面的技術(shù)也的確迎來不少突破,Gary 認(rèn)為,「聯(lián)邦學(xué)習(xí)」是解決隱私問題的一個可行的辦法。

  聯(lián)邦學(xué)習(xí)的本質(zhì)是用分布式機器學(xué)習(xí)技術(shù),從群體中抽離個體信息。

  在聯(lián)邦學(xué)習(xí)框架中,參與者的邊緣設(shè)備產(chǎn)生的數(shù)據(jù)會保存在本地,設(shè)備會根據(jù)本地數(shù)據(jù)訓(xùn)練本地機器模型,然后根據(jù)一定的通信機制向中央服務(wù)器傳輸模型參數(shù)等數(shù)據(jù),(模型參數(shù)并非客戶端原始數(shù)據(jù)。)由此一來,中央處理器就可以在邊緣設(shè)備不貢獻(xiàn)數(shù)據(jù)的情況下訓(xùn)練構(gòu)建全局模型。

  「如果我們走到符號層面,你可以抽想出需要了解到場景,而不侵犯特定個體到個人隱私?!笹ary 說。

  不會思考機器:傲慢與偏見如何解?

  隱私之外,一個更受爭議的倫理話題是偏見。今年的弗洛伊德事件、杜克大學(xué) PULSE 算法事件以及巨頭紛紛下架人臉識別應(yīng)用等都將人工智能偏見推到了輿論漩渦中。

  「在你看來,是否可能存在不帶偏見的人工智能應(yīng)用算法或系統(tǒng)?」陸奇問。

  「現(xiàn)在沒有,也許最終會有。」Gary 說。在他看來,人工智能存在偏見的原因是,機器只是在反饋過去的事情。

  「如果你有一個根據(jù)過往信息獲取優(yōu)秀程序員的系統(tǒng),你輸入一個芭蕾舞演員,由于系統(tǒng)中沒有芭蕾舞演員信息,最后得出的結(jié)論便是此人不適合成為程序員。這其中更深層次的原因是以往的教育是芭蕾舞演員不應(yīng)進(jìn)入編程領(lǐng)域?!?/P>

  社會觀念在進(jìn)步,但機器只會機械性的按照歷史數(shù)據(jù)做出判斷,但歷史數(shù)據(jù)本身就是帶有偏見的。

  「唯一的補救方法就是常識推理?!笹ary 認(rèn)為,只有常識推理才能讓機器具備更深層次的理解能力,思考他們正在處理的問題。

  「我不認(rèn)為這是無法解決的,但我認(rèn)為這至少需要十年。我們目前所掌握的技術(shù)距離這一目標(biāo)相去甚遠(yuǎn)?!?/P>

  被輕易篡改的真相:技術(shù)與版權(quán)如何平衡?

  隱私和偏見是目前爭議較大的兩個倫理問題,除此之外,人工智能還有一些未被重視但同樣有隱患的問題,如版權(quán)侵犯。

  這類問題容易通常發(fā)生在生成模型中,比如 AI 換臉。2017 年 deepfake 橫空出世,隨之而來是各類倫理問題,不少女明星的臉被換到色情電影中,2019 年 ZAO 的出現(xiàn)降低了換臉門檻,也讓肖像權(quán)侵犯現(xiàn)象更加泛濫。除了肖像問題,生成模型還在不斷侵入影視、音樂和文學(xué)創(chuàng)作領(lǐng)域,會更改原本的內(nèi)容侵權(quán)作者版權(quán)。

  「關(guān)于能夠生產(chǎn)更改內(nèi)容的 AI 模型,你的觀點是什么?」陸奇問。

  相比于版權(quán)侵犯,Gary 認(rèn)為更嚴(yán)重的問題人工智能會很容易的制作虛假內(nèi)容?!改憧梢宰鲆粋€視頻,Gary Marcus 說,深度學(xué)習(xí)是有史以來最棒的事。然后斷章取義的把它剪下來。人們無法分辨視頻的真假,無法辨別我是諷刺的口吻還是開玩笑的語氣?!?/P>

  用偽造的內(nèi)容掩蓋原本的真相,這是技術(shù)發(fā)展需要付出的代價之一。但我們并沒有相應(yīng)法律基礎(chǔ)來保護(hù)人們的權(quán)益。

三、處在青少年時期的人工智能

  「在某種程度上,我們正處于人工智能歷史上最糟糕的時刻?!笹ary 說。

  往前看,AI 正處于發(fā)展早期,倫理問題尚未暴露出,往后看,人工智能已經(jīng)強大到足夠解決這些問題。

  Gary 將目前人工智能所處階段比為「青少年」,它是一個突然變強大的少年,野蠻生長,但對世界尚缺乏足夠的理解能。

  這個階段我們應(yīng)該做的不是讓其停止生長,而是規(guī)范他的行為,引導(dǎo)他成年。

  那么,人工智能要如何走向未來?

  我們對成年人工智能的最完美的想象就是 Artificial General Intelligence(通用人工智能),那時機器人將具有一般人類智慧。

  「我們離 AGI 還有多遠(yuǎn)?如何向 AGI 前進(jìn)?」陸奇問。

  在 Gary 看來,AGI 是非常遙遠(yuǎn)的事情?!窤GI 遠(yuǎn)遠(yuǎn)超過了我們目前的理解范疇,目前我們必須選擇更簡單的問題,比如創(chuàng)造一個可以對物理世界進(jìn)行推理的系統(tǒng)。這很難,可能需要 20 年才能實現(xiàn),但起碼我們可以看到問題是什么?!?/P>

  這個更簡單的問題,用 Gary 的話來說就是「穩(wěn)健的人工智能」,比如可以讓一輛車能在各種條件下行駛不發(fā)生意外,在家庭工作中能處理意外情況。

四、實踐重啟:可復(fù)現(xiàn)性與壟斷破除讓 AI 更穩(wěn)健

  在實踐中,我們?nèi)绾螌崿F(xiàn)穩(wěn)健的人工智能?

  陸奇首先將目光放到了學(xué)界,提出了關(guān)于「可復(fù)現(xiàn)性」的問題。

  「我們是否應(yīng)該要求論文作者描述他們的實驗系統(tǒng)和過程,以便評審人員和社區(qū)能夠復(fù)現(xiàn)其結(jié)果?哪些重要且必要的步驟能夠使 AI 研究向更穩(wěn)健的方向發(fā)展?」

  關(guān)于可復(fù)現(xiàn)性,Gary 的觀點十分明確,「如果你研究的是真正的科學(xué),那么你必須具備可復(fù)現(xiàn)性。如果你構(gòu)建的項目只在特定情況下有效,那它只是個玩具?!?/P>

  可復(fù)現(xiàn)性可讓后人踩著前人的腳步,推動這個學(xué)科慢慢往更高的方向發(fā)展。但就陸奇的親身體驗而言,人工智能領(lǐng)域?qū)蓮?fù)現(xiàn)性的要求基本不存在。

  Gary 認(rèn)為這種現(xiàn)象的原因是激勵機制出現(xiàn)問題。科學(xué)家獲得研究經(jīng)費的前提是在某個知名期刊中發(fā)表引人注目的結(jié)果,這會導(dǎo)致科學(xué)家傾向于追求結(jié)果而忽略實現(xiàn)的過程。

  追求奪人眼球的結(jié)果于個人有益,但對集體無益?!讣w的利益來自于不斷研究真正的科學(xué),這與個體獲得獎勵的方式截然不同。我認(rèn)為在科學(xué)的某些方面,系統(tǒng)的整體結(jié)構(gòu)設(shè)計是面向集體的?!?/P>

  Gary 舉了艾倫腦科學(xué)研究所的案例,該研究所就致力于機器「常識推理」研究,從成千上萬個在線故事、博客和習(xí)語條目中提取短語事件訓(xùn)練機器,讓機器學(xué)習(xí)從未見過的句子,并推斷句子的情緒或意圖。

  這類的工作是一群人為一個共同的使命努力,對可復(fù)現(xiàn)性要求極高,無法在短時間內(nèi)讓個人取得明顯的成就,但放在一個更長的周期中,卻可以推動整個人工智能領(lǐng)域的進(jìn)步。

  但情況會逐漸變好。Gary 認(rèn)為,很多行業(yè)都經(jīng)歷著從忽視到激勵可復(fù)現(xiàn)性的轉(zhuǎn)折。

  「這種變化已經(jīng)在心理學(xué)領(lǐng)域發(fā)生,醫(yī)學(xué)領(lǐng)域也即將發(fā)生,在人工智能領(lǐng)域,人們也逐漸意識到了這一點。」

  當(dāng)我們把目光從學(xué)術(shù)界轉(zhuǎn)至業(yè)界,會發(fā)現(xiàn)仍然阻礙健康人工智能發(fā)展到因素仍然存在,最主要的就是壟斷。目前谷歌、蘋果、亞馬遜等巨頭已經(jīng)壟斷了大多數(shù)科技領(lǐng)域市場,并且會通過收購、兼并等方式持續(xù)排擠競爭對手,擴大市場,亞馬遜 13 億天價收購 Zoox 就是一個典型案例。

  「你是否有建議,能讓創(chuàng)業(yè)公司在巨頭環(huán)伺的情況下更好的抓住創(chuàng)業(yè)機會?」陸奇問道。

  「我沒有神奇的解決辦法。」Gary 說??陀^來看,巨頭擁有壓倒性的人才、資金、技術(shù)等競爭優(yōu)勢,他們開出的收購價格也很難讓創(chuàng)業(yè)公司拒絕。

  可壟斷狀態(tài)并不利于一個行業(yè)的健康成長,「大公司通常不擅長創(chuàng)新,他們擅長消耗掉所有的資源,他們通常有很多既得利益股東需要回應(yīng)?!?/P>

  從內(nèi)部來看,公司成長到一定規(guī)模時,就容易涉及到股東利益競爭。資本家對眼前經(jīng)濟利益的追求可能會迫使公司做出短視的決策,美國曾經(jīng)的電信巨頭 AT&T 的隕落就是鮮明的例子。

  從整個市場看,資源的壟斷會阻礙創(chuàng)業(yè)公司的入場,缺乏充分競爭的情況下,行業(yè)發(fā)展容易裹足不前。

  要解決壟斷問題,似乎只能從壟斷者本身入手,「從整個社會角度來看,給將巨頭拆分為不同的初創(chuàng)公司或許是可行的辦法?!笹ary 說。

尾聲

  回顧整篇對話,陸奇和 Gary 聚焦的問題就是「重啟 AI」,從技術(shù)、倫理、規(guī)范等角度探討了如何才能構(gòu)建一個更穩(wěn)定的 AI。

  今天的人工智能已經(jīng)發(fā)展到了一定高度,但與我們想要實現(xiàn)的人工智能相比,還是缺乏安全性和穩(wěn)定性。

  「我們目前的技術(shù)可以以 90% 的準(zhǔn)確率解決某個問題,對廣告推薦這類問題而言已經(jīng)足夠,但在自動駕駛、照顧祖父母等場景中,90% 的信任度遠(yuǎn)遠(yuǎn)不夠。我們必須思考,如何才能將準(zhǔn)確率提高到 90% 以上,如何構(gòu)建值得信任的人工智能。」

  「我希望更廣泛的世界能夠考慮到處理這些關(guān)鍵任務(wù)到人工智能,它們可以改變世界,但需要更高程度的安全性。希望 5 年、20 年、50 年之后,我們真的可以做到這些事情?!?/P>

(轉(zhuǎn)載)

標(biāo)簽:世界人工智能大會 WAIC 我要反饋 
2024世界人工智能大會專題
即刻點擊并下載ABB資料,好禮贏不停~
優(yōu)傲機器人下載中心
西克
2024全景工博會
專題報道
2024 工博會 | 直播探館 · 全景解讀
2024 工博會 | 直播探館 · 全景解讀

第二十四屆中國工博會于9月24日至28日在國家會展中心(上海)舉行,展會以“工業(yè)聚能 新質(zhì)領(lǐng)航”為全新主題。 [更多]

2024世界人工智能大會
2024世界人工智能大會

WAIC 2024將于7月在上海舉行,論壇時間7月4日-6日,展覽時間7月4日-7日。WAIC 2024將圍繞“以共商促... [更多]

2024漢諾威工業(yè)博覽會專題
2024漢諾威工業(yè)博覽會專題

2024 漢諾威工業(yè)博覽會將于4月22 - 26日在德國漢諾威展覽中心舉行。作為全球首屈一指的工業(yè)貿(mào)易展覽會,本屆展覽會... [更多]