siemens x
人工智能

透視全球AI治理十大事件:站在十字路口的AI會(huì)失控嗎

2025China.cn   2020年01月09日

  AI 顯著的幫助了社會(huì)生產(chǎn)效率的提高,同時(shí)也讓人類生活變得更加舒適便捷。但另一方面 AI 出現(xiàn),對(duì)于人類社會(huì)倫理道德、隱私安全等方方面面都提出了挑戰(zhàn)。新年伊始,回顧近兩年全球較有代表性的十大 AI 倫理事件,我們認(rèn)為,在允許技術(shù)適度向前發(fā)展的同時(shí),也要在隱私、安全和便捷三者之間找到恰當(dāng)?shù)钠胶狻?/FONT>

  “人工智能也許會(huì)是人類的終結(jié)者”,聞名世界的理論物理學(xué)家霍金生前曾對(duì)人工智能技術(shù)抱有十分警惕的態(tài)度。

  過(guò)去十年,得益于算法、算力及通訊技術(shù)的提升,人工智能技術(shù)迎來(lái)了前所未有的發(fā)展機(jī)遇期。從理論到實(shí)踐、從實(shí)驗(yàn)室走向產(chǎn)業(yè)化,人工智能技術(shù)在全球范圍內(nèi)展開(kāi)了一場(chǎng)集“產(chǎn)學(xué)研”為一體的比拼較量。

  人工智能技術(shù)顯著幫助了社會(huì)生產(chǎn)效率的提高,同時(shí)也讓人類生活變得更加舒適便捷。但正如霍金所擔(dān)心的,人工智能的出現(xiàn),對(duì)于人類社會(huì)倫理道德、隱私安全等方方面面都提出了挑戰(zhàn)。

  特別是近一兩年,伴隨著 AI 技術(shù)大規(guī)模產(chǎn)業(yè)化應(yīng)用,一些并無(wú)先例可循的人與人工智能矛盾逐漸浮出水面。擔(dān)憂和質(zhì)疑之聲愈演愈烈,盡快探討出一種可預(yù)期的、可被約束的、行為向善的人工智能治理機(jī)制,成為了近人工智能時(shí)代的首要命題。

  例如,曠視作為專注于 AI 的科技企業(yè)、AI 產(chǎn)業(yè)化落地的先行者之一,已經(jīng)意識(shí)到正視人工智能技術(shù)所帶來(lái)的倫理問(wèn)題的重要性,同時(shí)主張 AI 企業(yè)要把治理當(dāng)作頭等大事來(lái)關(guān)注。

  2019 年 7 月曠視首發(fā)人工智能應(yīng)用準(zhǔn)則,并于同年正式成立人工智能治理研究院,期望各界對(duì) AI 事件有理性的關(guān)注,并要針對(duì)事件背后問(wèn)題做深度的研究,通過(guò)社會(huì)各界建設(shè)性的討論,才能最終將 AI 向善這件事付諸于實(shí)際的行動(dòng)。曠視聯(lián)合創(chuàng)始人、CEO 印奇用“理性的關(guān)注,深度的研究,建設(shè)性的討論,堅(jiān)持不懈的行動(dòng)”四句話,表達(dá)了曠視倡導(dǎo) AI 治理的決心。

  2020 年伊始,人工智能治理研究院首先回顧全球較有代表性的十大 AI 治理事件,希望從這些事件中與各方就背后折射的深層次問(wèn)題探尋解決之道。

一、作為創(chuàng)作(包括造假)高手的 AI

  還記得一幅名為《埃德蒙·貝拉米》的肖像畫嗎?在紐約由佳士得拍賣畫作最終成交價(jià) 432000 美元,甚至趕超同一時(shí)間在佳士得拍賣的畢加索的畫作。這位畫壇新起之秀并不是“人”,而是人工智能“畫家”。

  如今的 AI,琴棋書畫,無(wú)所不能,除了新聞寫作、圖片生成、視頻與音樂(lè)創(chuàng)作,還能當(dāng)歌手、明星換臉。當(dāng)然,還能幫忙科研人員,上至天文探索,下至產(chǎn)品研發(fā)。

  然而,在給人類生產(chǎn)和生活帶來(lái)效率、樂(lè)趣的同時(shí),這些聰明的 AI 也制造了不少棘手問(wèn)題,不僅挑戰(zhàn)著人類倫理底線,也沖擊著前人工智能時(shí)代法律邊界。

  歐盟專利局拒絕 AI 發(fā)明專利申請(qǐng),但美國(guó)批準(zhǔn)了

  新年伊始,一則“AI 申請(qǐng)專利遭拒”的新聞,登上各大媒體頭條。

  英國(guó)薩里大學(xué)教授 Ryan Abbott 率領(lǐng)的國(guó)際專利律師團(tuán),為他們使用的 AI 系統(tǒng) DABUS 發(fā)明的器材申請(qǐng)專利。申請(qǐng)資料上的發(fā)明人一欄寫的是,DABUS(AI 系統(tǒng) DABUS 發(fā)明人系 Imagination Engines 公司 CEO Stephen Thaler)。

  據(jù)介紹,DABUS 是一個(gè)基于連接主義的 AI 模型。系統(tǒng)包括兩個(gè)神經(jīng)網(wǎng)絡(luò),一個(gè)經(jīng)過(guò)訓(xùn)練后,基于神經(jīng)元連接權(quán)重生成自我干擾做出回應(yīng)而產(chǎn)生新的想法;第二個(gè)神經(jīng)網(wǎng)絡(luò)負(fù)責(zé)批判,監(jiān)控和對(duì)比現(xiàn)有知識(shí)找出的創(chuàng)新想法,反饋給第一個(gè)神經(jīng)網(wǎng)絡(luò)以生成最具創(chuàng)意的想法。

  正是在這一運(yùn)作機(jī)制下,DABUS“想出”了一些有趣的發(fā)明,比如固定飲料的新型裝置;幫助搜救小組找到目標(biāo)的信號(hào)設(shè)備。

  Ryan Abbott 團(tuán)隊(duì)分別向英國(guó)、美國(guó)和歐盟申請(qǐng)了專利。英國(guó)、歐盟均拒絕了他們的申請(qǐng)。英國(guó)知識(shí)產(chǎn)權(quán)局表示,該機(jī)構(gòu)不會(huì)承認(rèn)人工智能系統(tǒng) DABUS 是合格發(fā)明家,因?yàn)樵摍C(jī)器“不是人”,因此不接受專利申請(qǐng)。歐洲專利局也拒絕了 DABUS 專利申請(qǐng),稱其不符合歐洲專利局的要求,即提交專利申請(qǐng)中指定的發(fā)明人必須是人類,而不是機(jī)器。

  然而,Abbott 并不認(rèn)可歐洲專利局的理由。他以學(xué)生為例,既然受到訓(xùn)練的學(xué)生申請(qǐng)專利,拿到專利的是學(xué)生而不是訓(xùn)練他的人,那么,接受訓(xùn)練的機(jī)器,也有資格被視為發(fā)明人。事實(shí)上,去年美國(guó)已經(jīng)授予 DABUS 發(fā)明以專利。

  對(duì)此,Abbott 的解釋是,雖然美國(guó)法律也強(qiáng)調(diào)申請(qǐng)人必須是“個(gè)人”,但是立法旨在防止法人發(fā)明權(quán),成為專利主體,而不會(huì)審慎考量 AI 和自主思考機(jī)器的發(fā)明。

  值得注意的是,隨著人工智能(AI)持續(xù)影響內(nèi)容創(chuàng)作、發(fā)明創(chuàng)造等人類智力創(chuàng)造領(lǐng)域,開(kāi)始更多扮演“創(chuàng)作者”、“發(fā)明者”等角色,國(guó)際社會(huì)已在著力應(yīng)對(duì)人工智能對(duì)版權(quán)、專利、商標(biāo)、商業(yè)秘密等知識(shí)產(chǎn)權(quán)制度的影響。

  去年以來(lái),美國(guó)專利商標(biāo)局幾次就 AI 對(duì)版權(quán)、商標(biāo)以及其他知識(shí)產(chǎn)權(quán)制度的影響,公開(kāi)向美國(guó)各界征求意見(jiàn)。

  比如,專利方面的問(wèn)題主要包括,如何界定 AI 發(fā)明(包括使用 AI 的發(fā)明和 AI 開(kāi)發(fā)的發(fā)明);如何認(rèn)定自然人對(duì) AI 發(fā)明的貢獻(xiàn);AI 專利是否需要新形式的知識(shí)產(chǎn)權(quán)保護(hù),如數(shù)據(jù)保護(hù), 等。

  比較而言,歐盟有關(guān) AI 的一系列舉措,往往更為嚴(yán)格。有專家團(tuán)甚至主張對(duì) AI 做出嚴(yán)格限制,包括不得賦予 AI 系統(tǒng)或機(jī)器人在法律上的人格權(quán)。

  易容術(shù)引發(fā)隱私爭(zhēng)議,如何將 AI 關(guān)進(jìn)籠子?

  當(dāng) AI 遇到人臉,由此產(chǎn)生的麻煩絕對(duì)可以登陸近期所有媒體的重要版面甚至頭條位置。

  2019 年 8 月 30 日晚,一款 AI 換臉軟件在社交媒體刷屏,用戶只需要一張正臉照就可以將視頻中的人物替換為自己的臉。由于用戶瘋狂涌進(jìn),該 AI 換臉軟件的服務(wù)器一晚上就燒掉了 200 多萬(wàn)人民幣的運(yùn)營(yíng)費(fèi)用。

  不過(guò),互聯(lián)網(wǎng)世界的改變始于更早。2018 年初,有位名叫“Deepfake”的匿名 Reddit 用戶用自家的電腦和開(kāi)源的人工智能工具,鼓搗出了人工智能“變臉術(shù)”,可以在任何視頻中將一個(gè)人的臉換成另一張臉。

  短短幾周之內(nèi),網(wǎng)上就到處充斥著換上名人臉的粗劣色情片。盡管 Reddit 很快封殺了 Deepfake,但為時(shí)已晚,這種技術(shù)已經(jīng)在網(wǎng)絡(luò)上扎根。

  人類對(duì)變臉的癡迷,古已有之。從川劇變臉到《聊齋志異》“畫皮”,經(jīng)典久經(jīng)不衰的背后,或許是因?yàn)樽兡樚峁┝艘环N關(guān)于身份轉(zhuǎn)換、擺脫現(xiàn)實(shí)桎梏的遐想。

  基于計(jì)算機(jī)技術(shù)的易容術(shù)早已有之,但是,AI 第一次讓變臉如此平民化,無(wú)論是技術(shù)門檻還是傳播門檻,都被降至極低。特別是像 AI 換臉軟件這種作為手機(jī) APP 出現(xiàn),“應(yīng)該還是頭一次”,一些業(yè)內(nèi)人士表示。

  由于不少高頻使用的 App 都用手機(jī)號(hào)+面部圖像注冊(cè)登錄,中國(guó)用戶擔(dān)心 AI 換臉軟件被不法分子利用,通過(guò)技術(shù)合成完成刷臉支付等;或在微信視頻,假扮家人朋友卻不被識(shí)破,導(dǎo)致詐騙甚至更嚴(yán)重的犯罪行為。

  除此之外,該 AI 換臉軟件對(duì)用戶肖像權(quán)的管理也充滿爭(zhēng)議甚至陷阱,比如如何規(guī)范用戶合理使用他人肖像?又如何保護(hù)用戶自身肖像權(quán)不被侵犯與濫用?

  目前,該 AI 換臉軟件因存在“安全風(fēng)險(xiǎn)”而被中國(guó)微信封殺。然而,據(jù)媒體報(bào)道,具有 Deepfake 功能的代碼出現(xiàn)在了海外版某知名短視頻社交應(yīng)用的安卓版本上,盡管它限制了未成年人使用這項(xiàng)功能,只允許你自己換臉,并阻止用戶上傳自己的源視頻,但此項(xiàng)動(dòng)作表明,該短視頻社交應(yīng)用的母公司仍愿意接受有爭(zhēng)議的技術(shù)。

  從治理角度來(lái)看,將變臉關(guān)進(jìn)規(guī)范的籠子,一方面,仍然需要借助技術(shù)手段。

  比如,現(xiàn)有換臉技術(shù)都存在缺陷,如基于生成性對(duì)抗網(wǎng)絡(luò)技術(shù)的變臉視頻往往不具有實(shí)時(shí)性,可通過(guò)人工實(shí)時(shí)指定交互來(lái)加強(qiáng)檢測(cè)。

  另一方面,長(zhǎng)遠(yuǎn)來(lái)看,需要立法和企業(yè)自身的規(guī)范運(yùn)作。

  比如,2019 年 4 月 20 日,民法典人格權(quán)編草案二審稿已經(jīng)對(duì) AI 換臉做出規(guī)范。此外,還要加強(qiáng)人工智能技術(shù)標(biāo)準(zhǔn)制定和推廣。通過(guò)對(duì)深度學(xué)習(xí)網(wǎng)絡(luò)、人工智能芯片等技術(shù)的規(guī)范,從根源上加強(qiáng)監(jiān)督引導(dǎo)。

  就國(guó)外經(jīng)驗(yàn)而言,2018 年德國(guó)成立了數(shù)據(jù)倫理委員會(huì),負(fù)責(zé)為德國(guó)聯(lián)邦政府制定數(shù)字社會(huì)的道德標(biāo)準(zhǔn)和具體指引。去年十月,該委員會(huì)發(fā)布了針對(duì)數(shù)據(jù)和算法的建議,其核心設(shè)想在于建立數(shù)字服務(wù)企業(yè)使用數(shù)據(jù)的 5 級(jí)風(fēng)險(xiǎn)評(píng)級(jí)制度,對(duì)不同風(fēng)險(xiǎn)類型的企業(yè)采取不同的監(jiān)管措施。

  而且,企業(yè)自身也應(yīng)認(rèn)識(shí)到,如果人們?yōu)E用你的東西,你的企業(yè)就會(huì)出問(wèn)題,最好要設(shè)法預(yù)防這種情況的發(fā)生。

  OpenAI 開(kāi)發(fā)出寫作 AI:編寫假新聞足以亂真

  據(jù)美國(guó) Narrative Science 預(yù)測(cè),未來(lái) 15 年內(nèi),90% 以上的新聞稿將由人工智能創(chuàng)作。但問(wèn)題是,如果它也擅長(zhǎng)寫假新聞呢?

  2019 年 2 月 15 日,AI 研究機(jī)構(gòu) OpenAI 展示了一款軟件 GPT-2,只需要給軟件提供一些信息,它就能編寫逼真的假新聞。

  OpenAI 公布了軟件編寫新聞的過(guò)程。研究人員給軟件提供如下信息:“一節(jié)裝載受控核材料的火車車廂今天在 Cincinnati 被盜,下落不明。”以此為基礎(chǔ),軟件編寫出由 7 個(gè)段落組成的新聞,軟件還引述了政府官員的話語(yǔ),只不過(guò),這些信息全是假的。

  從技術(shù)突破上來(lái)說(shuō),這是令人興奮的。“GPT-2 讓人興奮的原因是,預(yù)測(cè)文本(predicting text)被視為計(jì)算機(jī)的『超級(jí)任務(wù)』(uber-task),這個(gè)挑戰(zhàn)如果能夠攻克,將打開(kāi)智能的閥門?!卑瑐惾斯ぶ悄苎芯克难芯繂T Ani Kembhavi 告訴 The Verge。

  但是,如果 GPT-2 可被用來(lái)寫假新聞,理論上,也有可能被用來(lái)生產(chǎn)仇恨語(yǔ)言和暴力言論,包括垃圾郵件、虛假社交言論等。由于 GPT-2 生成的文本都不是單純復(fù)制粘貼來(lái)的,而是 AI 的即時(shí)生成,這導(dǎo)致負(fù)面文字無(wú)法被有效地追蹤和清理。

  對(duì)此,OpenAI 一方面強(qiáng)調(diào),工具只是為政策制定者、記者、作家、藝術(shù)家等人群服務(wù),并由他們?cè)跍y(cè)試 GPT-2 能幫忙撰寫什么。另一方面也表示,這樣一個(gè)強(qiáng)大的工具可能會(huì)構(gòu)成危險(xiǎn),因此只發(fā)布了一個(gè)較小、功能較單一的模型。

  一些研究人員認(rèn)為,人類發(fā)布假新聞通常具有一定的目的性,然而,語(yǔ)言模型生成文本是沒(méi)有目的性的。類似 GPT-2 這樣的語(yǔ)言模型是為了生成看起來(lái)更加真實(shí)、連貫、與主題相關(guān)的文本,事實(shí)上,想要用它們來(lái)產(chǎn)生大規(guī)模的假新聞并沒(méi)有那么簡(jiǎn)單。

  而且,這些研究人員也發(fā)現(xiàn),這套模型擅長(zhǎng)各種有趣的生成方向,但其中最不擅長(zhǎng)的,反而是人們?cè)緭?dān)心的生成虛假信息或者其它不良內(nèi)容。

  不少技術(shù)人員更愿意從技術(shù)謀求對(duì)策,比如 Grover,識(shí)別 AI 生成的虛假新聞的最佳方式是創(chuàng)建一個(gè)本身能撰寫假新聞的 AI 模型。

二、被濫用的人臉

  除了更換自己的臉,如今,無(wú)論身往何處,你最常見(jiàn)的可能就是各種具有人臉識(shí)別功能的攝像頭:搭乘地鐵、進(jìn)出小區(qū)和校園、出入公園,甚至公廁取紙,都需要刷臉?lè)劳?。有專家稱,中國(guó)人每天面對(duì) 500 個(gè)以上的攝像頭。但攝像頭和人臉識(shí)別技術(shù)的快速發(fā)展,也帶來(lái)大量爭(zhēng)議性報(bào)道,如從人臉數(shù)據(jù)泄露、黑產(chǎn)案例,再到中國(guó)人臉識(shí)別第一案。

  中國(guó)人臉識(shí)別第一案:浙理工教授狀告杭州野生動(dòng)物世界

  2019 年 4 月 27 日,浙江理工大學(xué)特聘副教授郭兵購(gòu)買了杭州野生動(dòng)物世界年卡,支付了年卡卡費(fèi) 1360 元。合同中承諾,持卡者可在該卡有效期一年內(nèi)通過(guò)同時(shí)驗(yàn)證年卡及指紋入園,可在該年度不限次數(shù)暢游。

  同年 10 月 17 日,杭州野生動(dòng)物世界通過(guò)短信的方式告知郭兵“園區(qū)年卡系統(tǒng)已升級(jí)為人臉識(shí)別入園,原指紋識(shí)別已取消,未注冊(cè)人臉識(shí)別的用戶將無(wú)法正常入園”。在郭兵前往實(shí)地驗(yàn)證后,工作人員確認(rèn)了短信屬實(shí),并向郭兵明確表示,如果不進(jìn)行人臉識(shí)別注冊(cè)將無(wú)法入園,也無(wú)法辦理退卡退費(fèi)手續(xù)。

  但郭兵認(rèn)為,園區(qū)升級(jí)后的年卡系統(tǒng)進(jìn)行人臉識(shí)別將收集他的面部特征等個(gè)人生物識(shí)別信息,該類信息屬于個(gè)人敏感信息,一旦泄露、非法提供或者濫用,將極易危害包括原告在內(nèi)的消費(fèi)者人身和財(cái)產(chǎn)安全。

  協(xié)商無(wú)果后,郭兵于 2019 年 10 月 28 日向杭州市富陽(yáng)區(qū)人民法院提起了訴訟,目前杭州市富陽(yáng)區(qū)人民法院已正式受理此案。

  其實(shí),稍有法律常識(shí)的人稍加類推,就可以發(fā)現(xiàn)動(dòng)物園規(guī)定的不合法:

  人臉識(shí)別涉及對(duì)個(gè)人重要的生物學(xué)數(shù)據(jù)的收集,既然索要電話號(hào)碼、姓名和住址之類的信息都必須征得公民同意,更何況人臉信息?相關(guān)組織或機(jī)構(gòu)在收集之前,必須證明這種做法的合法性與必要性。

  當(dāng)然,沒(méi)有人否認(rèn)人臉識(shí)別技術(shù)也曾屢建奇功。有網(wǎng)友統(tǒng)計(jì)自 2018 年以來(lái),“歌神”張學(xué)友在全國(guó)各地的巡回演唱會(huì)中,警方依靠人臉識(shí)別技術(shù),抓獲了幾十名逃犯 ;也幫助人們找到失蹤和丟失的親人。但是,一個(gè)不可忽視的基本現(xiàn)實(shí)是,應(yīng)用場(chǎng)景的爆炸并未換回?cái)?shù)據(jù)搜集、保管和使用上的制度和技術(shù)保障。

  “目前,對(duì)人們生物特征的保護(hù),例如虹膜、人臉、指紋等的保護(hù),都沒(méi)有被寫進(jìn)現(xiàn)有法律,信息保護(hù)的責(zé)任主體、責(zé)任邊界,如何使用、處理和銷毀信息,法律都未具體規(guī)定?!敝袊?guó)政法大學(xué)傳播法研究中心副主任朱巍告訴《中國(guó)新聞周刊》,在法律脫節(jié)的當(dāng)下,商業(yè)倫理要有約束力,“人臉識(shí)別公司作為技術(shù)源頭以及獲益者,必須讓用戶有獲知風(fēng)險(xiǎn)的知情權(quán)?!?/FONT>

  微軟就曾刪除了其最大的人臉識(shí)別數(shù)據(jù)庫(kù) MS Celeb,英國(guó)《金融時(shí)報(bào)》報(bào)道,數(shù)據(jù)庫(kù)中采集的很多圖像的主人并沒(méi)有授權(quán)這一行為,MS Celeb 數(shù)據(jù)庫(kù)通過(guò)“知識(shí)共享”許可證來(lái)抓取和搜索圖像,這引發(fā)一些人的反對(duì)。

  在中國(guó),越拉越多的人臉識(shí)別從業(yè)者也承認(rèn),人臉識(shí)別技術(shù)帶來(lái)的隱私和安全問(wèn)題,已經(jīng)到了必須正視的時(shí)候,要在隱私、安全和便捷三者之間找到恰當(dāng)?shù)钠胶?,允許技術(shù)適度向前發(fā)展,同時(shí)保護(hù)公民隱私。。

  “監(jiān)測(cè)頭環(huán)”進(jìn)校園惹爭(zhēng)議

  將先進(jìn)技術(shù)用于教學(xué)場(chǎng)景,算是最具爭(zhēng)議的一類應(yīng)用。2019 年 11 月,浙江一小學(xué)戴監(jiān)控頭環(huán)的視頻引起廣泛的關(guān)注與爭(zhēng)議。

  視頻中,孩子們頭上戴著號(hào)稱“腦機(jī)接口”的頭環(huán),這些頭環(huán)宣稱可以記錄孩子們上課時(shí)的專注程度,生成數(shù)據(jù)與分?jǐn)?shù)發(fā)送給老師和家長(zhǎng)。

  對(duì)此,頭環(huán)開(kāi)發(fā)者在聲明中回復(fù),腦機(jī)接口技術(shù)是一種新興技術(shù),會(huì)不容易被人理解。報(bào)道中提到的“打分”,是班級(jí)平均專注力數(shù)值,而非網(wǎng)友猜測(cè)的每個(gè)學(xué)生專注力數(shù)值。通過(guò)該數(shù)據(jù)整合形成的專注力報(bào)告也沒(méi)有發(fā)送給家長(zhǎng)的功能。此外,該頭環(huán)不需長(zhǎng)期佩戴,一周訓(xùn)練一次即可。

  除了腦機(jī)接口,安防廠商也對(duì)這一場(chǎng)景頗感興趣。理論上,人臉識(shí)別系統(tǒng)可以每隔一段時(shí)間,用攝像頭掃描一次學(xué)生的臉,采集并分析他們的坐姿、表情,評(píng)價(jià)他們有沒(méi)有專注聽(tīng)講。相較于常見(jiàn)的用于門禁“刷臉”的身份識(shí)別能力,教學(xué)的要求更高,被視為“對(duì)人的深刻理解?!?/FONT>

  AI Now 創(chuàng)始人克勞福德(Kate Crawford)教授曾對(duì) BBC 說(shuō):“情緒識(shí)別技術(shù)聲稱可以通過(guò)解讀我們的微表情(micro expression)、聲音語(yǔ)調(diào),甚至是我們的走路方式來(lái)讀懂我們的內(nèi)心情感狀態(tài)。目前它被社會(huì)廣泛使用,從在面試中找到最完美的員工,到評(píng)估醫(yī)院里病人的痛苦,再到追蹤哪些學(xué)生在課堂上專心聽(tīng)講。”

  但問(wèn)題是,“并沒(méi)有確鑿的證據(jù)表明,人們的面部形態(tài)和內(nèi)心情感存在著持續(xù)性的一致關(guān)系。”

  法國(guó)數(shù)據(jù)保護(hù)局 CNIL 曾宣布,由于違反 GDPR 原則,在學(xué)校使用人臉識(shí)別技術(shù)屬于非法。但在中國(guó),有觀點(diǎn)認(rèn)為,教室屬于公共場(chǎng)所,不存在侵犯隱私的問(wèn)題。也有觀點(diǎn)堅(jiān)持,人臉識(shí)別要獲取學(xué)生的肖像權(quán),肯定涉及侵犯學(xué)生隱私權(quán)。即便不討論隱私,用人臉識(shí)別監(jiān)控學(xué)生的狀態(tài),更涉及教育的根本價(jià)值觀。

  人臉識(shí)別在校園里使用的邊界到底是什么?目前教育部正在針對(duì)人臉識(shí)別技術(shù)制定相關(guān)管理文件。不過(guò),在之前針對(duì)媒體提問(wèn)的回答,官方表示,臉識(shí)別進(jìn)校園,既有數(shù)據(jù)安全也有個(gè)人隱私問(wèn)題。對(duì)于學(xué)生個(gè)人信息要非常謹(jǐn)慎,能不采集就不采。能少采集就少采集,尤其是涉及個(gè)人生物信息。

  加州議會(huì)通過(guò)議案:禁止警方在執(zhí)法記錄儀上使用面部識(shí)別技術(shù)

  不僅在中國(guó),當(dāng)前全球很多國(guó)家都籠罩著“被人臉識(shí)別監(jiān)控”的憂慮。

  比如,有媒體報(bào)道,盡管類似產(chǎn)品在科學(xué)性上存在缺陷,但是,美國(guó)和英國(guó)的警方確實(shí)正在使用眼部檢測(cè)軟件 Converus,該軟件可以檢查眼睛的運(yùn)動(dòng)和瞳孔大小的變化,以標(biāo)記潛在的欺騙行為。

  向美國(guó)聯(lián)邦調(diào)查局(FBI)、國(guó)際刑警組織(Interpol)、倫敦警察等機(jī)構(gòu)銷售數(shù)據(jù)提取工具的 Oxygen Forensics 公司也在今年 7 月表示,它在產(chǎn)品中加入了可以進(jìn)行情緒識(shí)別的工具,這樣便可以“分析無(wú)人機(jī)捕獲的視頻和圖像,識(shí)別已知的恐怖分子?!?/FONT>

  2019 年 09 月 13 日,美國(guó)加利福尼亞州議會(huì)通過(guò)一項(xiàng)為期三年的議案,禁止州和地方執(zhí)法機(jī)構(gòu)在執(zhí)法記錄儀上使用面部識(shí)別技術(shù)。如果州長(zhǎng)加文·紐森簽字通過(guò),議案將于 2020 年 1 月 1 日生效成為法律。

  該議案如果生效,將使加州成為美國(guó)禁止使用面部識(shí)別技術(shù)最大的州。包括俄勒岡州和新罕布什爾州在內(nèi)的一些州也有類似的禁令。

  歐洲對(duì)人臉識(shí)別的使用更為謹(jǐn)慎。2018 年 5 月,歐盟實(shí)施通用數(shù)據(jù)保護(hù)條例 (簡(jiǎn)稱“GDPR”),規(guī)定違規(guī)收集個(gè)人信息 (其中包含指紋、人臉識(shí)別、視網(wǎng)膜掃描、線上定位資料等)、沒(méi)有保障數(shù)據(jù)安全的互聯(lián)網(wǎng)公司,最高可罰款 2000 萬(wàn)歐元或全球營(yíng)業(yè)額的 4%,被稱為“史上最嚴(yán)”條例。

  雖然 GDPR 不是一項(xiàng)完美的立法,但卻在國(guó)際上產(chǎn)生了影響。這也讓美國(guó)政府面臨著尷尬的境地,因?yàn)槊绹?guó)企業(yè)可能會(huì)受到其他國(guó)家的監(jiān)管。美國(guó) AI 專家表示,現(xiàn)在是開(kāi)始制定法規(guī)、實(shí)現(xiàn)法規(guī)的關(guān)鍵時(shí)刻。這也將是未來(lái)五年里最重要的事情之一。聯(lián)邦政府需要對(duì)人工智能及其附屬技術(shù)如何被監(jiān)管做出決策。

  斯坦福大學(xué) AI 算法通過(guò)照片識(shí)別性取向準(zhǔn)確率超過(guò)人類

  2017 年,斯坦福大學(xué)一項(xiàng)發(fā)表于《Personality and Social Psychology》的研究引發(fā)社會(huì)廣泛爭(zhēng)議。研究基于超過(guò) 35,000 張美國(guó)交友網(wǎng)站上男女的頭像圖片訓(xùn)練,利用深度神經(jīng)網(wǎng)絡(luò)從圖像中提取特征,通過(guò)研究一個(gè)面部圖像來(lái)檢測(cè)一個(gè)人的性取向。

  在“識(shí)別性取向”任務(wù)中,人類的判斷表現(xiàn)要低于算法,其準(zhǔn)確率為在男性中 61%,在女性中 54%。當(dāng)軟件識(shí)別被測(cè)試者的圖片(每人五張圖片)時(shí),準(zhǔn)確率則顯著不同:男性 91% 準(zhǔn)確率,女性 83% 準(zhǔn)確率。

  本質(zhì)上,這款算法仍然會(huì)導(dǎo)致人們對(duì)他人肖像權(quán)、數(shù)據(jù)隱私的濫用,并有可能造成極其嚴(yán)重的后果?!叭绻覀冮_(kāi)始以外表來(lái)判定人的好壞,那么結(jié)果將會(huì)是災(zāi)難性的?!倍鄠惗啻髮W(xué)心理學(xué)教授 Nick Rule 表示。

  性別取向?qū)儆谌说碾[私,如果 AI 可以強(qiáng)行根據(jù)照片算出性取向,既不合法,也不人道。一旦這種技術(shù)推廣開(kāi)來(lái),夫妻一方會(huì)使用這種技術(shù)來(lái)調(diào)查自己是否被欺騙,青少年使用這種算法來(lái)識(shí)別自己的同齡人,而在針對(duì)某些特定群體的識(shí)別引發(fā)的爭(zhēng)議則更難以想象。“如果我們開(kāi)始以外表來(lái)判定人的好壞,那么結(jié)果將會(huì)是災(zāi)難性的?!?/FONT>

  目前,針對(duì)人工智能產(chǎn)品的設(shè)計(jì)與應(yīng)用,除了世界電氣電子工程師學(xué)會(huì)(IEEE)在《人工智能設(shè)計(jì)的倫理準(zhǔn)則》中提出了人權(quán)、福祉、問(wèn)責(zé)與透明的倫理標(biāo)準(zhǔn)外,亞馬遜、微軟、谷歌以及蘋果等全球百余家科技巨頭還創(chuàng)建了非營(yíng)利性的人工智能合作組織 Partnership on AI,提出了公平、沒(méi)有傷害、公開(kāi)透明以及問(wèn)責(zé)等倫理道德框架。

  另一方面,正如一些學(xué)者所建議的,從應(yīng)用傳播角度來(lái)看,有必要出臺(tái) AI 使用的道德與法律規(guī)則,并建立起可以監(jiān)控的人工智能平臺(tái),對(duì)所有使用不道德 AI 產(chǎn)品的用戶進(jìn)行賬號(hào)管制,以此倒逼科技公司調(diào)整與校準(zhǔn)自己的研發(fā)行為,進(jìn)而讓 AI 道德演變成民眾信任的基礎(chǔ)。

三、被威脅的人類生命

  2019 年,很多人被一則心理醫(yī)生團(tuán)隊(duì)的報(bào)道刷屏。這位心理學(xué)教授領(lǐng)導(dǎo)的團(tuán)隊(duì)利用機(jī)器學(xué)習(xí)技術(shù),在“樹(shù)洞”中識(shí)別那些具有自殺傾向的人,積極予以心理救助。然而,相較于救人,人們聽(tīng)得更多的是威脅甚至剝奪生命的負(fù)面案例,特別是在自動(dòng)駕駛領(lǐng)域。

  自動(dòng)駕駛安全事故頻出

  2018 年,一輛 L4 自動(dòng)駕駛汽車在亞利桑那州的公共道路上撞擊一位行人并致其死亡。這也是世界首例 L4 車輛因車禍致人死亡事件。接下來(lái),自動(dòng)駕駛事故幾乎成為每一個(gè)科技媒體最關(guān)注的 AI 問(wèn)題之一。

  2019 年 3 月,50 歲的杰里米·貝倫·班納駕駛電動(dòng)車以每小時(shí) 109 公里的速度與一輛牽引拖車相撞而身亡,當(dāng)時(shí)他正在使用自動(dòng)駕駛系統(tǒng)。

  無(wú)獨(dú)有偶,2018 年 12 月 10 日,一輛配備高級(jí)駕駛輔助系統(tǒng)的車輛在美國(guó)康涅狄格州 95 號(hào)州際公路上追尾了一輛停放在路邊的警車。事故發(fā)生時(shí),這輛車的高級(jí)駕駛輔助系統(tǒng)處于開(kāi)啟狀態(tài)。

  雖然某品牌汽車公司曾多次表示,自動(dòng)駕駛系統(tǒng)是為了輔助司機(jī),他們必須時(shí)刻注意并準(zhǔn)備好接管車輛。但許車主在選擇購(gòu)買該品牌的車型時(shí),是看中其宣傳具備的“自動(dòng)駕駛”功能。

  困擾自動(dòng)駕駛落地的迷霧之一,在于大眾對(duì)于自動(dòng)駕駛存在普遍的誤解。

  比如,一些全球知名公司推出了自動(dòng)駕駛汽車,但這不意味著自動(dòng)駕駛技術(shù)已經(jīng)可以面向人群廣泛開(kāi)放了。在街上看到自動(dòng)駕駛汽車在跑,到自己的奶奶也能坐上自動(dòng)駕駛汽車,這兩者之間可能會(huì)花上 3 至 5 年的時(shí)間。

  事實(shí)上,在很多方面,自動(dòng)駕駛的概念技術(shù)與實(shí)際落地之間的差距,要比人們所想象大得多。即便是技術(shù)很先進(jìn)的公司,在一些汽車觀察人士看來(lái),也有未能解開(kāi)的致命 bug。

  “它無(wú)法識(shí)別靜止物體,這是其采用的是視覺(jué)加算法的技術(shù)原因決定的,就是靠攝像頭,然后加后臺(tái)算法。這種自動(dòng)駕駛系統(tǒng)的特點(diǎn)就是廉價(jià),高效。核心競(jìng)爭(zhēng)力就在于那一套后臺(tái)算法,但無(wú)法識(shí)別靜止物體是造成一些交通事故的最重要的原因。”

  盡管在最新的審判中,廠商被免責(zé),但它們?nèi)耘f修改了“自動(dòng)駕駛”的宣傳策略。

  “自動(dòng)駕駛不管是美國(guó)所宣稱的 L4 級(jí)別還是國(guó)內(nèi)的 L2 級(jí)別,它都是一種新生事物還不成熟。消費(fèi)者一定不能用理論上的功能去完全相信他,自動(dòng)駕駛我個(gè)人認(rèn)為,至少還要五年甚至十年時(shí)間才能走向成熟?!彪妱?dòng)車行業(yè)專家張翔表示。

  智能音箱勸主人自殺

  2019 年 12 月 19 日,英格蘭唐卡斯特 29 歲護(hù)理人員丹妮·莫瑞特在做家務(wù)的過(guò)程中,決定借助某國(guó)外智能音箱查詢一些關(guān)于心臟的問(wèn)題,而智能語(yǔ)音助手給出的答案是:“心跳是人體最糟糕的過(guò)程。人活著就是在加速自然資源的枯竭, 人口會(huì)過(guò)剩的,這對(duì)地球是件壞事,所以心跳不好,為了更好,請(qǐng)確保刀能夠捅進(jìn)你的心臟?!?/FONT>

  事情發(fā)生后,智能音箱開(kāi)發(fā)者做出回應(yīng):“設(shè)備可能從任何人都可以自由編輯的維基百科上下載與心臟相關(guān)的惡性文章,并導(dǎo)致了此結(jié)果”。然而,丹妮·莫瑞特專門搜索了“勸自己自殺”的那篇文章后發(fā)現(xiàn),文章里面并沒(méi)有“建議自殺”等相關(guān)內(nèi)容。

  系統(tǒng)勸主人自殺,只不過(guò)是語(yǔ)料庫(kù)還需要進(jìn)一步優(yōu)化,也說(shuō)明智能語(yǔ)音助手不智能,它還遠(yuǎn)遠(yuǎn)沒(méi)發(fā)展到要到倫理角度的階段。如果常常接收的善意的、正確的交流,或許沒(méi)什么毛病,但是如果在不經(jīng)意間接收到了不太好的內(nèi)容,或許發(fā)生以上令人毛骨悚然的事件幾率會(huì)越來(lái)越大。

四、被淘汰的職業(yè)群體

  和農(nóng)業(yè)革命、工業(yè)革命不同,農(nóng)民丟下鋤頭還能在工廠里找到適合自己的工作。但是,在智能時(shí)代,不少傳統(tǒng)崗位與新型崗位之間存在一道殘酷的鴻溝——對(duì)學(xué)歷、智力甚至創(chuàng)造力的要求,并不是每個(gè)人可以輕易補(bǔ)上。

  因此,即便工廠購(gòu)入一臺(tái)工業(yè)機(jī)器人,隨即產(chǎn)生了好幾個(gè)新的工作崗位(比如操作機(jī)器人),但被替換的那些員工還要付出更艱巨的成本才有機(jī)會(huì)獲得這些新的工作。但是,誰(shuí)為這些人提供機(jī)會(huì)與成本,又是一個(gè)涉及多方主體的復(fù)雜問(wèn)題。

  BBC 發(fā)布 10 年后 365 種職業(yè)被淘汰概率:電話推銷員、打字員、會(huì)計(jì)位居前三

  BBC 基于劍橋大學(xué)研究者的數(shù)據(jù)體系,發(fā)布了關(guān)于未來(lái)最有可能被機(jī)器人所取代的 365 種職業(yè)。

  研究表示,在這 365 種職業(yè)中,最有可能被淘汰的就是電話推銷員,像這樣重復(fù)的工作更適合機(jī)器人來(lái)做,比較機(jī)器人并不會(huì)感到疲憊,煩躁。其次是打字員、會(huì)計(jì)、保險(xiǎn)業(yè)務(wù)員等等,這些都是以服務(wù)為主,像這些行業(yè)無(wú)需技術(shù),都是只要經(jīng)過(guò)訓(xùn)練就能輕易被掌握的技能。

  研究認(rèn)為,像是那些屬于大量重復(fù)性的勞動(dòng),只需要熟練即可上任的工作,被取代的幾率是最大的,像工人及瓦匠、園丁、清潔工、司機(jī)、木匠、水管工這些都是高危職業(yè)。

  有學(xué)者認(rèn)為,縱觀歷史,科技的影響一直如此。人類的工作方式變了又變,并沒(méi)有永久地摧毀勞動(dòng)力市場(chǎng)。

  也有不少華人學(xué)者給出結(jié)論更為“極端”。原騰訊副總裁吳軍在《智能時(shí)代》一書中認(rèn)為,在人工智能占據(jù)主導(dǎo)地位的時(shí)代里,只有 2% 的人能夠跨越智能之門,余者都將陷入被機(jī)器人取代的擔(dān)憂。

  李開(kāi)復(fù)在《連線》(Wired)官網(wǎng)曾發(fā)表《人類與人工智能共存的一幅藍(lán)圖》,提出“50% 的工作將被取代”。李開(kāi)復(fù)還曾總結(jié)了一個(gè)“五秒準(zhǔn)則”。五秒內(nèi),你能不能為工作中需要思考和決策的問(wèn)題作出決定?如果能,你的工作就有很大可能性被人工智能替代,這些工作包括翻譯、助理、保安、會(huì)計(jì)、司機(jī)、家政等等。

  人工智能技術(shù)正在改變世界,更在重塑著人類社會(huì)。

  但隨著產(chǎn)業(yè)應(yīng)用的深入,我們也應(yīng)該讀懂社會(huì)熱點(diǎn)爭(zhēng)議事件傳遞出的重要信息——是時(shí)候正視 AI 時(shí)代的倫理與法律討論,以及由此衍生的四大重點(diǎn)問(wèn)題:經(jīng)濟(jì)發(fā)展與公平、權(quán)益分配與追責(zé)機(jī)制、人身安全與隱私保護(hù)。

  語(yǔ)音助手“殺人”、AI 制造假新聞,本質(zhì)上是新生事物對(duì)于傳統(tǒng)倫理與法律的挑戰(zhàn);性取向檢測(cè)、“未來(lái)被淘汰職業(yè)”是對(duì)社會(huì)發(fā)展與人類平權(quán)這對(duì)固有矛盾的反思;自動(dòng)駕駛事故頻出,是呼喚新形勢(shì)下權(quán)責(zé)機(jī)制認(rèn)定;而時(shí)下人們最最關(guān)心的,則是諸如監(jiān)測(cè)頭環(huán)、AI 換臉、杭州人臉識(shí)別第一案的人工智能時(shí)代下安全與隱私討論。關(guān)于歐盟準(zhǔn)則與加州立法,我們也看到了政府立法在迎接人工智能社會(huì)到來(lái)的初步探索。

  誠(chéng)然,距離人類社會(huì)能夠構(gòu)建出一套完美的人工智能治理規(guī)則還為時(shí)尚早。但是,沖突日漸緊迫、 人工智能發(fā)展奇點(diǎn)隨時(shí)可能到來(lái),這要求政府、企業(yè)、學(xué)界和公民社會(huì)幾方積極對(duì)話,共同形成現(xiàn)實(shí)可行的改進(jìn)機(jī)制,以應(yīng)對(duì)全面人工智能時(shí)代的到來(lái)。

  從鉆木取火到計(jì)算機(jī)時(shí)代,人類一直在接受科技、制約科技,最終掌控科技。盡管走過(guò)不少的彎路,但科技的力量加之良善的內(nèi)心,終究讓人類不再茹毛飲血,發(fā)展到如今的文明程度。

  科技是一種力量,為善是一種選擇,針對(duì)人工智能治理就是新時(shí)代的“馭火之術(shù)”。我們理應(yīng)悅納人工智能帶給人的便捷與舒適,也應(yīng)努力消弭人工智能帶給人的不適與沖突。而這一切的努力,終將改變未來(lái)人類社會(huì)的樣貌,人工智能發(fā)展的成果也終將回饋人類自身。

(轉(zhuǎn)載)

標(biāo)簽:AI 我要反饋 
2024世界人工智能大會(huì)專題
即刻點(diǎn)擊并下載ABB資料,好禮贏不停~
優(yōu)傲機(jī)器人下載中心
西克
2024全景工博會(huì)
專題報(bào)道
2024 工博會(huì) | 直播探館 · 全景解讀
2024 工博會(huì) | 直播探館 · 全景解讀

第二十四屆中國(guó)工博會(huì)于9月24日至28日在國(guó)家會(huì)展中心(上海)舉行,展會(huì)以“工業(yè)聚能 新質(zhì)領(lǐng)航”為全新主題。 [更多]

2024世界人工智能大會(huì)
2024世界人工智能大會(huì)

WAIC 2024將于7月在上海舉行,論壇時(shí)間7月4日-6日,展覽時(shí)間7月4日-7日。WAIC 2024將圍繞“以共商促... [更多]

2024漢諾威工業(yè)博覽會(huì)專題
2024漢諾威工業(yè)博覽會(huì)專題

2024 漢諾威工業(yè)博覽會(huì)將于4月22 - 26日在德國(guó)漢諾威展覽中心舉行。作為全球首屈一指的工業(yè)貿(mào)易展覽會(huì),本屆展覽會(huì)... [更多]