siemens x
人工智能

谷歌氣球的人工智能為何令開發(fā)者自己感到驚奇?

2025China.cn   2021年03月05日

  使用人工智能的算法正在嘗試以意想不到的技巧來解決問題,這讓它們的開發(fā)者感到驚訝。但與此同時,這也引發(fā)了人們對如何控制人工智能的擔憂。

  谷歌公司的一群員工正茫然地盯著自己的電腦屏幕。幾個月來,他們一直在完善一個算法,用來控制一個無人熱氣球從波多黎各一直飛到秘魯。但還是有些地方不盡如人意,氣球在機器智能的控制下不斷偏離既定路線。

  Loon項目(Project Loon)是谷歌公司現(xiàn)已停止的一個項目,旨在通過氣球將互聯(lián)網(wǎng)接入偏遠地區(qū)。作為該項目的負責人,塞爾瓦托·坎迪多無法解釋這個氣球的軌跡。最后,他的同事們手動控制了系統(tǒng),讓氣球回到了正軌。

  后來他們才意識到發(fā)生了什么。令人意想不到的是,氣球上的人工智能學會了重現(xiàn)人類在幾百年,甚至幾千年前發(fā)明的古老航海技術,例如“改變航向”,這指的是操縱船只迎風航行,然后再向外傾斜,從而在大致方向上以之字形前進。

  在不利的天氣條件下,自主飛行的氣球已經(jīng)學會了完全靠自己來改變航向。它們自發(fā)地完成了這一過程,讓所有人都感到震驚,尤其是參與這個項目的研究人員。

在Loon項目中控制氣球飛行的人工智能學會了一種迎風航行的技術

  “當?shù)谝粋€被允許完全執(zhí)行這種技術的氣球創(chuàng)造了從波多黎各到秘魯?shù)娘w行時間記錄時,我們馬上意識到自己被打敗了,”坎迪多在一篇關于該項目的博客文章中寫道,“我從來沒有像這樣,同時感到自己既聰明又愚蠢?!?/FONT>

富有創(chuàng)造力的人工智能

  當人工智能在設備中被放任自流時,很可能就會發(fā)生這樣的事情。與傳統(tǒng)的計算機程序不同,人工智能的設計目的就是探索和開發(fā)新的方法,以完成人類工程師沒有明確告訴它們的任務。

  然而,在學習如何完成這些任務的同時,人工智能有時會想出一種極富創(chuàng)造力的方法,甚至會讓一直使用這種系統(tǒng)的人大吃一驚。這可能是一件好事,但同時也可能使人工智能控制的一切變得不可預測,甚至可能帶來危險。例如,機器人和自動駕駛汽車最終可能做出將人類置于危險境地的決定。

  人工智能系統(tǒng)怎么可能“智勝”它的人類主人呢?我們能否以某種方式約束機器智能,以確保不致某些不可預見的災難?

  隨著人工智能開始應用于現(xiàn)實世界,了解它們是否會做一些意想不到的事情是很重要的  在人工智能研究界,有一個關于人工智能創(chuàng)造力的例子似乎被引用得最多。佐治亞理工學院的馬克?里德爾表示,真正讓人們對人工智能的能力感到興奮的時刻,是DeepMind的人工智能機器學習系統(tǒng)AlphaGo如何掌握圍棋這一古老的游戲,然后擊敗了世界上最優(yōu)秀的人類棋手之一。DeepMind是一家創(chuàng)立于2010年的人工智能公司,在2014年被谷歌收購。

  里德爾解釋道:“事實證明,它們可以用一些以往從未有人用過——或者至少很多人不知道——的新策略或新技巧,來對付人類棋手?!?/FONT>

  然而,即使是這樣一場單純的圍棋游戲,也會引起人們不同的感受。一方面,DeepMind自豪地描述了其系統(tǒng)AlphaGo的“創(chuàng)新”之處,并揭示了圍棋,這一人類已經(jīng)玩了數(shù)千年的游戲的新玩法。另一方面,一些人質疑如此有創(chuàng)造性的人工智能有朝一日是否會對人類構成嚴重威脅。

  在AlphaGo取得歷史性勝利后,澳大利亞西悉尼大學的機器學習、電子學和神經(jīng)科學研究者喬納森?塔普森寫道:“認為我們能夠預測或管理人工智能最壞的行為是很可笑的,我們實際上無法想象它們可能的行為。”

  里德爾表示,我們需要記住的重要一點是,人工智能并不真正像人類那樣思考。它們的神經(jīng)網(wǎng)絡確實是受到了動物大腦的啟發(fā),但更確切地說,它們是所謂的“探索設備”。當它們試圖解決一個任務或問題時,并不會帶有很多(如果有的話)對更廣闊世界的先入之見。它們只是嘗試——有時是數(shù)百萬次——去找到一個解決方案。

  “我們?nèi)祟愑泻芏嗨枷肷系陌ぃ覀儠紤]規(guī)則,”里德爾說,“人工智能系統(tǒng)甚至不理解規(guī)則,因此它們可以隨意地撥弄事物。”

  里德爾補充道,在這種情況下,人工智能可以被描述為具有“學者癥候群”的硅等量物。所謂學者癥候群,通常是指一個人有嚴重的精神障礙,但卻在某種藝術或學術上擁有非凡的能力,其天賦通常與記憶有關。

不斷帶給我們驚奇

  人工智能讓我們感到驚奇的方式之一,是它們能夠使用相同的基本系統(tǒng)來解決根本不同的問題。最近,一款機器學習工具就被要求執(zhí)行一項非常不同的功能:下國際象棋。

  該系統(tǒng)被稱為“GPT-2”,由非營利的人工智能研究組織OpenAI開發(fā)。GPT-2利用數(shù)以百萬計的在線新聞文章和網(wǎng)頁信息進行訓練,可以根據(jù)句子中前面的單詞預測下一個單詞。開發(fā)者肖恩·普萊瑟認為,國際象棋的走法可以用字母和數(shù)字的組合來表示,因此如果根據(jù)國際象棋比賽的記錄來訓練算法,這一工具就可以通過計算理想的走法序列來學習如何下棋。

  普萊瑟對GPT-2系統(tǒng)進行了240萬場國際象棋比賽的訓練。“看到象棋引擎變成現(xiàn)實真是太酷了,”他說,“我當時根本不確定這能不能行得通。”但GPT-2做到了。盡管它的水平還比不上專門設計的國際象棋計算機,但已經(jīng)能夠成功地完成艱苦的比賽。

  普萊瑟表示,他的實驗表明GPT-2系統(tǒng)具有許多尚待探索的能力,堪稱一個具有國際象棋天賦的專家。該軟件后來的一個版本讓網(wǎng)頁設計人員大為震驚,當時,一位開發(fā)人員對其進行了簡單的訓練,讓它寫出用于在網(wǎng)頁上顯示項目(如文本和按鈕)的代碼。盡管只有一些簡單的描述,如“表示‘我愛你’的紅色文本和帶有‘ok’的按鈕”,但這個人工智能依然生成了適當?shù)拇a。很顯然,它已經(jīng)掌握了網(wǎng)頁設計的基本要領,但所受的訓練卻少得驚人。

  長期以來,人工智能給人們留下的深刻印象主要來自電子游戲領域。在人工智能研究界,有無數(shù)例子揭示了算法在虛擬環(huán)境中所做到的事情有多么令人驚訝。研究者經(jīng)常在諸如電子游戲等空間中對算法進行測試和磨練,以了解它們到底有多強大。

  2019年,OpenAI因為一段視頻登上了新聞頭條。視頻中,一個由機器學習控制的角色正在玩捉迷藏游戲。令研究人員驚訝的是,游戲中的“尋找者”最終發(fā)現(xiàn),它們可以跳到物品上方進行“沖浪”,從而進入“躲藏者”所在的圍欄。換言之,“尋找者”學會了為了自己的利益而改變游戲規(guī)則。

  反復試錯的策略會帶來各種有趣的行為,但并不總能帶來成功。兩年前,DeepMind的研究員維多利亞·克拉科夫娜邀請她博客的讀者分享人工智能解決棘手問題的故事,但要求解決問題的方式是不可預測或不可接受的。

  她整理出了一長串很吸引人的例子。其中有一個游戲算法,在第1關結束時學會了自殺,以避免在第2關死亡,這就實現(xiàn)了在第2個關卡中不死的目標,只不過采用了一種特別令人印象深刻的方式。另一個算法發(fā)現(xiàn),它可以在游戲中跳下懸崖,并將對手帶向毀滅;通過這種方式,人工智能得到了足夠的點數(shù)以獲得額外的生命,從而在無限循環(huán)中不斷重復這種自殺策略。

  紐約大學坦登工程學院的電子游戲人工智能研究者朱利安·托格里烏斯試圖解釋這其中發(fā)生的一切。他表示,這些都是“獎勵分配”錯誤的典型例子。當人工智能被要求完成某件事時,它可能會找到一些奇怪的、出乎意料的方法來實現(xiàn)目標,并最終證明這些方法是正確的。人類很少采取這樣的策略,指導我們?nèi)绾斡螒虻姆椒ê鸵?guī)則十分重要。

  托格里烏斯及其同事發(fā)現(xiàn),當人工智能系統(tǒng)在特殊條件下接受測試時,這種目標導向的偏見會暴露出來。在最近的實驗中,他的團隊發(fā)現(xiàn),被要求在銀行進行投資的游戲人工智能角色會跑到虛擬銀行大廳附近的一個角落,等待獲得投資回報。托格里烏斯指出,這個算法已經(jīng)學會了將跑到拐角處與獲得金錢回報聯(lián)系起來,盡管這種運動與得到多少回報之間并沒有實際的關系。

  托格里烏斯表示,這有點像人工智能在發(fā)展迷信,在得到了某種獎勵或懲罰之后,它們開始思考為什么會得到這些。

  這是“強化學習”的陷阱之一。所謂“強化學習”,是指人工智能最終會根據(jù)它在環(huán)境中遇到的情況設計出判斷錯誤的策略。人工智能不知道自己為什么會成功,它只能將自己的行動建立習得聯(lián)想的基礎上。這有點像人類文化早期階段時,將祈禱儀式與天氣變化聯(lián)系起來的行為。

  鴿子可以學會將食物與某些行為聯(lián)系起來,而人工智能會表現(xiàn)出類似的耦聯(lián)行為  一個有趣的例子是,鴿子也會出現(xiàn)這樣的行為。1948年,一位美國心理學家發(fā)表了一篇論文,描述了一個不尋常的實驗:他將鴿子放在圍欄里,間歇性地給予食物獎勵。這些鴿子開始將食物與它們當時正在做的事情聯(lián)系起來,有時是拍打翅膀,有時是舞蹈般的動作。然后,它們會重復這些行為,似乎期待著獎勵會隨之而來。

用新辦法解決老問題

  托格里烏斯所測試的游戲人工智能與心理學家所使用的活體動物之間有著巨大的差異,但托格里烏斯暗示,其中起作用的似乎是相同的基本機制,即獎勵與特定行為錯誤地聯(lián)系在一起。

  人工智能研究者可能會對機器學習系統(tǒng)所選擇的路徑感到驚訝,但這并不意味著他們對機器學習系統(tǒng)感到敬畏。DeepMind的深度學習研究科學家拉亞?哈德賽爾表示:“我從不覺得這些人工智能有自己的想法。”

  哈德賽爾對許多人工智能系統(tǒng)進行了試驗,發(fā)現(xiàn)它們能對她或她同事未曾預料的問題提出有趣和新穎的解決方案。她指出,這正是研究人員應該致力于增強人工智能的原因,因為這樣,它們就可以完成人類自己無法完成的事情。

  哈德賽爾還認為,使用人工智能的產(chǎn)品,比如自動駕駛汽車,可以經(jīng)過嚴格測試,以確保任何不可預測性都在一定的可接受范圍內(nèi)。“你可以對基于經(jīng)驗證據(jù)的行為做出合理的保證,”她說道。

  在這一點上,只有時間才能證明所有銷售人工智能產(chǎn)品的公司是否都如此小心謹慎。但與此同時,值得注意的是,人工智能表現(xiàn)出的意外行為絕不僅僅局限于研究環(huán)境,而是已經(jīng)進入了商業(yè)產(chǎn)品領域。

  2020年,在德國柏林的一家工廠里,由美國強化學習機器人技術公司Covariant開發(fā)的一款機器人手臂在物品經(jīng)過傳送帶時,展現(xiàn)出了意想不到的分類方法。盡管沒有專門的程序,但控制手臂的人工智能學會了瞄準透明包裝的物品中心,以確保其每次都能成功地將物品抓起來。由于這些物品是透明的,在重疊時可能會混在一起,因此瞄準不精確意味著機器人可能無法抓起物品。

  Covariant的聯(lián)合創(chuàng)始人兼首席執(zhí)行官陳曦(Peter Chen)說:“它避免了物體的重疊角,而是瞄準了最容易拾取的表面。這真的讓我們很吃驚?!?/FONT>

  無獨有偶,哈德賽爾的團隊最近試驗了一款機器人手臂,可以通過形狀分類孔洞來選取不同的物品。一開始機器人的手臂很笨拙,在人工智能的控制下,它通過不斷地拿起和放下物品進行學習;最終,機器人可以在物品進入正確位置時將其抓住,并將物品很容易地放入適當?shù)目锥?,而不是試圖用鉗子擺弄它。

  所有這些都印證了OpenAI研究管理者杰夫·克倫的觀點,即人工智能的探索性是其未來成功的基礎。近年來,克倫一直在與世界各地的同行合作,收集人工智能以出人意料的方式開發(fā)出問題解決方案的例子。

  克倫說:“隨著我們不斷擴展這些人工智能系統(tǒng)的規(guī)模,可以看到,它們正在做著一些富有創(chuàng)造性且令人印象深刻的事情,而不只是表現(xiàn)出學術上的好奇心。”

  如果人工智能系統(tǒng)能找到更好的方法來診斷疾病,或者向有需要的人群運送緊急物資,它們就可以挽救更多的生命。克倫補充道,人工智能有能力找到解決老問題的新方法。但他也認為,開發(fā)這類系統(tǒng)的人需要對其不可預測的本質保持開放和誠實,以幫助公眾了解人工智能的工作機制。

  畢竟,這是一把雙刃劍。人工智能的承諾和威脅一直同時存在,它們接下來會想到什么?這是耐人尋味的問題。

(轉載)

標簽:谷歌 人工智能 我要反饋 
2024世界人工智能大會專題
即刻點擊并下載ABB資料,好禮贏不停~
優(yōu)傲機器人下載中心
西克
2024全景工博會
專題報道
2024 工博會 | 直播探館 · 全景解讀
2024 工博會 | 直播探館 · 全景解讀

第二十四屆中國工博會于9月24日至28日在國家會展中心(上海)舉行,展會以“工業(yè)聚能 新質領航”為全新主題。 [更多]

2024世界人工智能大會
2024世界人工智能大會

WAIC 2024將于7月在上海舉行,論壇時間7月4日-6日,展覽時間7月4日-7日。WAIC 2024將圍繞“以共商促... [更多]

2024漢諾威工業(yè)博覽會專題
2024漢諾威工業(yè)博覽會專題

2024 漢諾威工業(yè)博覽會將于4月22 - 26日在德國漢諾威展覽中心舉行。作為全球首屈一指的工業(yè)貿(mào)易展覽會,本屆展覽會... [更多]