siemens x
人工智能

AI窺人(一):為什么人類熱衷“過度投射”?

2025China.cn   2021年02月07日

  也許你能找到所有關(guān)于人工智能的內(nèi)容,都有一個(gè)共性:它們都是在用人類的視角看待人工智能,對(duì)其評(píng)頭論足,前瞻后顧。

  有沒有想過把鏡頭徹底調(diào)換過來,站在人工智能這邊看看人類?

  那些長有四肢和頭顱,總是有各種情緒、想法、意見的奇怪生物到底是什么樣的?人類在與人工智能打交道的漫長歷史里,展示出了怎樣的自己?

  于是我們策劃了這個(gè)新系列《AI窺人》。在三篇故事里,我們希望把AI當(dāng)作一面鏡子,從中查看一下那些日常被視而不見的人類自我。

  問題或許在于,AI是一面反射鏡,透光鏡,還是黑鏡呢?

  人工智能發(fā)展至今,已經(jīng)經(jīng)歷了三次技術(shù)浪潮和兩次技術(shù)低谷。而現(xiàn)在我們正深處在人工智能第三次技術(shù)浪潮之中。

  關(guān)于人工智能的一片繁榮景象,難免讓我們產(chǎn)生一種過分的期待。我們仿佛正在一往無前地邁向那個(gè)實(shí)現(xiàn)通用人工智能(AGI)的“智能時(shí)代”。

  這種期待之下,我們對(duì)AI技術(shù)產(chǎn)生了兩種截然不同的情緒。

  一種是對(duì)AI技術(shù)的普及歡欣鼓舞,把AI技術(shù)視為全新的生產(chǎn)力工具,AI將大幅改善人類的生產(chǎn)效率,改善人類的生活,可以將人們從繁重、重復(fù)的體力勞動(dòng)和那些枯燥、機(jī)械的基礎(chǔ)性腦力勞動(dòng)中解放出來。

  另一種則對(duì)AI技術(shù)的發(fā)展憂心忡忡,甚至一些科技產(chǎn)業(yè)大佬也在親自站臺(tái)告誡大眾,“擔(dān)心人工智能的失控”。而在大眾輿論中,也不時(shí)地傳遞出對(duì)于“工作被AI替代”“遭遇AI偏見歧視”,以及被科幻片洗腦擔(dān)心我們?nèi)祟惐痪哂小白晕乙庾R(shí)”的AI所控制和奴役的終極擔(dān)心。

  似乎每一次一個(gè)AI的噱頭話題都能引起人們的“細(xì)思極恐”。除了媒體用“標(biāo)題黨”賺取眼球,那么這一群體認(rèn)知的背后一定暗合了大眾的某一種共通心理。

  上世紀(jì)的1970年,日本機(jī)器人學(xué)家森昌弘,根據(jù)人類對(duì)高度擬人化的人性機(jī)器人在某個(gè)相似度區(qū)間產(chǎn)生從喜愛到極端厭惡的一個(gè)心理變化。這一心理現(xiàn)象被稱為“恐怖谷”效應(yīng)。

  事實(shí)上,人們對(duì)于那些高度仿真但是面目生硬的人形機(jī)器人或者電腦特效CGI人物、人與動(dòng)物合成的怪誕形象等,會(huì)觸發(fā)人類的一種對(duì)“似人非人”之物的生理性厭惡,其根源可能在于人類將對(duì)病態(tài)、死亡的恐懼投射到這些形象身上的本能防御機(jī)制。

  顯然,“恐怖谷”效應(yīng)不僅于此。不僅是外在形象這一維度,在內(nèi)在心智中人們一旦意識(shí)到有著人類智能的非生命體(如AI)出現(xiàn),也會(huì)同樣產(chǎn)生這種或類似“恐怖谷”的心理作用,其背后根源可能就在于發(fā)生了過度的心理投射。

  我們究竟是如何產(chǎn)生這種內(nèi)在心智層面的“恐怖谷”心理,我們又如何能夠打破這種過度的心里投射,這是回答人類和AI在未來長期相處的一個(gè)關(guān)鍵問題。

AI“恐怖谷”:人類對(duì)“異己”的本能畏懼

  去年,一段“波士頓機(jī)器人反抗人類”的視頻曾一度引發(fā)人們的恐慌。在視頻中,實(shí)驗(yàn)人員對(duì)機(jī)器人進(jìn)行了一系列故意且惡劣的攻擊,一開始機(jī)器人則似乎對(duì)這種攻擊毫無反應(yīng),但隨著攻擊越來越嚴(yán)重,機(jī)器人突然做出了反抗動(dòng)作,到最后開始直接反擊人類。

  如果不是事后澄清這是用CGI技術(shù)做的假視頻,很多人甚至以為自己看到了一場“終結(jié)者”的現(xiàn)實(shí)版本。

  在不知情的情況下,想必大多數(shù)觀眾的情緒也都是從對(duì)機(jī)器人的同情轉(zhuǎn)向因機(jī)器人反抗而感到的恐懼。

  我們到底在害怕什么?

  一直以來,無論是那些科幻影視作品,還是我們自己的想象,我們對(duì)AI最大的恐懼就是害怕其產(chǎn)生“自我意識(shí)”。因?yàn)榘凑杖祟惖纳娣▌t推演,一旦具有“自我意識(shí)”的AI出現(xiàn), AI一定就會(huì)首先控制或者消滅人類這個(gè)能夠掌握AI生存權(quán)利的“他者”主體。

  當(dāng)然,目前的所謂第三代人工智能仍然處在模擬人類最初級(jí)的感知智能的階段,正在向具有分析推理能力的認(rèn)知智能階段艱難演進(jìn),而更高層次具有綜合推理判斷能力的通用人工智能更是遙遙無期,而具有自我意識(shí)的超級(jí)人工智能則更是一件沒有影子的事情。

  但是盡管我們知道這一事實(shí),我們也仍然會(huì)不由自主地產(chǎn)生“AI終將崛起,從而將人類取而代之”的邏輯推演,其根源就在于我們對(duì)威脅到自己生存的要素的本能恐懼。

  這些恐懼存在于數(shù)百萬年的進(jìn)化史當(dāng)中,包括我們對(duì)“外星生物”的恐怖想象,也包括我們對(duì)“非我族類,其心必異”的先驗(yàn)判斷。

  而這一次,恰好輪到與我們“似像非像”的人工智能而已。

格式塔效應(yīng):

我們對(duì)AI投射了過多的愛和怕

  對(duì)于“AI終將超越人類”的恐懼想象,其實(shí)只是我們對(duì)于AI進(jìn)行過度心理投射的一種極端狀態(tài),因?yàn)樵掝}過于刺激,已經(jīng)到了撩撥起我們的生存本能的地步。

  但實(shí)際上,我們對(duì)于AI的種種心理投射,其實(shí)是普遍存在的。

  記得在一部講述人類和AI進(jìn)行精神戀愛的電影《her》當(dāng)中,當(dāng)男主陷入對(duì)AI沙曼薩的迷戀之時(shí),AI坦誠地告訴他,自己正在同時(shí)跟8316個(gè)人交流時(shí),還同時(shí)和641個(gè)人戀愛。深陷其中的男主對(duì)AI產(chǎn)生了仿佛被背叛的憤怒,以及陷入無力扭轉(zhuǎn)局面的失落感當(dāng)中。

  現(xiàn)在,這樣的情形,已經(jīng)越來越多發(fā)生在現(xiàn)實(shí)當(dāng)中。比如,有一次,我愛人想通過電話客服急于解決一個(gè)問題,再跟電話那頭的客服解釋、爭論半天之后,突然意識(shí)到電話那頭只是一個(gè)AI客服,立刻感到莫名的羞惱和一種被冒犯的感覺。

  同樣,我們也會(huì)對(duì)那些具有高超模仿能力的AI軟件所生成的文本、圖像和視頻,也會(huì)投入很多真實(shí)的情緒和想象,即使我們知道這些東西是“偽造”而成的,但我們同樣將這些東西視為一種“智能”的產(chǎn)物。

  但實(shí)際上,無論是AI創(chuàng)作的音樂、繪畫,還是寫出的報(bào)道、詩歌,制作的圖像和視頻,其背后并無任何目的性,其所產(chǎn)生的“智慧”或者“意圖”,不過是我們的心理投射。

  而這種投射來自于我們的一種難以破除的被稱為“格式塔”的心理效應(yīng)。

  也就是我們的認(rèn)知容易給任何看起來陌生的事物以補(bǔ)全我們熟悉的東西,也就是我們總愛做心理上的完形填空。

  其中,我們非常擅長從非生命的物體上面看出屬于人的形象特征,尤其是人臉,這也許是人類對(duì)于自我過于迷戀的一種外化功能。同樣,我們也總想從其他動(dòng)物、植物和各種物理現(xiàn)象中解讀出屬于人類意志的東西,比如古代的“祥瑞”“河圖洛書”之類的玄學(xué)。

  如今,我們只是再一次把這種天生的認(rèn)知方式投射到了人工智能,這個(gè)天然就是要仿照人類認(rèn)知能力去構(gòu)造的系統(tǒng)上面。一旦再給人工智能配上人形身材和眼耳鼻嘴這樣的面孔,人類就更加無法從這種對(duì)智能的過度投射中抽身而出了。

  通常在大多數(shù)時(shí)候,產(chǎn)生這種“格式塔”效應(yīng)的心理投射是無傷大雅的,甚至還能給我們的生活帶來許多的樂趣,比如,調(diào)戲AI機(jī)器人一直是很多人生活中快樂的源泉。

  當(dāng)然,凡事皆有度,一旦我們產(chǎn)生對(duì)于AI的過度樂觀或者過度悲觀的心理投射,對(duì)于我們?nèi)祟愖陨砗虯I的發(fā)展來說,未必是一件正常的事情。

打破過度投射:

AI的歸AI,人類的歸人類

  對(duì)于AI技術(shù)的過度心理投射,會(huì)產(chǎn)生這樣兩種完全不同的相處心態(tài)。

  一種是對(duì)AI技術(shù)過于信任,從而過于依賴AI提供給人的信息和答案。這種時(shí)候人們往往并不太理解人工智能的技術(shù)原理和能力范圍,很多人會(huì)高估AI的發(fā)展水平,陷入到對(duì)AI的狂熱崇拜中,比如去相信什么AI彩票、AI算命等毫無根據(jù)的事情,也有可能過于依賴AI的意見進(jìn)行決策,而忽視AI算法可能存在的歧視、偏差等問題。

  另一種是對(duì)AI技術(shù)過于懷疑,從而失去跟AI協(xié)同工作和生活的意愿。這些人們同樣會(huì)陷入到對(duì)AI技術(shù)的不切實(shí)際的判斷中,但是他們通常把AI視為一種威脅,認(rèn)為AI技術(shù)正在無時(shí)不刻地竊取人類的隱私,干擾你的意圖,并最終控制你的一切喜好和消費(fèi)。

  前面一種容易陷入到假AI的“小白鼠”套路里,而后一種則更容易陷入到被迫害的“妄想癥”當(dāng)中。那么,我們該如何打破這種對(duì)AI的過度心理投射呢?

  歷史上,基督教在處理世俗權(quán)力和精神權(quán)力紛時(shí),提出了“上帝的歸上帝,凱撒的歸凱撒”這樣的高級(jí)智慧。依樣畫瓢,現(xiàn)在我們在處理人類和AI的相處關(guān)系之時(shí),也可以用“AI的歸AI,人類的歸人類”的解決方案。

  在AI技術(shù)開始影響我們?nèi)粘I畹母鞣N決策的時(shí)候,我們需要分辨清楚哪些是影響我們的事實(shí)判斷,哪些會(huì)影響我們的價(jià)值判斷。

  比如,AI會(huì)給我們提供更加合理的路線規(guī)劃、更加嚴(yán)謹(jǐn)?shù)耐馕姆g,給出更準(zhǔn)確的搜索數(shù)據(jù),但同時(shí)AI也會(huì)給我們推送我們更符合我們偏好的新聞、視頻、社交好友、商品等,而我們需要對(duì)后者保持高度警惕。

  而在我們在對(duì)各種AI應(yīng)用,進(jìn)行心理投射時(shí),我們也要有主動(dòng)意識(shí)地分辨出哪些是基于事實(shí)的理性判斷,哪些是基于情感的非理性判斷。

  比如,對(duì)于今天的AI技術(shù)發(fā)展,我們可以大膽放心地將其視作人類可靠的實(shí)用性工具,而不必?fù)?dān)心那個(gè)將要“取代人類”的邪惡AI的出現(xiàn)。再比如,我們可以對(duì)眾多AI應(yīng)用產(chǎn)生一種信賴但又能寬容其出錯(cuò)的心態(tài)。就像在開車時(shí),面對(duì)一個(gè)在前面小心翼翼行駛的自動(dòng)駕駛汽車,我們自然不會(huì)產(chǎn)生過多的不滿情緒。

  另外,隨著人工智能的持續(xù)演進(jìn),以腦機(jī)接口、機(jī)械外骨骼為典型代表的人機(jī)交互技術(shù)也在逐步走向現(xiàn)實(shí)世界。越來越多的人可能成為兼具生物屬性和人工智能屬性的賽博格(Cyborg)人類。

  顯然,按照人類所普遍具有的這種過度投射心理,我們自然會(huì)對(duì)這些跨物種的新型人類產(chǎn)生這種“恐怖谷”的情感反應(yīng),人類種群也必然要掀起一場對(duì)于究竟何種程度的賽博格人類可以與主流人類社會(huì)共存的討論。

  那么,如何將這些討論限制在可以和平對(duì)話,合理合法推進(jìn)的軌道,而不是淪為非理性的情感紛爭,甚至無端的仇視敵對(duì),這可能也是今天我們就需要對(duì)于這種心理投射的弱點(diǎn)展開主動(dòng)的練習(xí)的原因之一吧。

  區(qū)分事實(shí)和評(píng)價(jià),區(qū)分理性和情感,讓自己足夠配得上AI時(shí)代的心智水平,這或許是我們能夠在未來飛躍“恐怖谷”的一門必修課。

  文章來源:海怪 腦極體

(轉(zhuǎn)載)

標(biāo)簽:人工智能 我要反饋 
2024世界人工智能大會(huì)專題
即刻點(diǎn)擊并下載ABB資料,好禮贏不停~
優(yōu)傲機(jī)器人下載中心
西克
2024全景工博會(huì)
專題報(bào)道
2024 工博會(huì) | 直播探館 · 全景解讀
2024 工博會(huì) | 直播探館 · 全景解讀

第二十四屆中國工博會(huì)于9月24日至28日在國家會(huì)展中心(上海)舉行,展會(huì)以“工業(yè)聚能 新質(zhì)領(lǐng)航”為全新主題。 [更多]

2024世界人工智能大會(huì)
2024世界人工智能大會(huì)

WAIC 2024將于7月在上海舉行,論壇時(shí)間7月4日-6日,展覽時(shí)間7月4日-7日。WAIC 2024將圍繞“以共商促... [更多]

2024漢諾威工業(yè)博覽會(huì)專題
2024漢諾威工業(yè)博覽會(huì)專題

2024 漢諾威工業(yè)博覽會(huì)將于4月22 - 26日在德國漢諾威展覽中心舉行。作為全球首屈一指的工業(yè)貿(mào)易展覽會(huì),本屆展覽會(huì)... [更多]