導讀:監(jiān)管與技術發(fā)展如何兼顧?
作者 | 第一財經(jīng) 劉佳 高雅 樊雪寒
類ChatGPT的生成式人工智能(AIGC)大模型引發(fā)資本競逐,各國對于AIGC合規(guī)性的重視正在推動相應的監(jiān)管措施出臺。
4月11日,中國國家互聯(lián)網(wǎng)信息辦公室就《生成式人工智能服務管理辦法(征求意見稿)》(下稱《征求意見稿》)公開征求意見,《征求意見稿》共21條,從生成式人工智能服務商的準入,到算法設計、訓練數(shù)據(jù)選擇、模型到內容,以及用戶實名和個人隱私、商業(yè)秘密等方面提出了相關要求。這意味著,當下爆火的生成式AI產業(yè)將迎來首份監(jiān)管文件。
有關ChatGPT可能引發(fā)的安全和倫理問題,目前正引發(fā)全球關注。美國拜登政府已經(jīng)開始研究是否需要對ChatGPT等人工智能工具實行檢查。作為潛在監(jiān)管的第一步,美國商務部11日就相關問責措施正式公開征求意見,包括新人工智能模型在發(fā)布前是否應經(jīng)過認證程序。
值得關注的是,前述《征求意見稿》中也明確了對生成式AI產業(yè)的支持和鼓勵態(tài)度?!墩髑笠庖姼濉诽岢?,國家支持人工智能算法、框架等基礎技術的自主創(chuàng)新、推廣應用、國際合作,鼓勵優(yōu)先采用安全可信的軟件、工具、計算和數(shù)據(jù)資源。
給AI立規(guī)矩
“這次《征求意見稿》出臺速度非???,可以說實現(xiàn)了與技術發(fā)展和應用態(tài)勢的同步推動,反映了中國網(wǎng)絡監(jiān)管、數(shù)字監(jiān)管日益成熟和敏捷高效的演進態(tài)勢?!北本煼洞髮W法學院博士生導師、中國互聯(lián)網(wǎng)協(xié)會研究中心副主任吳沈括在接受第一財經(jīng)記者采訪時說。
生成式人工智能是指基于算法、模型、規(guī)則生成文本、圖片、聲音、視頻、代碼等內容的技術。以ChatGPT為代表的生成式人工智能,正在激發(fā)包括微軟、谷歌、Meta、百度、阿里巴巴等國內外科技巨頭以及創(chuàng)業(yè)者的新一輪AI軍備競賽。僅在《征求意見稿》發(fā)布的前一天,就有前搜狗CEO王小川的百川智能,商湯科技以及昆侖萬維三家企業(yè)宣布殺入生成式人工智能大模型領域。
吳沈括提到,從《征求意見稿》中能夠看到,關于國內對于生成式人工智能的監(jiān)管思路有三個特點:一是充分利用現(xiàn)行法律法規(guī)所提供的制度、機制;二是強調風險防范、風險應對和風險管理的基本思路;三是突出了生態(tài)式、流程式的監(jiān)管方式,特別表現(xiàn)在技術應用全生命周期的多層次監(jiān)管。
《征求意見稿》體現(xiàn)了監(jiān)管前置的思路。在準入資格方面,《征求意見稿》提出,利用生成式人工智能產品向公眾提供服務前,應當按照相關規(guī)定向國家網(wǎng)信部門申報安全評估,并履行算法備案和變更、注銷備案手續(xù)。
《征求意見稿》還要求,企業(yè)提供生成式人工智能產品或服務,應當遵守法律法規(guī)的要求,尊重社會公德、公序良俗;尊重知識產權、商業(yè)道德,不得利用算法、數(shù)據(jù)、平臺等優(yōu)勢實施不公平競爭。而對于使用該服務的用戶,需要提供真實身份信息?!墩髑笠庖姼濉愤€提到,利用生成式人工智能生成的內容應當真實準確,采取措施防止生成虛假信息。
在責任劃分方面,《征求意見稿》提出,利用生成式人工智能產品提供聊天和文本、圖像、聲音生成等服務的組織和個人,包括通過提供可編程接口等方式支持他人自行生成文本、圖像、聲音等,承擔該產品生成內容生產者的責任;涉及個人信息的,承擔個人信息處理者的法定責任,履行個人信息保護義務。
在保護個人隱私、商業(yè)機密等方面,《征求意見稿》中有多條提到相關要求。例如,提供者在提供服務過程中,對用戶的輸入信息和使用記錄承擔保護義務。不得非法留存能夠推斷出用戶身份的輸入信息,不得根據(jù)用戶輸入信息和使用情況進行畫像,不得向他人提供用戶輸入信息;以及禁止非法獲取、披露、利用個人信息和隱私、商業(yè)秘密。
同時,對于提供者,還要采取適當措施防范用戶過分依賴或沉迷生成內容,保證服務的安全、穩(wěn)健、持續(xù)運營;對生成的圖片、視頻等內容進行標識等。提供者發(fā)現(xiàn)用戶利用生成式人工智能產品過程中違反法律法規(guī),違背商業(yè)道德、社會公德行為時,包括從事網(wǎng)絡炒作、惡意發(fā)帖跟評、制造垃圾郵件、編寫惡意軟件,實施不正當?shù)纳虡I(yè)營銷等,應當暫?;蛘呓K止服務。
上海君悅律師事務所的陳怡然律師對第一財經(jīng)記者表示,《征求意見稿》的發(fā)布可以幫助司法實踐更好地明確權責劃分和責任主體。例如,管理辦法針對生成式人工智能能夠以及不能向用戶提供的服務進行了劃定,同時還明確了處罰金額,這將有助于企業(yè)為其提供的AI服務承擔相應的法律責任。
例如,《征求意見稿》提到,提供者違反本辦法規(guī)定的,由網(wǎng)信部門和有關主管部門按照《中華人民共和國網(wǎng)絡安全法》《中華人民共和國數(shù)據(jù)安全法》《中華人民共和國個人信息保護法》等法律、行政法規(guī)的規(guī)定予以處罰。其中拒不改正或者情節(jié)嚴重的,責令暫?;蛘呓K止其利用生成式人工智能提供服務,并處一萬元以上十萬元以下罰款。
全球醞釀監(jiān)管措施
擴大到全球范圍看,有關ChatGPT的首個禁令來自意大利。就在3月31日,意大利個人數(shù)據(jù)保護局宣布即日起暫時禁止使用ChatGPT。隨后,歐盟國家開始跟進醞釀相關監(jiān)管措施。
據(jù)悉,由于創(chuàng)建ChatGPT的公司OpenAI沒有在歐盟設立當?shù)乜偛浚@意味著歐盟任何成員國的數(shù)據(jù)保護機構都可以對其發(fā)起新的調查和執(zhí)行禁令。據(jù)媒體報道,ChatGPT的技術應用已經(jīng)開始激怒歐洲政府,其風險范圍包括數(shù)據(jù)保護、錯誤信息、網(wǎng)絡犯罪、欺詐和學??荚囎鞅椎?。
很快,愛爾蘭數(shù)據(jù)保護委員會發(fā)表聲明稱,其正“與意大利監(jiān)管機構跟進情況,以了解其采取行動的依據(jù)”,并將“與所有歐盟數(shù)據(jù)保護機構就此事進行協(xié)調”。
德國數(shù)據(jù)保護專員對媒體表示,德國可能會追隨意大利的腳步,出于數(shù)據(jù)安全的考慮,禁用ChatGPT。
法國數(shù)據(jù)隱私監(jiān)管機構國家信息與自由委員會(CNIL)稱,該局收到兩份關于ChatGPT的投訴后已開始進行調查。該局已與意大利監(jiān)管機構聯(lián)系,以了解更多出臺禁令的依據(jù)。
比利時數(shù)據(jù)保護當局也表示,ChatGPT的潛在侵權行為“應在歐洲層面進行討論”。
英國信息專員辦公室警告說,人工智能開發(fā)人員絕不應違反數(shù)據(jù)隱私,那些不遵守數(shù)據(jù)保護法律的人將面臨后果。
挪威數(shù)據(jù)保護監(jiān)管機構Datatilsynet則稱,其至今沒有對ChatGPT進行調查,但“不排除未來會有任何事情發(fā)生”。
在布魯塞爾,歐盟委員會正就人工智能法案進行辯論。不過,歐盟委員會執(zhí)行副主席維斯塔格(MargretheVestager)則對禁用人工智能系統(tǒng)顯得更謹慎?!盁o論我們使用哪種技術,我們都必須繼續(xù)推進我們的自由,保護我們的權利。”維斯塔格在推特上表示,“這就是為什么我們不監(jiān)管人工智能技術,而是監(jiān)管人工智能的用途。我們不要在幾年內丟掉花了幾十年才建立起來的東西?!?/FONT>
美國的政策制定者也存有同樣隱憂。近日,美國眾議院委員會10名議員組成的兩黨代表團前往硅谷,與頂級技術主管和風險資本家會面,比如微軟總裁史密斯(BradSmith)、谷歌全球事務總裁沃克(KentWalker)以及大數(shù)據(jù)分析公司Palantir和人工智能公司ScaleAI的高管們。
據(jù)消息人士透露,他們的討論主要集中在人工智能的最新發(fā)展上。其中,許多高管對美國政府監(jiān)管人工智能持開放態(tài)度。但也有人警告稱,現(xiàn)有的反壟斷法可能會限制美國競爭的能力。例如,微軟發(fā)言人表示,該公司總裁不認為競爭法應該因人工智能而被修改。高管們還呼吁美國聯(lián)邦政府增加對人工智能的投資。
監(jiān)管與技術發(fā)展如何兼顧?
每一次技術革命都伴隨著帶來巨大的機遇和風險。對于生成式人工智能而言,只有建立起真實的用戶調用和模型迭代之間的飛輪,AI模型才能變得越來越聰明,而如何在政策監(jiān)管和技術發(fā)展之間找到平衡也考驗著各方。
美國眾議院小組主席卡拉格(MikeGallagher)對美國能否采取一些技術專家提議的極端措施表示懷疑,比如暫停部署人工智能?!拔覀儽仨氄业揭环N方法,把這些防護欄放在適當?shù)奈恢茫瑫r允許我們的技術部門進行創(chuàng)新,確保我們的創(chuàng)新?!笨ɡ裾f。
投資咨詢公司BCAResearch美國資產部首席策略師唐克爾(IreneTunkel)則在接受第一財經(jīng)記者采訪時認為,在AI領域的競爭,將刺激政策制定者確保人工智能和相關技術不會遇到重大瓶頸。
“為了使美國保持相對于世界其他國家的技術優(yōu)勢,美國政府將需要利用政策和財政支出來促進人工智能在多年內的增長。我們預計,(美國)更多的政府資源將被分配給人工智能,包括國防和非國防性質的資源,而監(jiān)管環(huán)境將促進整個經(jīng)濟領域在公共和私營部門越來越多地采用人工智能?!碧瓶藸柗Q。
談及全球監(jiān)管趨勢,吳沈括對記者表示,面對新技術新應用,需要持續(xù)地探索一套敏捷高效的監(jiān)管機制和監(jiān)管方式,最大限度地及時應對和處置伴生的各種風險類型。此外也需要持續(xù)地構建和完善一套經(jīng)濟、便利、可行的合規(guī)指引,使各方主體有清晰的合規(guī)標準和指向。
“良好的生態(tài)治理也需要各方最大限度地凝聚共識,在更大范圍內形成有關新技術、新應用的治理的價值共同點以及共同認可的行為準則。”吳沈括表示。
而陳怡然則認為,實踐領域還有不少現(xiàn)實問題需要關注。例如,“由AI提供的服務,應該明確提示消費者為AI提供的服務,不得AI偽裝成人工,由AI服務造成的問題,由企業(yè)擔責。如果是涉密的大型企業(yè),則需要限制員工對開源型AI的使用,因為每一次提問都有可能造成泄密?!?/FONT>
在談及對于監(jiān)管更進一步的建議時,華東政法大學教授、數(shù)據(jù)法律研究中心主任高富平對第一財經(jīng)記者表示,大語言模型的應用涉及個人和公共利益的問題,目前無法控制大語言模型向用戶輸出的內容,其輸出具有較高的智能性和隨機性,這也將是未來監(jiān)管的難點和重點。
(第一財經(jīng))