生成式人工智能技術(shù)在帶來深刻的生產(chǎn)力變革時,也為監(jiān)管治理提出新挑戰(zhàn)。如何促進其健康發(fā)展和規(guī)范應(yīng)用?4月11日,中國國家互聯(lián)網(wǎng)信息辦公室就《生成式人工智能服務(wù)管理辦法(征求意見稿)》公開征求意見,《征求意見稿》共21條,從生成式人工智能服務(wù)商的準入,到算法設(shè)計、訓練數(shù)據(jù)選擇、模型到內(nèi)容,以及用戶實名和個人隱私、商業(yè)秘密等方面提出了相關(guān)要求。這意味著,當下爆火的生成式AI產(chǎn)業(yè)將迎來首份監(jiān)管文件。DUNesmc
DUNesmc
給AI立規(guī)矩
根據(jù)《意見稿》,生成式人工智能是指基于算法、模型、規(guī)則生成文本、圖片、聲音、視頻、代碼等內(nèi)容的技術(shù)。DUNesmc
在責任劃分方面,《征求意見稿》提出,利用生成式人工智能產(chǎn)品提供聊天和文本、圖像、聲音生成等服務(wù)的組織和個人,包括通過提供可編程接口等方式支持他人自行生成文本、圖像、聲音等,承擔該產(chǎn)品生成內(nèi)容生產(chǎn)者的責任;涉及個人信息的,承擔個人信息處理者的法定責任,履行個人信息保護義務(wù)。DUNesmc
《征求意見稿》體現(xiàn)了監(jiān)管前置的思路。在準入資格方面,《征求意見稿》提出,利用生成式人工智能產(chǎn)品向公眾提供服務(wù)前,應(yīng)當按照相關(guān)規(guī)定向國家網(wǎng)信部門申報安全評估,并履行算法備案和變更、注銷備案手續(xù)。DUNesmc
《征求意見稿》還要求,企業(yè)提供生成式人工智能產(chǎn)品或服務(wù),應(yīng)當遵守法律法規(guī)的要求,尊重社會公德、公序良俗;尊重知識產(chǎn)權(quán)、商業(yè)道德,不得利用算法、數(shù)據(jù)、平臺等優(yōu)勢實施不公平競爭。而對于使用該服務(wù)的用戶,需要提供真實身份信息?!墩髑笠庖姼濉愤€提到,利用生成式人工智能生成的內(nèi)容應(yīng)當真實準確,采取措施防止生成虛假信息。DUNesmc
在保護個人隱私、商業(yè)機密等方面,《征求意見稿》中有多條提到相關(guān)要求。例如,提供者在提供服務(wù)過程中,對用戶的輸入信息和使用記錄承擔保護義務(wù)。不得非法留存能夠推斷出用戶身份的輸入信息,不得根據(jù)用戶輸入信息和使用情況進行畫像,不得向他人提供用戶輸入信息;以及禁止非法獲取、披露、利用個人信息和隱私、商業(yè)秘密。DUNesmc
同時,對于提供者,還要采取適當措施防范用戶過分依賴或沉迷生成內(nèi)容,保證服務(wù)的安全、穩(wěn)健、持續(xù)運營;對生成的圖片、視頻等內(nèi)容進行標識等。提供者發(fā)現(xiàn)用戶利用生成式人工智能產(chǎn)品過程中違反法律法規(guī),違背商業(yè)道德、社會公德行為時,包括從事網(wǎng)絡(luò)炒作、惡意發(fā)帖跟評、制造垃圾郵件、編寫惡意軟件,實施不正當?shù)纳虡I(yè)營銷等,應(yīng)當暫停或者終止服務(wù)。DUNesmc
從《征求意見稿》中能夠看到,關(guān)于對于生成式人工智能的監(jiān)管思路有三個特點:一是充分利用現(xiàn)行法律法規(guī)所提供的制度、機制;二是強調(diào)風險防范、風險應(yīng)對和風險管理的基本思路;三是突出了生態(tài)式、流程式的監(jiān)管方式,特別表現(xiàn)在技術(shù)應(yīng)用全生命周期的多層次監(jiān)管。DUNesmc
全球醞釀監(jiān)管措施
有關(guān)ChatGPT可能引發(fā)的安全和倫理問題,目前正引發(fā)全球關(guān)注。DUNesmc
有關(guān)ChatGPT的首個禁令來自意大利。就在3月31日,意大利個人數(shù)據(jù)保護局宣布即日起暫時禁止使用ChatGPT。隨后,歐盟國家開始跟進醞釀相關(guān)監(jiān)管措施。DUNesmc
- 愛爾蘭數(shù)據(jù)保護委員會發(fā)表聲明稱,其正“與意大利監(jiān)管機構(gòu)跟進情況,以了解其采取行動的依據(jù)”,并將“與所有歐盟數(shù)據(jù)保護機構(gòu)就此事進行協(xié)調(diào)”。
- 德國數(shù)據(jù)保護專員對媒體表示,德國可能會追隨意大利的腳步,出于數(shù)據(jù)安全的考慮,禁用ChatGPT。
- 法國數(shù)據(jù)隱私監(jiān)管機構(gòu)國家信息與自由委員會(CNIL)稱,該局收到兩份關(guān)于ChatGPT的投訴后已開始進行調(diào)查。該局已與意大利監(jiān)管機構(gòu)聯(lián)系,以了解更多出臺禁令的依據(jù)。
- 比利時數(shù)據(jù)保護當局也表示,ChatGPT的潛在侵權(quán)行為“應(yīng)在歐洲層面進行討論”。
- 英國信息專員辦公室警告說,人工智能開發(fā)人員絕不應(yīng)違反數(shù)據(jù)隱私,那些不遵守數(shù)據(jù)保護法律的人將面臨后果。
- 挪威數(shù)據(jù)保護監(jiān)管機構(gòu)Datatilsynet則稱,其至今沒有對ChatGPT進行調(diào)查,但“不排除未來會有任何事情發(fā)生”。
美國拜登政府已經(jīng)開始研究是否需要對ChatGPT等人工智能工具實行檢查。作為潛在監(jiān)管的第一步,美國商務(wù)部11日就相關(guān)問責措施正式公開征求意見,包括新人工智能模型在發(fā)布前是否應(yīng)經(jīng)過認證程序。DUNesmc
責編:Momoz