■ 聚焦生成式人工智能
(資料圖)
■ 前沿話題
開(kāi)欄語(yǔ)
運(yùn)用法治觀念、法治思維和法治手段,為互聯(lián)網(wǎng)健康有序發(fā)展提供保障,已經(jīng)成為共識(shí)。互聯(lián)網(wǎng)新技術(shù)新應(yīng)用新業(yè)態(tài)新模式帶來(lái)的風(fēng)險(xiǎn)挑戰(zhàn)不容忽視,需要網(wǎng)絡(luò)立法、網(wǎng)絡(luò)執(zhí)法、網(wǎng)絡(luò)司法、網(wǎng)絡(luò)普法、網(wǎng)絡(luò)法治教育進(jìn)行前瞻性、全方位應(yīng)對(duì),《法治周末》特推出“前沿話題”欄目,記錄這些網(wǎng)絡(luò)法治實(shí)踐。
為促進(jìn)生成式人工智能技術(shù)健康發(fā)展和規(guī)范應(yīng)用,4月11日,國(guó)家互聯(lián)網(wǎng)信息辦公室就《生成式人工智能服務(wù)管理辦法(征求意見(jiàn)稿)》(以下簡(jiǎn)稱征求意見(jiàn)稿)公開(kāi)征求意見(jiàn)。
作為國(guó)內(nèi)首個(gè)專門針對(duì)AIGC的監(jiān)管辦法,征求意見(jiàn)稿對(duì)生成式人工智能提供者的責(zé)任邊界提出要求,重點(diǎn)強(qiáng)調(diào)了生成式人工智能產(chǎn)品訓(xùn)練數(shù)據(jù)及生成內(nèi)容的真實(shí)性。
結(jié)合征求意見(jiàn)稿,針對(duì)AIGC服務(wù)與內(nèi)容相關(guān)法律問(wèn)題,《法治周末》記者與業(yè)界專家展開(kāi)對(duì)話。
■對(duì)話人:
王瑩 中國(guó)人民大學(xué)未來(lái)法治研究院副院長(zhǎng)
許可 對(duì)外經(jīng)濟(jì)貿(mào)易大學(xué)數(shù)字經(jīng)濟(jì)與法律創(chuàng)新研究中心主任
張延來(lái) 浙江墾丁律師事務(wù)所主任律師
■主持人:
仇飛 《法治周末》記者
責(zé)任分配問(wèn)題值得探討
主持人:按照征求意見(jiàn)稿,提供AIGC產(chǎn)品或服務(wù)應(yīng)當(dāng)符合多項(xiàng)要求,提供者還需承擔(dān)該產(chǎn)品生成內(nèi)容生產(chǎn)者的責(zé)任,涉及個(gè)人信息的,承擔(dān)個(gè)人信息處理者的法定責(zé)任,對(duì)此怎么看?
王瑩:從文本表述來(lái)看,這種責(zé)任定位包含了產(chǎn)品生產(chǎn)者和內(nèi)容提供者責(zé)任,似乎有過(guò)于嚴(yán)苛之嫌。從AIGC技術(shù)特征上來(lái)看,作為一種生成合成類算法應(yīng)用,AIGC是利用大語(yǔ)言模型和公共、開(kāi)放數(shù)據(jù)根據(jù)用戶輸入搜索、生成合成信息,并非傳統(tǒng)網(wǎng)絡(luò)法中的信息內(nèi)容提供者,其根據(jù)用戶的指令生成的信息向用戶展示,也不能理解為傳統(tǒng)的信息發(fā)布、傳播。而將其理解為產(chǎn)品簡(jiǎn)單套用傳統(tǒng)產(chǎn)品責(zé)任中的嚴(yán)格責(zé)任原則,值得進(jìn)一步商榷。
目前,生成式人工智能僅生成文本、圖像、聲音等信息內(nèi)容,并不會(huì)像傳統(tǒng)的產(chǎn)品瑕疵那樣直接導(dǎo)致生命健康安全問(wèn)題,其作為一個(gè)人工智能產(chǎn)品最多涉及到人格權(quán)侵權(quán)、著作權(quán)侵權(quán)。生成式人工智能引發(fā)侵權(quán)問(wèn)題,可能來(lái)自于人工智能本身的漏洞或技術(shù)現(xiàn)有水平,人工智能的學(xué)習(xí)訓(xùn)練到生成的過(guò)程并不是完全可解釋和可控的。2022年9月通過(guò)的歐盟《人工智能民事責(zé)任指令》規(guī)定只有高風(fēng)險(xiǎn)的AI應(yīng)用才承擔(dān)AI嚴(yán)格責(zé)任。最新的歐盟《人工智能法案》的立法討論也未將Chat-GPT簡(jiǎn)單界定為高風(fēng)險(xiǎn)AI應(yīng)用,該技術(shù)是否屬于高風(fēng)險(xiǎn)AI應(yīng)用,或者將其作為通用人工智能跨越高風(fēng)險(xiǎn)、低風(fēng)險(xiǎn)的分類視為一種新的類別加以監(jiān)管,仍然是一個(gè)開(kāi)放性的問(wèn)題。
許可:已經(jīng)實(shí)施的《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》對(duì)深度合成服務(wù)已有規(guī)定,其對(duì)深度合成服務(wù)提供者的要求,同樣適用于AIGC產(chǎn)品提供者。ChatGPT替代了人類在收集信息中評(píng)價(jià)、思考、推理、取舍的整個(gè)思維過(guò)程,所以法律上會(huì)認(rèn)為避風(fēng)港原則不太適用于ChatGPT這種人工智能生成的場(chǎng)景,因此需要有一個(gè)特別的規(guī)定,就是生成式人工智能產(chǎn)品要對(duì)自己生成的內(nèi)容負(fù)責(zé)。但這里面的問(wèn)題其實(shí)也有很多,比如說(shuō)很多內(nèi)容的產(chǎn)生并不是由ChatGPT一方完成的,而是在與使用者的交互過(guò)程中完成的,也就是說(shuō)內(nèi)容是由使用者和ChatGPT共同生產(chǎn)的,這個(gè)時(shí)候就不能完全要求由AIGC產(chǎn)品提供者來(lái)承擔(dān)責(zé)任,相關(guān)的責(zé)任劃分需要進(jìn)一步明確。
張延來(lái):征求意見(jiàn)稿對(duì)于生成式AI技術(shù)服務(wù)提供者的責(zé)任要求過(guò)高,畢竟這是一項(xiàng)技術(shù),應(yīng)當(dāng)符合技術(shù)中立原則。在技術(shù)應(yīng)用過(guò)程中,無(wú)論是內(nèi)容方面的問(wèn)題還是個(gè)人信息等問(wèn)題,都不完全取決于AI技術(shù)提供者本身,而是跟具體使用技術(shù)的用戶有密切關(guān)系,所以將技術(shù)提供者定義成內(nèi)容生產(chǎn)者和信息處理者似乎在法律身份的定位上有些錯(cuò)位,而且也會(huì)導(dǎo)致內(nèi)容權(quán)利歸屬和個(gè)人信息權(quán)益歸屬等衍生問(wèn)題出現(xiàn)。
個(gè)人信息保護(hù)與數(shù)據(jù)的法律基線
主持人:有觀點(diǎn)認(rèn)為,在AIGC產(chǎn)品中,用戶對(duì)話的過(guò)程就是被收集信息的過(guò)程,可能存在個(gè)人信息泄露、提供虛假信息等隱患。征求意見(jiàn)稿也提到了個(gè)人信息保護(hù),有哪些值得關(guān)注的?
許可:按照征求意見(jiàn)稿第九條,提供生成式人工智能服務(wù)應(yīng)當(dāng)按照網(wǎng)絡(luò)安全法規(guī)定,要求用戶提供真實(shí)身份信息。我們知道網(wǎng)絡(luò)安全法中的實(shí)名制是指發(fā)布信息階段的實(shí)名認(rèn)證,也就是說(shuō)如果只是單純的瀏覽模式,原則上是不需要用戶實(shí)名的。用戶開(kāi)始使用AIGC時(shí)是否需要實(shí)名認(rèn)證,這是一個(gè)需要討論的問(wèn)題,如果用戶沒(méi)有實(shí)名制的話,AIGC并不會(huì)直接或間接的識(shí)別這個(gè)特定的人,很可能不存在個(gè)人信息保護(hù)的問(wèn)題;但如果有實(shí)名認(rèn)證,用戶提供的信息就可能構(gòu)成個(gè)人信息,AIGC產(chǎn)品提供者應(yīng)按照個(gè)人信息保護(hù)法遵守個(gè)人信息保護(hù)義務(wù)。
主持人:征求意見(jiàn)稿對(duì)訓(xùn)練數(shù)據(jù)提出真實(shí)性等要求,此外還要求“不得根據(jù)用戶輸入信息和使用情況進(jìn)行畫(huà)像”,這對(duì)AIGC發(fā)展會(huì)產(chǎn)生哪些影響?
許可:作為生成式人工智能產(chǎn)品的基礎(chǔ),數(shù)據(jù)的重要性不言而喻。但如何合理設(shè)定數(shù)據(jù)的法律基線,仍有待進(jìn)一步研究。
首先,要研究數(shù)據(jù)質(zhì)量和數(shù)據(jù)合法性的矛盾。為了盡可能提升生成式人工智能產(chǎn)品的能力,勝任各種自然語(yǔ)言處理任務(wù),其必須“識(shí)遍天下字,讀盡人間書(shū)”,如果將合法性作為數(shù)據(jù)的前提,提供者在海量的數(shù)據(jù)面前,為了避免承擔(dān)法律責(zé)任,必然采取“寧可錯(cuò)殺,不可放過(guò)”的原則,不但導(dǎo)致大幅限制輸入的數(shù)據(jù)源,還損害了數(shù)據(jù)的客觀性、多樣性。
其次,要研究數(shù)據(jù)訓(xùn)練和信息生成的矛盾。從風(fēng)險(xiǎn)預(yù)防和監(jiān)管目標(biāo)看,生成式人工智能產(chǎn)品的風(fēng)險(xiǎn)集中在信息生成階段,在底層算法的作用下,開(kāi)始訓(xùn)練的數(shù)據(jù)和最后信息的生成內(nèi)容并不是一一映射的關(guān)系,其中間經(jīng)過(guò)了預(yù)測(cè)、分類、聚類、關(guān)聯(lián)等復(fù)雜的變換,因此,訓(xùn)練數(shù)據(jù)的合法性并非信息生成合法性的必要條件。
最后,要研究責(zé)任承擔(dān)者涉及的矛盾。按照征求意見(jiàn)稿,AIGC服務(wù)提供者須對(duì)預(yù)訓(xùn)練數(shù)據(jù)承擔(dān)合法性義務(wù),但實(shí)踐中,大量提供服務(wù)的主體并非生成式人工智能技術(shù)的開(kāi)發(fā)者,其事實(shí)上并不參與數(shù)據(jù)的預(yù)訓(xùn)練和優(yōu)化。從自己責(zé)任的原理出發(fā),這里的責(zé)任主體應(yīng)限定在生成式人工智能技術(shù)的開(kāi)發(fā)者為宜。
張延來(lái):AIGC技術(shù)層面就是要用用戶的輸入內(nèi)容作為訓(xùn)練語(yǔ)料對(duì)算法進(jìn)行優(yōu)化的,因此很難避免使用A用戶的輸入信息來(lái)回答B(yǎng)用戶的問(wèn)題。而用戶畫(huà)像的情況,如果是用戶同意應(yīng)該也允許畫(huà)像,一方面畫(huà)像是很多AI提供個(gè)性化服務(wù)的前提,另一方面畫(huà)像也是后續(xù)在AI中進(jìn)行廣告、推薦等商業(yè)盈利的必要措施。
平衡安全與發(fā)展
主持人:您認(rèn)為征求意見(jiàn)稿還需要完善哪些內(nèi)容?
許可:征求意見(jiàn)稿對(duì)當(dāng)前的ChatGPT等新型的人工智能產(chǎn)品和服務(wù),提出了針對(duì)性的方案,從數(shù)據(jù)處理預(yù)訓(xùn)練、信息內(nèi)容生成等各個(gè)環(huán)節(jié),形成了一個(gè)邏輯上非常清晰、全鏈路的一種規(guī)范。同時(shí)在內(nèi)容設(shè)計(jì)上,融合了算法治理、個(gè)人信息保護(hù)、數(shù)據(jù)安全和信息安全,使用了既有的很多制度安排去對(duì)待這種新興技術(shù),這也體現(xiàn)了多層次、多方面的立法思路。
但征求意見(jiàn)稿實(shí)施的這種保護(hù)能不能實(shí)現(xiàn),或者說(shuō)能否推動(dòng)這個(gè)領(lǐng)域在安全基礎(chǔ)上的發(fā)展,是我非常關(guān)注的。在這一次的征求意見(jiàn)稿中,我們看到大量的內(nèi)容仍然是安全的規(guī)則。守住安全底線在行業(yè)發(fā)展過(guò)程中非常重要,但目前我國(guó)的AIGC是否以及能否發(fā)展,還在探索中,我認(rèn)為,立法和監(jiān)管最終還是要再去平衡發(fā)展和安全的關(guān)系。
張延來(lái):征求意見(jiàn)稿要求提供者應(yīng)當(dāng)對(duì)生成式人工智能產(chǎn)品的預(yù)訓(xùn)練數(shù)據(jù)、優(yōu)化訓(xùn)練數(shù)據(jù)來(lái)源的合法性負(fù)責(zé)。生成式人工智能的訓(xùn)練需要極為龐大的數(shù)據(jù)量,對(duì)于數(shù)據(jù)來(lái)源的前置審查義務(wù)不宜要求過(guò)高,否則可能會(huì)導(dǎo)致國(guó)內(nèi)AI的訓(xùn)練落后于國(guó)外的進(jìn)度,建議要求提供者事前形式審查即可,事后如果發(fā)現(xiàn)侵權(quán)或者違法,則依照有關(guān)法律規(guī)定事后個(gè)案處理更為妥當(dāng)。
此外,征求意見(jiàn)稿要求提供者發(fā)現(xiàn)用戶利用生成式人工智能產(chǎn)品過(guò)程中違反法律法規(guī),違背商業(yè)道德、社會(huì)公德行為時(shí),應(yīng)當(dāng)暫停或者終止服務(wù)。我認(rèn)為,不應(yīng)“一刀切”地規(guī)定“暫停或終止服務(wù)”,實(shí)踐中,對(duì)于用戶的違規(guī)行為,應(yīng)當(dāng)允許平臺(tái)根據(jù)行為的具體程度和危害給予相應(yīng)力度的處罰和限制,一概要求“暫停或終止服務(wù)”是不合理的,而且可能引發(fā)用戶對(duì)平臺(tái)的訴訟。