(資料圖)
法治日報全媒體記者 張維
ChatGPT上線后的大火,讓AIGC(人工智能生成內容)這一賽道受到高度關注。
在近日由中國人民大學高瓴人工智能學院與中國人民大學國家版權貿易基地共同舉辦的AIGC內容生態(tài)與版權保護論壇上,多位專家指出,當前,AIGC的運用場景已經相當豐富,但也存在諸多風險:在數據層存在數據質量風險和數據安全風險,前者包括標注數據質量、預訓練語料庫多樣性不足,后者則包括模型抵御攻擊性差、交互使用敏感信息獲取、定制化ChatGPT對個人信息的獲取、公開信息爬取的隱私利益侵犯等;在算法層存在算法透明、算法歧視、算法安全、算法歸責的風險;在應用層則存在信息內容治理難、可版權性困境、技術壟斷和新型壁壘、國家安全風險等問題。
AIGC的著作權法定性及權利歸屬,一直是一個頗有爭議的話題。在此次論壇上,專家們也給出了不同的觀點。有專家認為,到目前為止,生成式人工智能仍不具備自主生成內容的能力,人工智能進行“創(chuàng)作”的過程,實際上是自然人運用人工智能作為創(chuàng)作輔助工具不斷進行選擇、調整,以“試錯”的方式去提示人工智能,最終達到生成內容符合人類預期的結果。因此,人工智能生成內容依然是人類創(chuàng)意與構想的具象化,符合作品“獨創(chuàng)性”標準。在保護路徑上,由于只有人類才能擁有作者身份,可以采取將生成式人工智能設計者擬制為作者,或將人工智能生成作品視為委托作品,權利歸屬于使用者所有兩種方式。
也有專家指出,著作權法將作者限定為自然人,目的在于劃定作者對作品的私有權利地以鼓勵創(chuàng)作,將除人類外的主體生成內容當作作品保護從根本上違反著作權法的立法目的。就人工智能生成內容的邏輯而言,著作權法實施條例明確規(guī)定作者的創(chuàng)作行為是直接產生文學、藝術和科學作品的智力活動,而人工智能生成內容的最終結果超出了人類構想,是技術決定了輸出結果的表達性因素,人類并未對人工智能生成內容結果產生直接性影響,因此人工智能生成內容不構成作品。
針對AIGC的治理路徑,與會專家圍繞國家網信辦近期發(fā)布的《生成式人工智能服務管理辦法(征求意見稿)》發(fā)表了觀點。有專家認為,對生成式人工智能進行監(jiān)管具有合理性,及時立法可以避免技術發(fā)展帶來的濫用等問題,維護市場公平競爭秩序。同時,也有專家提出,對AIGC的監(jiān)管應當秉持發(fā)展優(yōu)先的理念,在當前環(huán)境下,給予人工智能行業(yè)更多自由空間。目前,生成式人工智能產品客觀存在訓練中使用未授權作品、輸出作品可能侵犯著作權等現象。還有專家提醒,應當堅持技術中立原則,對內容提供者適用過錯責任原則,從而達到各方利益平衡。