摘要:以ChatGPT模型為代表的生成式人工智能技術是人工智能領域里的一項突破性技術,其在滿足人們多元化需求的同時也發(fā)生了技術應用的異化,使其生成的內(nèi)容存在違法風險。生成式人工智能產(chǎn)品的提供者在數(shù)據(jù)來源、算法設計等決定人工智能生成內(nèi)容的核心要素方面充當著“把關人”和決定者的角色,因此,應明確其是生成式人工智能產(chǎn)品的責任主體?;诖?,最近發(fā)布的《生成式人工智能服務管理辦法(征求意見稿)》明確規(guī)定生成式人工智能產(chǎn)品的服務提供者應承擔產(chǎn)品生成內(nèi)容的生產(chǎn)者責任以及個人信息處理者的責任,具有正當性。然而,鑒于我國現(xiàn)行法在數(shù)據(jù)處理和算法管理上的規(guī)范供給不足,以及在著作權主、客體范圍的規(guī)定上存在局限性等問題,未來在立法上,除了應進一步明確生成式人工智能產(chǎn)品提供者所承擔的法律責任的內(nèi)涵,也應體系化地對其相關權利義務作出具體規(guī)定,以實現(xiàn)對生成式人工智能產(chǎn)品提供者法律規(guī)范的整體妥當性。
關鍵詞:生成式人工智能;產(chǎn)品提供者;責任;正當性
目次
一、問題的提出
二、生成式人工智能的生成內(nèi)容存在合法性風險
(一)數(shù)據(jù)源合規(guī)性風險
(二)算法風險
(三)數(shù)據(jù)泄露風險
三、由生成式人工智能產(chǎn)品提供者承擔相應責任具有正當性
(一)生成式人工智能技術的內(nèi)在邏輯
(二)由生成式人工智能產(chǎn)品的生產(chǎn)者承擔責任的原因
四、產(chǎn)品提供者應成為生成式人工智能生成物的著作權主體
(一)人工智能生成物應當成為著作權的客體
(二)服務提供者應是人工智能生成物著作權的權利主體
五、生成式人工智能產(chǎn)品提供者相關規(guī)范的完善建議
(一)規(guī)范生成式人工智能產(chǎn)品提供者的法律責任類型
(二)強調(diào)生成式人工智能產(chǎn)品提供者責任的同時應明確其權利
(三)監(jiān)管機構以“全鏈條監(jiān)管”模式,保障生成式人工智能技術發(fā)展和安全
六、結語
一、問題的提出
ChatGPT作為一種大型語言模型,具有生成性和通用性雙重特征,這與從大量數(shù)據(jù)中尋找隱藏模式并形成預測的傳統(tǒng)分析式人工智能有本質區(qū)別,以ChatGPT模型為代表的生成式人工智能可以通過學習、訓練人類創(chuàng)造的海量語料庫中的基礎數(shù)據(jù)來生成新的內(nèi)容,這對規(guī)范類ChatGPT模型生成式、創(chuàng)造性人類活動的法律提出了新的挑戰(zhàn)。生成式人工智能的整體運作模式相比人類傳統(tǒng)工作模式,其最大的特殊性在于,由于人工智能生成之成果所依賴的基礎數(shù)據(jù)和程序計算方式由其服務提供者確定,故而,生成式人工智能產(chǎn)品服務提供者在很大程度上可以決定人工智能生成成果的合法性。由此,對于生成式人工智能產(chǎn)品及其生成成果的規(guī)范重點均應當是其服務提供者。
鑒于此,2023年4月11日,國家互聯(lián)網(wǎng)信息辦公室印發(fā)《生成式人工智能服務管理辦法(征求意見稿)》(以下簡稱:《辦法》),面向全社會公開征求意見?!掇k法》的頒布旨在規(guī)范生成式人工智能技術的發(fā)展,劃定責任主體,制定行業(yè)底線,特別是強調(diào)生成式人工智能產(chǎn)品的提供者責任,《辦法》第五條規(guī)定:“生成式人工智能提供者需承擔該產(chǎn)品生成內(nèi)容生產(chǎn)者的責任;涉及個人信息的,承擔個人信息處理者的法定責任,履行個人信息保護義務?!?/span>
應當承認,《辦法》第五條明確將生成式人工智能提供者確定為責任主體并劃定了相應的責任范圍,是對人工智能生成成果存在違法情形時的追責規(guī)則的補充和完善。然而,《辦法》作為回應新問題而在短時間內(nèi)快速出臺的新規(guī),難免在細節(jié)和協(xié)同規(guī)制方面存在提升和完善的空間,在責任劃定條款方面仍需探討其內(nèi)涵和外延,一是,需要探討條款中所指出的生成式人工智能產(chǎn)品提供者責任劃定的正當性;二是,明確生成式人工智能產(chǎn)品提供者所承擔的法律責任的內(nèi)涵;三是,需要明確生成式人工智能產(chǎn)品提供者享有與其所承擔的責任相匹配的權利,以實現(xiàn)對生成式人工智能產(chǎn)品提供者法律規(guī)范的整體妥當性。
二、生成式人工智能的生成內(nèi)容存在合法性風險
因生成式人工智能所生成的內(nèi)容直接與其輸入數(shù)據(jù)源密切相關,且輸入數(shù)據(jù)類型和輸出內(nèi)容攜帶的價值判斷往往多種多樣且參差不齊,這使得在技術開發(fā)與使用過程中面臨全新的法律規(guī)制風險與科技倫理挑戰(zhàn),這類風險和挑戰(zhàn)在數(shù)據(jù)安全領域表現(xiàn)得尤為突出,如數(shù)據(jù)源違規(guī)收集、算法失控、內(nèi)容真假難辨、虛假信息泛濫、個人隱私保護缺位、侵害著作權等相關問題。
本文將上述數(shù)據(jù)領域的風險和挑戰(zhàn)歸納為三大類,即數(shù)據(jù)源合規(guī)性風險、算法風險以及數(shù)據(jù)泄露風險。
(一)數(shù)據(jù)源合規(guī)性風險
ChatGPT模型在技術路線上采用自然語言處理+搜索引擎集成的架構,建構了預訓練語言和人類反饋的強化學習模型,連接大量語料庫,通過生成式預訓練方法處理大模型序列數(shù)據(jù)來得到一種通用的模型表達。簡言之,該模型使用大規(guī)模的無監(jiān)督語料庫來預訓練,使其擁有類似人類大腦的語言理解和具有一定獨創(chuàng)性的文本生成的能力,能夠完成用戶指令的任務。
依據(jù)OpenAI對ChatGPT模型的工作原理的介紹可知,OpenAI的GPT-2模型的訓練語料庫中的數(shù)據(jù)集包括了多種來源,其中包括:網(wǎng)頁內(nèi)容類,從Internet Archive和Common Crawl等網(wǎng)站中獲取了40TB的文本數(shù)據(jù),其中包括了來自全球各個國家和地區(qū)的大量網(wǎng)頁內(nèi)容,例如維基百科;書籍和小說內(nèi)容,例如電子書、小說和其他書籍的文本數(shù)據(jù);新聞文章內(nèi)容,例如OpenAI使用了大量來自各種新聞網(wǎng)站的新聞文章,包括美國和其他國家的主要新聞網(wǎng)站,包括政府和未驗證真?zhèn)尉W(wǎng)站信息;除此之外,OpenAI還使用了一些其他的數(shù)據(jù)資源,包括電子郵件、電視劇和電影字幕等。
值得注意的是,OpenAI未公開最新版本ChatGPT(GPT-4)模型的學習語料的數(shù)據(jù)來源。這些在預訓練模型下的無監(jiān)督語料庫中的數(shù)據(jù)仍屬于算法“黑箱”,OpenAI并未對外公示所使用的數(shù)據(jù)來源,相關訓練數(shù)據(jù)庫是否均獲得授權還存在疑問。這就會出現(xiàn)如下情形,即ChatGPT模型對數(shù)據(jù)的無監(jiān)管挖掘處理和生成,使用者將無從獲悉算法設計者、實際控制者(生成式人工智能產(chǎn)品提供者)在生成內(nèi)容時所使用的數(shù)據(jù)來源信息,更不清楚數(shù)據(jù)的可靠性或算法的目標,這會讓使用者承擔對輸出的內(nèi)容文本的基礎語料庫的數(shù)據(jù)是否存在內(nèi)容不合法不合規(guī)、內(nèi)容虛假或完全錯誤的風險。
除此之外,ChatGPT模型在預學習階段對數(shù)據(jù)庫信息無過濾機制,可能使其在運行階段就會因為算法“黑箱”的數(shù)據(jù)生成不良、虛假或違法信息。而在預訓練后的深度學習將通過前期大量的訓練數(shù)據(jù)對模型進行訓練,最終確保在特定輸入數(shù)據(jù)下通過“黑箱”運行,得到輸出結果。從技術機理上看,深度學習等算法的安全性與數(shù)據(jù)具有強耦合性,不同數(shù)據(jù)所觸發(fā)的神經(jīng)網(wǎng)絡節(jié)點并不相同,測試結果也不盡相同。針對“靜態(tài)”情況下的深度學習算法進行的安全測試僅能發(fā)現(xiàn)較少漏洞,即使進行反復訓練后的結果輸出也會因算法設計者、實際控制者(生成式人工智能產(chǎn)品提供者)以及機器的初始數(shù)據(jù)而產(chǎn)生不安全性。
(二)算法風險
以ChatGPT模型為代表的生成式人工智能技術的出現(xiàn),意味著當今社會已經(jīng)步入了一個圍繞由數(shù)據(jù)、算法、人工智能體所作出的社會和經(jīng)濟決策而構建起來的算法社會(Algorithmic Society)。事實上,在這個社會中,數(shù)據(jù)、算法、人工智能體不僅作出決策,而且在某些情況下執(zhí)行這些決策。在由算法做出自動決策的場景中,實際上包含了兩項程序,一是算法的自主性學習,二是算法的設計系統(tǒng)。算法的自主性體現(xiàn)在解答人類給出的特定任務,而算法的設計系統(tǒng)的表示行為背后是算法提供者的意思表示。因此,算法本身就具有生成式人工智能產(chǎn)品意思形成的工具屬性?;谶@一屬性,算法風險主要體現(xiàn)在兩方面,一是算法異化,二是算法歧視。
算法歧視和異化將造成生成式人工智能產(chǎn)品使用者陷入“偏信則暗”的信息窄巷。算法的設計,數(shù)據(jù)的輸入,結果的輸出三個過程中均是背后的提供者意志領域范圍內(nèi)的事項,基于提供者的意志設計算法,就會出現(xiàn)算法的歧視和異化。
一是人工智能的歧視。人工智能算法是由人編寫的,因此它們往往會反映出人類的意志甚至偏見,人工智能的歧視的本質是算法的歧視。若算法設計的提供者利用算法推薦帶有個人色彩和歧視的服務,這將使得生成物具有算法歧視色彩,誤導使用者對生成物的真實理解。例如,ChatGPT模型的主要特點是基于便捷的人機互動而輸出的生成物,其不會像傳統(tǒng)搜索引擎一樣提供多個相關結果由使用者自行選擇,若ChatGPT模型輸出內(nèi)容是基于前期算法所設定的歧視數(shù)據(jù),加之模型原理是基于無監(jiān)督學習和訓練的方式,那么由于其獲取的信息難以經(jīng)過實質性篩選和過濾,就會造成輸出的文本內(nèi)容虛假或完全錯誤而違反相關法律。
二是人工智能的異化。算法本身具有自我學習功能,算法完成后是以獨立的、自我運行的方式存在,那么在自我學習功能設計前的系統(tǒng)設計就顯得尤為關鍵,若算法本身在設計之初就出現(xiàn)異化,那么算法在脫離人的掌控下進行自我學習的過程就將成為算法服務提供者實現(xiàn)不可告人目的的“私器”。除此之外,也存在惡意“訓練”人工智能,故意異化人工智能,使其提供詐騙信息、釣魚網(wǎng)站等內(nèi)容的情形。
(三)數(shù)據(jù)泄露風險
類ChatGPT生成式人工智能工具一直飽受“泄露數(shù)據(jù)和隱私信息”的詬病,這是由于ChatGPT模型依托語料庫中海量數(shù)據(jù)信息,其中包括大量的互聯(lián)網(wǎng)用戶自行輸入的信息,因此當使用者輸入個人數(shù)據(jù)或商業(yè)秘密等信息時,ChatGPT模型可能將其納入自身的語料庫留存在神經(jīng)網(wǎng)絡中而產(chǎn)生泄露的風險。同時,ChatGPT模型對信息、數(shù)據(jù)來源無法進行事實核查,可能存在無法識別個人數(shù)據(jù)、商業(yè)秘密、國家機密等信息進而將其泄露的風險。具體表現(xiàn)如下。
一是用戶個人信息泄露導致的侵犯隱私權問題。OpenAI公司于4月5日發(fā)布聲明,宣布了一系列整改措施,包括“保護兒童”“尊重隱私”等,其中在尊重隱私上,OpenAI方面表示,盡力在可行的情況下從訓練數(shù)據(jù)中集中刪除個人信息,微調(diào)模型來排除收集個人信息,并回應用戶刪除個人信息的請求。但筆者認為,這一份整改措施涉及個人信息數(shù)據(jù)的合規(guī)存儲、處理和生成等問題仍未真正妥善解決。首先,盡管ChatGPT在回答關于隱私的問題時聲稱其不會記住使用者的任何信息,也不會主動提供用戶個人信息。但是,它又表示與使用者對話的數(shù)據(jù)需要被存儲在開發(fā)者美國人工智能公司OpenAI或使用的云服務提供商的數(shù)據(jù)中心。其次,在人機交互問答中,提問者與ChatGPT分享的隱私和個人信息可能被用于未來模型的迭代訓練,ChatGPT模型訓練中使用的數(shù)據(jù)大多來自互聯(lián)網(wǎng),后者可能包含大量的個人信息和數(shù)據(jù),而未經(jīng)使用者同意的數(shù)據(jù)抓取和訓練模型強大的推理能力又極大地增加了個人信息泄露的風險。最后,含有個人信息的問答內(nèi)容可能成為模型訓練的基礎“語料”,這使ChatGPT輸出的內(nèi)容包含使用者提供的個人信息或重要數(shù)據(jù)。即便泄露用戶個人信息的概率非常小,但如果加以刻意引導和提示,它仍然可能用來生成包含個人信息內(nèi)容的回答,帶來更多的個人信息數(shù)據(jù)合規(guī)問題和法律風險問題。固然,即使OpenAI承諾刪除所有個人身份信息,但未說明刪除方式,在其不能對信息與數(shù)據(jù)來源進行事實核查的情況下,這類信息仍然存在泄露風險。
二是商業(yè)秘密泄露導致的不正當競爭和侵權問題。中國支付清算協(xié)會不久前發(fā)布的《關于支付行業(yè)從業(yè)人員謹慎使用ChatGPT等工具的倡議》(以下簡稱:《倡議》)指出,ChatGPT類智能化工具已暴露出跨境數(shù)據(jù)泄露等風險。筆者認為,中國支付清算協(xié)會發(fā)布該《倡議》正是基于生成式人工智能技術本身所帶來的數(shù)據(jù)安全風險進行的風險防控措施,由于ChatGPT模型等生成式人工智能技術的訓練數(shù)據(jù)中包含了公司內(nèi)部的一些商業(yè)機密信息,例如客戶隱私、海量數(shù)據(jù)、機構秘密等眾多數(shù)據(jù)細節(jié)等等。若使用者利用該技術輸入了關于涉及公司隱私的商業(yè)數(shù)據(jù),人工智能未經(jīng)使用者同意的數(shù)據(jù)抓取和訓練模型強大的推理能力將加大公司商業(yè)數(shù)據(jù)意外泄露到競爭對手手中的風險。其中,韓國三星公司泄漏芯片機密就是典型例子。
三是國家秘密泄露導致的危害國家安全問題。目前,各國對國家機密文件和信息監(jiān)管較嚴,但若片段性或零碎的信息被ChatGPT模型收集,將會與其他數(shù)據(jù)結合在一起進行挖掘分析,從而推斷出可能危害國家安全、公共安全、個人和組織合法權益的情報信息。隨著ChatGPT在世界范圍內(nèi)的普及和廣泛使用,產(chǎn)生這一類風險的概率也將大大提高。
三、由生成式人工智能產(chǎn)品提供者承擔相應責任具有正當性
如前文所述,《辦法》第五條規(guī)定了由生成式人工智能產(chǎn)品提供者來承擔該產(chǎn)品生成內(nèi)容生產(chǎn)者的責任,筆者認為,從客觀上來看,生成式人工智能產(chǎn)品提供者和生成內(nèi)容的生產(chǎn)者并非同一主體,因此《辦法》這一規(guī)定的正當性需要予以進一步證成。
(一)生成式人工智能技術的內(nèi)在邏輯
以ChatGPT為代表的人工智能模型本質上屬于生成式人工智能,而生成式人工智能目前有兩種主要的框架:GAN(Generative Adversarial Network生成式對抗網(wǎng)絡)和GPT(Generative Pre-trained Transformer生成式預訓練轉化器)。以ChatGPT為代表的新一代生成式技術的應用模型,其技術框架是基于第一類“生成式預訓練轉化器模型(GPT)”而實現(xiàn)生成式的內(nèi)容輸出,其本質是利用預訓練語言模型和人類反饋的強化學習(RLHF)來確定給定指令的最適當響應,從而隨著時間的推移提高模型的可靠性和準確性,生成具有類似“人類語言”特點的自然文本內(nèi)容。
ChatGPT模型的文本生成是基于預訓練的神經(jīng)語言模型GPT構建的,利用GPT的能力對自然語言進行建模來生成自然文本,這一套系統(tǒng)的模型構造,呈現(xiàn)出“深度學習”的能力,通過神經(jīng)語言模型樣本自主產(chǎn)出內(nèi)容,并進行整合和匯編,最終生成具有“人類語言”特點的文本。具體而言,以ChatGPT模型為代表的生成式人工智能技術對數(shù)據(jù)的解讀訓練、整合、輸出與人類學習和內(nèi)容表達存在相似之處,屬于“人工智能生成內(nèi)容”(AIGC,AI Generated Content),其生成的文本的技術邏輯是基于大量文本數(shù)據(jù)下神經(jīng)語言模型的統(tǒng)計、應用和構建形成的,這與傳統(tǒng)人工智能下的語言數(shù)據(jù)模型脫離語料庫則無法運行不同,ChatGPT模型的文本生成已具備了模擬人腦神經(jīng)網(wǎng)絡模型的算法模型構造。
(二)由生成式人工智能產(chǎn)品的生產(chǎn)者承擔責任的原因
在這種技術邏輯下,生成式人工智能技術產(chǎn)品本質上是生成式人工智能技術,或者說是該技術下的算法模型,如果按照技術邏輯去劃定承擔生成式人工智能產(chǎn)品的責任主體,那么生成式人工智能技術,或者說ChatGPT模型本身應當成為履行義務和承擔責任的主體。顯然,這一邏輯能夠得以成立的前提,是以ChatGPT模型為代表的生成式人工智能是否具有法律上的主體資格。雖然國內(nèi)外有學者主張可以根據(jù)物種位階的規(guī)范主義立場,為人工智能構建一種以責任承擔為基礎的特殊財產(chǎn)性法律主體,但這類構想是對現(xiàn)有法理以及法律體系顛覆性的變革,在現(xiàn)有的法律體系下短期內(nèi)較難實現(xiàn)。
《辦法》中規(guī)定生成式人工智能產(chǎn)品提供者(提供者既包括個人,也包括組織)承擔該產(chǎn)品生成內(nèi)容生產(chǎn)者的責任,是將生成式人工智能產(chǎn)品提供者視為生成內(nèi)容的生產(chǎn)者。盡管從技術邏輯來看,以ChatGPT為代表的生成式人工智能才是其所生成成果內(nèi)容的直接生產(chǎn)者,應當作為內(nèi)容生產(chǎn)者履行義務和承擔責任,但考慮到生成式人工智能產(chǎn)品提供者對生成內(nèi)容的基礎素材和生成過程客觀上具有較強的控制力和決定力,因此筆者認為,《辦法》確定由其承擔生成內(nèi)容生產(chǎn)者的責任具有正當性。此外,這樣的規(guī)則安排也能解決目前法律體系下無法賦予生成式人工智能獨立法律主體地位的問題。
1.服務提供者是生成式人工智能產(chǎn)品的預訓練數(shù)據(jù)、優(yōu)化訓練數(shù)據(jù)來源篩選和控制的主體
《辦法》第五條將生成式人工智能服務“提供者”劃定為利用生成式人工智能產(chǎn)品提供聊天和文本、圖像、聲音生成等服務的組織和個人,包括通過提供可編程接口等方式支持他人自行生成文本、圖像、聲音等的組織和個人。據(jù)此,提供者應受制于《辦法》中關于服務提供者的監(jiān)管要求,承擔產(chǎn)品生成內(nèi)容生產(chǎn)者的責任和個人信息保護義務。
作為語言生成式模型,ChatGPT模型訓練數(shù)據(jù)由大型語料庫中的基礎數(shù)據(jù)組成。根據(jù)2022年12月中共中央、國務院印發(fā)的《關于構建數(shù)據(jù)基礎制度更好發(fā)揮數(shù)據(jù)要素作用的意見》(以下簡稱:《意見》)關于數(shù)據(jù)相關規(guī)定可知,ChatGPT模型訓練數(shù)據(jù)的基礎數(shù)據(jù)來源可大致分為三類:公有領域的數(shù)據(jù)、通過簽訂合同獲得合法授權的數(shù)據(jù)、未經(jīng)授權的數(shù)據(jù)。筆者認為,這三類數(shù)據(jù)的權利屬性不僅涉及數(shù)據(jù)來源者、數(shù)據(jù)處理者(服務提供者)、數(shù)據(jù)控制者等不同主體之間的利益平衡,同時也涉及數(shù)據(jù)處理者(服務提供者)對生成式人工智能產(chǎn)品預訓練數(shù)據(jù)、優(yōu)化訓練數(shù)據(jù)使用和加工行為所承擔的義務和責任。
來源于公有領域的開源數(shù)據(jù)屬于不受限制地使用和加工的數(shù)據(jù)。關于公有領域的數(shù)據(jù)是否可以不受限制地加工、使用,國內(nèi)學術界和實務界存在著諸多爭議,這些爭議均聚焦于公有領域數(shù)據(jù)和知識產(chǎn)權保護之間的關系。筆者認為,在現(xiàn)有法律體系下對于公有領域數(shù)據(jù)的使用與知識產(chǎn)權保護的關系非二元對立,而是基于兩者動態(tài)平衡下公有領域數(shù)據(jù)的公平分配和使用。那么在人工智能搜集基礎數(shù)據(jù)時,對于公有領域的數(shù)據(jù)應被視為有效接觸的數(shù)據(jù)、信息資源,也就是說為公有領域的數(shù)據(jù)不屬于私人所有,任何人可以不受限制地使用和加工的數(shù)據(jù),包括本身便不受法律保護的內(nèi)容及已過著作權保護期限進入公有領域的數(shù)據(jù)信息,但涉及承載個人信息和影響公共安全的公共數(shù)據(jù)除外。同時,數(shù)據(jù)準確性、真實性對于人工智能和語料庫模型的成功至關重要,而來源于公有領域的開源數(shù)據(jù)未必全部是準確的真實性數(shù)據(jù),在納入初始語料庫時,只有服務提供者才能對其進行把控、選擇,因此,雖然來源于公有領域的開源數(shù)據(jù)屬于不受限制地使用和加工的數(shù)據(jù),但甄別和選擇數(shù)據(jù)的主體責任就落在了服務提供者身上。
通過簽訂合同獲得合法授權的數(shù)據(jù)是基于合同約定依法使用和加工的數(shù)據(jù)?!兑庖姟返?/span>7條指出,“在保護公共利益、數(shù)據(jù)安全、數(shù)據(jù)來源者合法權益的前提下,承認和保護依照法律規(guī)定或合同約定獲取的數(shù)據(jù)加工使用權”。這在兩個層面界定了數(shù)據(jù)加工使用權賦權的前提:一是在結果層面上,獲取數(shù)據(jù)加工使用權不應損害公共利益、數(shù)據(jù)安全、數(shù)據(jù)來源者的合法權益;二是在行為層面上,數(shù)據(jù)處理者(服務提供者)加工、使用數(shù)據(jù)應當以依照法律規(guī)定或者合同約定為前提?!兑庖姟窂娬{(diào)“合理保護數(shù)據(jù)處理者(服務提供者)對依法依規(guī)持有的數(shù)據(jù)進行自主管控的權益”,因此,數(shù)據(jù)處理者(服務提供者)依據(jù)合同約定依法擁有數(shù)據(jù)使用和加工的權利,其作為權利主體“依法持有”合同約定的數(shù)據(jù),這將成為數(shù)據(jù)處理者(服務提供者)對生成式人工智能產(chǎn)品預訓練數(shù)據(jù)、優(yōu)化訓練數(shù)據(jù)的正當性依據(jù)。
未經(jīng)授權的數(shù)據(jù)天然具有侵權風險。這類數(shù)據(jù)作為著作權的客體,本身受著作權保護。若以ChatGPT模型為代表的生成式人工智能的數(shù)據(jù)處理者(服務提供者)在未經(jīng)授權的情況下利用“爬蟲”技術獲取網(wǎng)絡數(shù)據(jù)及內(nèi)容、非法獲取數(shù)據(jù)庫內(nèi)容以及未經(jīng)許可數(shù)字化非電子數(shù)據(jù)內(nèi)容等方式對相關內(nèi)容進行挖掘使用,并構建訓練數(shù)據(jù)語料庫模型,即使數(shù)據(jù)處理者(服務提供者)對其采用清洗、加工、分析等手段進行訓練、匯編,但仍涉及未經(jīng)授權使用受著作權保護的數(shù)據(jù),因此這類數(shù)據(jù)作為初始數(shù)據(jù)本身就已經(jīng)侵權,服務提供者再對其加工為人工智能生成物,那么這類人工智能生成物就是侵權的產(chǎn)物,不應受著作權保護。
由此可見,生成式人工智能產(chǎn)品提供者有權利對于初始數(shù)據(jù)進行篩選,提供者知道哪些數(shù)據(jù)可以合法合規(guī)使用,哪些數(shù)據(jù)不可以被使用,使用后會造成侵權,生成式人工智能其他主體沒有相關權限對于初始數(shù)據(jù)的合法性進行把控和監(jiān)管。固然,在利用合法合規(guī)初始數(shù)據(jù)的前提下,數(shù)據(jù)產(chǎn)品經(jīng)營權的客體并非原始數(shù)據(jù)或者數(shù)據(jù)集合,而是經(jīng)匿名化處理、加工、分析而形成的數(shù)據(jù)或數(shù)據(jù)衍生產(chǎn)品,后者已經(jīng)實現(xiàn)與前置性權益的切割,成為獨立的權利客體,因而,這類產(chǎn)品的所有者理應對產(chǎn)品生成全過程負責。因此,筆者認為服務提供者應當對生成式人工智能產(chǎn)品預訓練數(shù)據(jù)、優(yōu)化訓練數(shù)據(jù)來源合法性負責,并享有該數(shù)據(jù)的經(jīng)營權,這類權責的劃定使數(shù)據(jù)的合法性以及真實性不再僅局限于被動的事后救濟,而是積極的要求服務提供者對生成式人工智能產(chǎn)品預訓練數(shù)據(jù)、優(yōu)化訓練數(shù)據(jù)來源進行負責。
2.服務提供者是生成式人工智能算法設計的主體
生成式人工智能主要基于深度神經(jīng)網(wǎng)絡,通過預訓練、優(yōu)化訓練大規(guī)模的數(shù)據(jù)集,學習抽象出數(shù)據(jù)的本質規(guī)律和概率分布,并利用生成模型生成新的數(shù)據(jù),形成最終產(chǎn)品。在生成式人工智能技術中可以認為,數(shù)據(jù)是產(chǎn)品生成的基礎,而算法是加工和處理這一基礎資源的技術手段,決定了生成物的價值取向和合法合規(guī)性。
由于算法所形成的“模型設計+數(shù)學規(guī)則”的高度技術性和復雜性,導致非算法專業(yè)人士尤其是普通公眾,無法掌握或理解算法的運行和決策原理。而算法“黑箱”的技術壁壘又導致了非算法專業(yè)人士無法探究算法推薦服務提供者是否存在過錯,這足以阻礙對算法推薦服務提供者按過錯責任歸責。據(jù)此,強化算法推薦服務提供者的注意義務就顯得尤為重要。
生成式人工智能技術中,數(shù)據(jù)是基礎,算法是加工和處理這一基礎資源的核心,決定了生成物的價值取向和合法合規(guī)性。算法技術本身是中立性的,但這是基于技術本身,一旦算法走向具體應用,由于算法推薦服務提供者(人和組織)是具有價值傾向的,加之服務提供者和生產(chǎn)者之間存在不同利益與價值取向,這均使其難以保持中立。筆者認為,生成式人工智能算法使用的適當性在一定程度上決定了數(shù)據(jù)轉化生成物是否合法合規(guī),而產(chǎn)品提供者是決定算法的關鍵。
《辦法》中規(guī)定,提供者承擔該產(chǎn)品生成內(nèi)容生產(chǎn)者的責任,規(guī)定了其在數(shù)據(jù)訓練合法性以及算法使用適當性的義務和責任,這一規(guī)定表面看似乎擴大了提供者的責任范圍,但不能否認其具有正當性和合理性,理由如下。
一是,《辦法》強調(diào)服務提供者對生產(chǎn)者的責任體現(xiàn)了責任主體的可問責性。承擔產(chǎn)品生成內(nèi)容生產(chǎn)者的責任可以讓服務提供者具有可問責性,即在提供者應當對生成式人工智能產(chǎn)品的預訓練數(shù)據(jù)、優(yōu)化訓練數(shù)據(jù)來源的合法性負責的要求下,當篩選和控制數(shù)據(jù)來源過程中出現(xiàn)合法性與真實性偏差時,監(jiān)管者可以依據(jù)“事前知情”來判定控制數(shù)據(jù)來源責任主體的責任。
二是,基于“誰生成誰負責”的原則,提供者對整個生成內(nèi)容的過程負責。根據(jù)《民法典》之侵權責任編“關于責任主體的特殊規(guī)定”,筆者認為,提供者對整個生成內(nèi)容的過程負責是基于“誰生成誰負責”的原則,提供者作為為信息交流和交易活動的雙方當事人提供服務的第三方主體,具有訓練數(shù)據(jù)提供者、算法設計提供者、產(chǎn)品生成服務提供者等多重身份,其在訓練具體數(shù)據(jù)信息是否合法、算法使用是否適當?shù)日麄€生成內(nèi)容的過程中作為第三方主體,應當負全過程責任。除此之外,在使用者利用生成式服務實施侵權行為的情況下,服務提供者如果沒有履行相應的注意義務,也將可能承擔相應的連帶責任。
四、產(chǎn)品提供者應成為生成式人工智能生成物的著作權主體
考慮到生成式人工智能的整體運作模式的特殊性,生成式人工智能產(chǎn)品服務提供者在很大程度上可以決定人工智能生成成果的合法性。但《辦法》中只明確了產(chǎn)品提供者承擔責任的相關條款,而未明確其權利,一方面將導致其他主體對產(chǎn)品的濫用,另一方面對產(chǎn)品提供者有失公平。因此,應當承認人工智能生成物可以構成著作權的客體,并應賦予產(chǎn)品提供者著作權主體資格。
(一)人工智能生成物應當成為著作權的客體
人工智能生成的內(nèi)容是否具有著作權,是一個有爭議的問題。國內(nèi)外學者對人工智能生成的內(nèi)容是否享有著作權持截然不同的觀點。
國內(nèi)持否定說的學者認為,以往的人工智能大多承接體力勞動或提供信息索引和單句對話服務,算法模型產(chǎn)出的文本內(nèi)容不具有自己本身的思想、個性以及創(chuàng)新,因此不具備著作權的基本要件;也有實務工作者認為,ChatGPT模型生成的文本等內(nèi)容是基于大量數(shù)據(jù)的統(tǒng)計和應用生成的,不具有自己的思想和創(chuàng)新,很難構成著作權法保護的作品。國外同樣也不乏持否定說的學者,例如,法國多數(shù)學者認為具有獨創(chuàng)性的作品應當體現(xiàn)作者個性、思想情感,人工智能作品沒有人類個性、思想情感,因此無法認定為受著作權保護的作品;同樣,俄羅斯在區(qū)分知識產(chǎn)權和著作權的關系時,在著作權的獨創(chuàng)性上強調(diào)“最低限度的創(chuàng)造性”,對著作權的獨創(chuàng)性的理解和界定更傾向于將創(chuàng)造性引入獨創(chuàng)性的判斷標準中,但仍基于“人類中心主義”,即強調(diào)人的參與性,認為人工智能作品很難構成著作權法保護的作品。
然而,隨著人工智能技術的快速發(fā)展,對人工智能生成的作品的保護的聲音愈發(fā)強烈,一些持肯定說的國內(nèi)學者認為,人工智能生成的作品不同于傳統(tǒng)作品,雖然不可直接納入著作權法保護,但人工智能的創(chuàng)造者、使用者為作品生產(chǎn)付出了努力,通過技術中立與類比考量盡量將其納入既有作品類型,這類作品應當享有財產(chǎn)性質的著作權保護,對于無法歸入法定類型的作品表達,則將其放入“其他作品”中暫時保護;國外學者同樣也表達了類似觀點,俄羅斯學者認為,人工智能生成的作品不同于傳統(tǒng)作品,但享有版權,這類版權是基于人工智能技術下的輸出作品的保護,如果不對這類作品進行法律保護,就很難構造完整的著作權保護體系,這些學者認為人工智能輸出的作品既符合產(chǎn)品的物權屬性,同樣也符合著作權關于作品的基本規(guī)定,但權利主體的歸屬仍處于爭議狀態(tài)。
誠然,否定說論者敏銳地注意到了當前類ChatGPT生成式人工智能技術發(fā)展過程中所存在的法律主體問題,也就是人工智能技術本身決定其非法律主體,但其也忽略了生成式人工智能技術生成的一些符合著作權原則上的“類作品”的法律屬性??隙ㄕf論者基于新型創(chuàng)作物的考量,認為對于符合作品屬性的人工智能新型創(chuàng)作物應視為受著作權保護的作品類型,這類基于人工智能技術創(chuàng)造的新型作品既無限接近或已經(jīng)符合著作權法所規(guī)定作品的法定要件,同時也符合物權法中關于財產(chǎn)的構成要件的基本要素。事實上,在數(shù)字時代,類ChatGPT生成式人工智能技術的快速發(fā)展根本性地改變了傳統(tǒng)工作模式,也系統(tǒng)性地重塑了“作品”生產(chǎn)與屬性認定的關系。本文持肯定說,但理由略有不同。筆者認為,基于生成式人工智能技術的工作原理以及輸出產(chǎn)品的基本屬性,人工智能生成物(產(chǎn)品)在一定程度上屬于智力成果,并具有一定的獨創(chuàng)性,符合構成著作權法意義上作品的基本屬性。
第一,人工智能生成物(產(chǎn)品)在一定程度上具有獨創(chuàng)性。以ChatGPT模型為代表的生成式人工智能技術原理與傳統(tǒng)人工智能下的語言數(shù)據(jù)模型不同,生成式人工智能技術通過生成式預訓練語言模型疊加神經(jīng)網(wǎng)絡等多種模型來實現(xiàn)產(chǎn)品輸出,這些模型在訓練過程中會利用大規(guī)模語料庫中的文本信息,包括維基百科、新聞、社交媒體等不同領域和主題的文本數(shù)據(jù),通過預測下一個單詞或多個單詞來學習文本的結構和語言規(guī)則,形成預訓練語言模型下的文本的正負樣本。通過預處理技術構建正負樣本,使用n-gram算法,過濾掉數(shù)據(jù)中出現(xiàn)頻率比較低的單元素集合(singletons),將大量文本語句整合為最終文本內(nèi)容,這些文本內(nèi)容既包括基于無限制數(shù)據(jù)集生成模型,也包括受限文本生成模型。
雖然模擬人腦神經(jīng)網(wǎng)絡模型的算法模型產(chǎn)出的內(nèi)容不具有作為人類作品的思想、個性以及創(chuàng)新性,但人類進行的預設算法、規(guī)則、模板步驟對人工智能生成物的產(chǎn)生起到了至關重要的作用。一方面,在GPT模型下生成的文本內(nèi)容是基于不斷的訓練、學習展開的,所產(chǎn)出的文本是基于訓練后的內(nèi)容進行獨立匯編所形成的。根據(jù)我國《著作權法》第15條匯編作品的法定標準,生成式人工智能對龐大信息庫檢索并生成符合邏輯要求的內(nèi)容,實際上近似獨立的匯編行為,具有最低標準的獨創(chuàng)性;另一方面,基于設定好的生成式技術對已有作品的片段選擇和整體編排具有一定獨特性和創(chuàng)造性,并從形式和表達上與原作品存在差異,特別是在使用者有意識地參與并構思和充分提示下,以ChatGPT模型為代表的生成式人工智能輸出的文本則更具獨創(chuàng)性,在實踐意義上已經(jīng)符合或者無限接近著作權獨創(chuàng)性的法律屬性。
第二,人工智能生成物(產(chǎn)品)在一定程度上屬于智力成果。當前,關于智力成果的界定存在不同聲音,國內(nèi)學者有人主張“智力成果是人特有的獨創(chuàng)性勞動的產(chǎn)物”,認為作品的智力成果構成要件要求作品的創(chuàng)作過程是智力活動,只能由自然人實施,而人工智能生成物并非自然人通過智力活動形成的智力成果,從而質疑人工智能生成物的作品屬性。也有學者根據(jù)我國《著作權法》智力成果的構成要件主張“將‘智力成果’解釋為‘與自然人腦力創(chuàng)作相當?shù)男路f性、創(chuàng)造性的新內(nèi)容’”。
反觀我國《著作權法》中將作者創(chuàng)作完成作品作為智力成果的構成要件,可以看出,并未規(guī)定作品的作者必須是自然人,法人和其他組織也被擬制為作者,這就意味著“智力成果”構成要件的創(chuàng)作主體并非只能是有腦神經(jīng)元的自然人,也可以是具有構成智力成果能力的組織或法人,這就為“人工智能生成物(產(chǎn)品)”也可以被認定為智力成果留出了空間。筆者認為,將“人工智能生成物(產(chǎn)品)”認定為《著作權法》意義上的智力成果還需要考慮以下因素:一是選擇空間性,即不是唯一選擇或者有限選擇;二是獨特性,即選擇之后與既有表達內(nèi)容不重復;三是生成內(nèi)容的可理解性,即智力成果所表達的內(nèi)容是能被人類所理解的。據(jù)此,生成式人工智能產(chǎn)品的產(chǎn)出既有著“有形”形式,生成內(nèi)容同樣具有不重復性、可理解性,若拋開現(xiàn)有思維對著作權上的智力成果的傳統(tǒng)界定,以ChatGPT模型為代表的生成式人工智能產(chǎn)品在一定程度上滿足了《著作權法》上關于智力成果認定的基本標準。
(二)服務提供者應是人工智能生成物著作權的權利主體
關于人工智能生成物著作權主體歸屬的爭議同樣有三種觀點,第一種是“人類中心主義”論,第二種是人工智能“法律主體地位”論,第三種是“法律解釋”論。
持“人類中心主義”論的學者認為,人工智能是經(jīng)由人類創(chuàng)造出來的智慧產(chǎn)物,屬于被人類支配的客體范疇,在堅持以人類為中心構建的法律制度體系中,任何非人類或非人類集合都不能成為民事主體,人工智能也不能因為其生成物可以具有作品屬性而當然地取得著作權法意義上的作者資格;持人工智能“法律主體地位”論的學者多數(shù)認為,法律主體的范圍是開放的,是由社會發(fā)展的需要而決定的,人工智能技術的快速發(fā)展需要為人工智能構建一種以責任承擔為基礎的特殊財產(chǎn)性法律主體;而持“法律解釋”論的學者認為,在現(xiàn)行《著作權法》框架下,可以通過法律解釋的方式作出適當?shù)陌才牛劣谑菍⒅鳈鄽w屬于人工智能的提供者、生產(chǎn)者還是使用者,意見尚未統(tǒng)一。誠然,這三類觀點均肯定了人工智能生成物著作權的法律屬性,但對于人工智能生成物著作權主體資格問題有較大爭議。事實上,這一爭議產(chǎn)生的根本性原因在于能否在著作權法上創(chuàng)設一種新的獨立法律主體以突破現(xiàn)有法律體系對主體范圍的限制。
筆者認為,就目前人工智能發(fā)展的現(xiàn)狀而言,無需對現(xiàn)有著作權法進行重大修改,只需要確定著作權歸屬于人工智能的提供者、生產(chǎn)者還是使用者,并對內(nèi)涵和外延進行法律解釋即可。
首先,人工智能非自然人,本身無法成為法律主體,更不能成為權利主體。《辦法》規(guī)定,生成式人工智能產(chǎn)品提供者(提供者既包括個人,也包括組織)承擔該產(chǎn)品生成內(nèi)容生產(chǎn)者的責任,正是基于“人類中心主義”論,認為人工智能非自然人,本身無法成為法律主體,更不能成為權利主體,但人工智能輸出作品的行為需要進一步明確和解釋。
其次,人工智能輸出作品的行為構成了其主體(生成式人工智能產(chǎn)品的提供者)的法律行為要件。我國《著作權法》并未規(guī)定作者必須是自然人,而是將法人和其他組織擬制為作者。鑒于此,筆者認為,人工智能雖然不能成為法律主體,但其輸出作品的行為是受算法支配而表現(xiàn)在外面的活動,這種行為構成了其主體(生成式人工智能產(chǎn)品的提供者)的法律行為要件。換句話說,人工智能本身沒有行為能力,是由人工智能的提供者賦予它的算法和數(shù)據(jù)來決定的,其后續(xù)的行為認知是基于人工智能的設計者、制造者對自己行為的法律意義和結果的認識,基于此,人工智能服務提供者就應享有著作權主體資格。
最后,生成式人工智能產(chǎn)品提供者享有“類著作權”下的權利與責任。生成式人工智能產(chǎn)品提供者作為人工智能輸出作品行為主體,在符合我國《著作權法》關于作品屬性的規(guī)定時,生成式人工智能產(chǎn)品提供者所產(chǎn)出的產(chǎn)品則應該受著作權保護,同時,生成式人工智能產(chǎn)品提供者應當享有著作權的主體資格。根據(jù)“權利之所在,責任之所在”的基本原則,誰最終享有ChatGPT類產(chǎn)品生成內(nèi)容的權利,誰便需要承擔生成內(nèi)容可能引發(fā)的法律問題的相關責任。《辦法》中只規(guī)定了其義務和責任,尚未對其享有的權利進行細化和解釋,這就會出現(xiàn)未對生成式人工智能產(chǎn)品提供者賦予相關權利而只讓其履行義務承擔責任的權利與責任失衡的問題。
五、生成式人工智能產(chǎn)品提供者相關規(guī)范的完善建議
(一)規(guī)范生成式人工智能產(chǎn)品提供者的法律責任類型
《辦法》中雖然提到了“服務提供者”的概念,但是并未對其進行定義,在法律責任中也只進行了原則性要求,未對具體行為的法律責任進行細化和規(guī)范。筆者認為,《辦法》應明晰規(guī)制對象邊界,厘清與《中華人民共和國網(wǎng)絡安全法》(以下簡稱:《網(wǎng)絡安全法》)《中華人民共和國數(shù)據(jù)安全法》(以下簡稱:《數(shù)據(jù)安全法》)《中華人民共和國個人信息保護法》(以下簡稱:《個人信息保護法》)等法律、行政法規(guī)的關系和承擔責任的邊界,以實現(xiàn)在權利和責任規(guī)則適用上有序銜接和有機聯(lián)動。
一是,生成式人工智能產(chǎn)品提供者民事責任構成具有主客觀性質,需要從產(chǎn)品提供者主觀狀態(tài)、客觀行為兩個方面出發(fā),依過錯責任原則,從違法行為、因果關系、損害事實等方面,對生成式人工智能產(chǎn)品提供者侵權行為進行分析,確定其民事責任承擔形式。第一,從生成式人工智能產(chǎn)品提供者違法行為入手,生成式人工智能產(chǎn)品提供者沒有履行通知——刪除義務、使用未經(jīng)授權使用或未得到相關人員的明確同意的個人信息等行為,可以視為違法行為,需要承擔侵權責任。例如,ChatGPT模型生成的文本內(nèi)容包含未經(jīng)授權使用或未得到相關人員的明確同意的個人信息,這可能會違反《個人信息保護法》第10條、《網(wǎng)絡安全法》第42條、第43條等等;第二,從因果關系視角進行分析,若生成式人工智能產(chǎn)品提供者已知算法存在侵權行為,但沒有采取必要措施,且造成使用者合法權益受到損害的,可認為兩者存在因果關系,產(chǎn)品提供者須承擔民事責任。
二是,應以民事責任、行政責任為主,刑事責任為輔,以避免刑法越位,規(guī)制泛化,扼殺技術創(chuàng)新。目前我國刑法規(guī)定了網(wǎng)絡服務提供者拒不履行信息網(wǎng)絡安全管理義務罪,該罪處罰的是網(wǎng)絡服務提供者不履行信息網(wǎng)絡安全管理義務,防止其他主體妨害信息網(wǎng)絡安全管理秩序且情節(jié)嚴重的行為,而ChatGPT模型提供的信息服務是網(wǎng)絡服務提供者自營服務的組成部分,ChatGPT模型只是經(jīng)營工具而非法律主體,防止ChatGPT模型提供違法有害信息不屬于履行信息網(wǎng)絡安全管理義務的行為。如果認為有必要動用刑法手段防止ChatGPT模型引起廣泛的、十分嚴重的危害,有必要對其提供者規(guī)定服務安全管理責任,并予以充分、合理的刑法規(guī)制,但需要注意的是,刑法應始終保持內(nèi)在謙抑,避免其規(guī)制的泛化,扼殺技術創(chuàng)新。在其他部門法足以規(guī)制人工智能風險時,應避免刑法的越位。
(二)強調(diào)生成式人工智能產(chǎn)品提供者責任的同時應明確其權利
《辦法》中明確了生成式人工智能產(chǎn)品提供者的具體義務和責任,既要保障數(shù)據(jù)來源的合法性又要確保算法使用的適當性,但尚未明確其權利規(guī)范。筆者認為,在生成式人工智能產(chǎn)品提供者履行義務的前提下,若使用者利用該產(chǎn)品實行侵權等其他不合法不合規(guī)的行為時,生成式人工智能產(chǎn)品提供者作為產(chǎn)品的責任主體,基于“誰投入、誰貢獻、誰受益”原則,應當有權依法對產(chǎn)品的使用享有一定的收益,也有權暫停使用者利用生成的產(chǎn)品所進行的侵權行為。因此,為了更系統(tǒng)的規(guī)范生成式人工智能產(chǎn)品的使用,需在《辦法》中明確提供者的權利。
一方面,明確生成式人工智能產(chǎn)品提供者的合法數(shù)據(jù)資源的持有權。在具體內(nèi)容上,《辦法》應當明確生成式人工智能產(chǎn)品提供者的合法數(shù)據(jù)資源的持有權的具體形式:一是自主管理權,即對數(shù)據(jù)進行持有、管理和防止侵害的權利。二是數(shù)據(jù)流轉權,即同意他人獲取或轉移其所產(chǎn)生數(shù)據(jù)的權利。三是數(shù)據(jù)持有限制,即數(shù)據(jù)持有或保存期限的問題。對于自己產(chǎn)生的數(shù)據(jù),本人持有不受保存期限的限制。對于他人產(chǎn)生的數(shù)據(jù),應按照《個人信息保護法》的相關規(guī)定進行處理。比如,《電子商務法》要求商品和服務信息、交易信息的保存時間不少于三年,《網(wǎng)絡交易監(jiān)督管理辦法》要求平臺內(nèi)經(jīng)營者身份信息、商品和服務信息、交易記錄等數(shù)據(jù)保存時間不少于三年。
另一方面,明確生成式人工智能產(chǎn)品提供者的產(chǎn)品的經(jīng)營權。在具體內(nèi)容上應遵循《意見》中“誰投入、誰貢獻、誰受益”的數(shù)據(jù)經(jīng)營原則。具體來說,生成式人工智能產(chǎn)品提供者產(chǎn)品的經(jīng)營權主要是指服務提供者擁有對其研發(fā)的數(shù)據(jù)產(chǎn)品進行開發(fā)、使用、交易和支配的權利,其核心是處分權和收益權,也就是提供者作為產(chǎn)品的所有者,對合法處理數(shù)據(jù)形成的數(shù)據(jù)產(chǎn)品和服務依法享有自主使用,取得收益、進行處分的權利。數(shù)據(jù)產(chǎn)品的經(jīng)營權的客體并非原始數(shù)據(jù)或者數(shù)據(jù)集合,而是經(jīng)匿名化處理、加工、分析而形成的數(shù)據(jù)或數(shù)據(jù)衍生產(chǎn)品,后者已經(jīng)實現(xiàn)與前置性權益的切割,成為獨立的權利客體,一旦使用者利用生成式人工智能的人類反饋的強化學習模型對其進行有意訓練,不斷輸入假數(shù)據(jù)、個人隱私信息等非法數(shù)據(jù),引導生成式人工智能按照使用者的意思進行輸出內(nèi)容,若明確了生成式人工智能產(chǎn)品提供者的產(chǎn)品經(jīng)營權,服務提供者就可以禁止使用者輸入不當內(nèi)容。因此,筆者認為,生成式人工智能產(chǎn)品提供者應當可以對產(chǎn)品的處分和收益主張權利。
(三)監(jiān)管機構以“全鏈條監(jiān)管”模式,保障生成式人工智能技術發(fā)展和安全
監(jiān)管機構應加強事前、事中、事后全鏈條監(jiān)管,保障生成式人工智能技術的發(fā)展和安全。
第一是事前監(jiān)管,健全生成式人工智能技術的管理制度和政策法規(guī)。建立健全生成式人工智能技術的管理制度和政策法規(guī),包括標準、規(guī)范、指南等,明確各個環(huán)節(jié)的責任、權限和相應的保障措施,保障整個生成式人工智能技術的生命周期。應建立一套完整而嚴格的技術標準體系,以確保生成式人工智能技術的質量、安全和穩(wěn)定性。這些技術標準通常涉及算法設計、數(shù)據(jù)集質量、模型性能評估等方面。制定規(guī)范指引,建立符合技術標準的生成式人工智能技術治理框架,指導實施相關技術的具體操作方法和流程。明確各個相關方的責任和權限,包括技術研發(fā)機構、應用企業(yè)、管理機構等,以確保技術的全鏈條管理和實現(xiàn)最佳治理結果。建立一系列安全保障措施,并對應用于監(jiān)管領域的相關責任進行明確規(guī)定。
第二是事中評估,建立有層次的協(xié)同監(jiān)管制度。一是建立有層次的生成式人工智能市場準入清單制度。當前,ChatGPT模型尚未對中國地區(qū)全面開放,如未來ChatGPT進入中國市場,須符合監(jiān)管部門就進入中國市場提供網(wǎng)絡信息服務的準入條件,并由國家網(wǎng)信部門制定人工智能系統(tǒng)風險等級清單和相應的技術審查機制,旨在進行技術安全審核和評估。根據(jù)風險清單和技術審查機制建立有層次的市場準入清單制度,要求高風險人工智能系統(tǒng)的供應商在投入市場前按相關規(guī)定提交評估,若系統(tǒng)投放目的或性質有根本改變則須重新評估。二是,建立多方監(jiān)管制度。一方面,制定監(jiān)管政策和規(guī)定,明確監(jiān)管機構的職責和授權。政策和規(guī)定應該涉及技術開發(fā)、測試、部署、應用等各個環(huán)節(jié),以確保技術的透明和公平,防范技術的不當濫用。另一方面,完善個人信息保護投訴、舉報工作機制,通過使用者舉報和政府主動審查相結合的方式,保證已投入市場的生成式人工智能技術未偏離法治軌道。
第三事后追責,細化并規(guī)范責任承擔機制。明確生成式人工智能產(chǎn)品提供者和使用者在其對人工智能支配力所及范圍內(nèi)各自承擔責任,按照“誰支配、誰負責”原則,明確責任承擔機制,即“風險屬于誰的管轄范圍,誰便需要對風險及由此產(chǎn)生的結果來負責”。
六、結語
以ChatGPT為代表的生成式人工智能技術具有極強的虛擬性、互動性、廣域性和即時性,在增加監(jiān)管難度的同時,所帶來的法律風險和社會挑戰(zhàn)也不斷增加。為應對這一挑戰(zhàn)和風險,我國頒布了《辦法》,對人工智能追責體系進行補充和完善,整體上及時解決了技術快速發(fā)展與立法滯后之間的矛盾和問題,但《辦法》仍有較大的提升空間。考慮到信息(數(shù)據(jù))集合的巨大財產(chǎn)價值,以及技術在實踐中導致各類風險的現(xiàn)狀,在規(guī)制生成式人工智能產(chǎn)品提供者的義務和責任時,更應明確生成式人工智能產(chǎn)品提供者主體的相應權利,實現(xiàn)對生成式人工智能產(chǎn)品提供者法律規(guī)范的整體妥當性。
作者:孫祁(上海社會科學院法學研究所助理研究員、清華大學社會科學院在職博士后研究人員)
來源:《政治與法律》2023年第7期。因篇幅較長,已略去原文注釋。