中新網(wǎng)北京2月9日電(記者 袁秀月)近期,美國OpenAI公司旗下的人工智能聊天機器人ChatGPT一躍成為火爆全球的現(xiàn)象級應(yīng)用。
作為一項新興的數(shù)字技術(shù),人工智能正在以其強勁的力量影響周遭的世界,。在人們因其產(chǎn)生好奇,、興奮抑或擔憂,、抵觸等情緒時,如何應(yīng)對人工智能帶來的法律問題,,警惕相關(guān)的法律風險亦顯得尤為重要,。
網(wǎng)頁截圖
ChatGPT生成的內(nèi)容屬于誰?它能擁有作者身份嗎
目前來看,,人們應(yīng)用ChatGPT的場景很廣泛,,包括寫郵件,、視頻腳本、文案,、代碼,、詩,、論文等等,。
國外一項對100多名教育工作者和1000多名學生展開的調(diào)查顯示,,超過89%的學生使用ChatGPT來幫助完成家庭作業(yè)。也有研究者用它來撰寫學術(shù)論文,,為此多家學術(shù)期刊更改編輯規(guī)則,,禁止將ChatGPT列為合著者。
那么,,在法律上,,ChatGPT能擁有作者身份嗎?它生成文本內(nèi)容的著作權(quán)屬于誰,?
大成律師事務(wù)所合伙人李偉華對中新網(wǎng)記者表示,,我國《著作權(quán)法》所稱“作者”,是自然人,、法人或非法人組織,,AI并非我國《著作權(quán)法》的“作者”,,因此目前很難依據(jù)法律直接賦予ChatGPT以作者身份。即便對于少數(shù)明確通過立法承認AI生成內(nèi)容可以獲得版權(quán)保護的國家,,其通常也是將計算機軟件的開發(fā)者,,或為生成過程作出實質(zhì)性貢獻的人賦予作者身份。
此外他提到,也要看計算機軟件開發(fā)者與用戶之間的協(xié)議約定,。比如,,ChatGPT生成作品的著作權(quán)劃分問題可從其服務(wù)條款了解一二,。
根據(jù)OpenAI的使用條款,,只要該用戶遵守使用條款(其中包括某些使用限制),,OpenAI就會將其在輸出內(nèi)容中的所有權(quán)利,、所有權(quán)和利益轉(zhuǎn)讓給提供輸入內(nèi)容的用戶,。然而,,由于機器學習的特性,,不同用戶可能會從AI中獲得相同或類似的輸出內(nèi)容,,而根據(jù)條款,,只有獨有的“輸出內(nèi)容”的權(quán)利才能夠轉(zhuǎn)讓,。
因此這種輸出內(nèi)容的轉(zhuǎn)讓需要排除呈現(xiàn)給其他ChatGPT用戶的結(jié)果,,而該等限制會造成輸出內(nèi)容著作權(quán)的的不確定性,,且會隨著時間推移變得更加不明朗,。
資料圖:北京,,在服貿(mào)會首鋼園展區(qū),,電信、計算機和信息服務(wù)展廳里的舞蹈機器人,。中新網(wǎng)記者 李駿 攝
人工智能生成的作品能當做原創(chuàng)作品嗎,?
利用人工智能進行內(nèi)容創(chuàng)作,這并非新鮮事,,但隨著技術(shù)的發(fā)展,,人工智能內(nèi)容生產(chǎn)水平不斷提高,甚至還出現(xiàn)AI畫作獲獎的案例,。
人工智能生成的作品能當做原創(chuàng)作品嗎,?李偉華表示,我國《著作權(quán)法》第三條規(guī)定,,本法所稱的作品,,是指文學、藝術(shù)和科學領(lǐng)域內(nèi)具有獨創(chuàng)性并能以一定形式表現(xiàn)的智力成果,。因此理論上來講,,無論自然人所創(chuàng)作的內(nèi)容,還是ChatGPT等人工智能生成的內(nèi)容,,只要能滿足前述構(gòu)成要件都可以構(gòu)成作品,。
不過,目前,,中國法律并未對人工智能生成的內(nèi)容是否可以構(gòu)成作品作出明確規(guī)定,,我國法院在司法實踐中也對此存在不同理解。對此李偉華認為,,人工智能生成的內(nèi)容只要滿足《著作權(quán)法》關(guān)于作品的構(gòu)成要件,,應(yīng)當被賦予版權(quán)保護。
“因為這些看似屬于計算機或人工智能創(chuàng)作的內(nèi)容,,根本上還是人類智慧產(chǎn)生的結(jié)果,,計算機或人工智能不過是在依據(jù)人類事先設(shè)定的程序、內(nèi)容或算法進行計算和輸出而已,?!彼f。
還有哪些法律風險?
人工智能的發(fā)展也帶來了一系列嶄新的法律問題,,對于普通的用戶而言,,應(yīng)當注意哪些法律風險?
在李偉華看來,,首先是知識產(chǎn)權(quán)侵權(quán)風險,,因為ChatGPT是在大量不同的數(shù)據(jù)集上訓練出來的大型語言模型,使用受版權(quán)保護的材料來訓練人工智能模型,,可能導致該模型在向用戶提供回復(fù)時過度借鑒他人的作品,,從而引起侵權(quán)糾紛。
李偉華提醒,,作為用戶應(yīng)當意識到這一風險,,并考慮通過避免限縮聊天請求等可行措施,來避免或限制獲得趨于精確,、狹義的可能來自特定作品的輸出內(nèi)容,。
其次是數(shù)據(jù)合規(guī)風險。OpenAI的使用條款規(guī)定了OpenAI對任何用戶輸入和輸出內(nèi)容擁有廣泛使用權(quán)以改善ChatGPT,。在此基礎(chǔ)上,,若用戶在輸入請求時,輸入與已識別或者可識別的自然人有關(guān)的各種信息(未匿名化處理),,則有侵害他人個人信息權(quán)益的風險,。
因此用戶在使用ChatGPT時,應(yīng)對所有可能涉及個人信息的數(shù)據(jù)進行匿名化處理,,或避免鍵入任何涉及個人信息的內(nèi)容,。
最后是泄露商業(yè)秘密及違背保密義務(wù)的風險。李偉華解釋,,用戶可能在無防備無警覺的情況下,,在提交請求時輸入涉密信息。OpenAI的使用條款并未對用戶可能輸入ChatGPT的機密信息提供任何保護,。相反,,使用條款規(guī)定了OpenAI對任何用戶輸入和輸出內(nèi)容擁有廣泛使用權(quán)以改善ChatGPT,但允許用戶與OpenAI取得聯(lián)系,,選擇不允許OpenAI將相關(guān)內(nèi)容用于此類目的,。
因此,,用戶尤其是負有保密義務(wù)的用戶在使用ChatGPT和類似的人工智能工具時,應(yīng)當注意采取措施,,以免出現(xiàn)泄密行為,。
(編輯:月兒)
