国产成人综合久久亚洲精品_欧美日韩福利视频_国产精品嫩草影院免费_午夜小视频网站

首頁 >> 產業 >> 運營 >> 正文
AIGC的困境——如何應對著作權之爭?
  • 工聯網
  • 2024年1月18日 08:41

工聯網消息(IItime) 2023年是人工智能的商用元年,在其野蠻生長的一年時間里,生成式人工智能、大模型遍地開花。僅2023一年,我國人工智能相關企業就新增52.92萬家,可以說人工智能在2023年迎來了爆發性增長。

不可否認的是,人工智能技術、企業的發展為我國經濟發展帶來了新的增長點,但人工智能的產業發展還存在明顯的弊病——侵犯隱私和著作權等權益。

最近一段時間,有關AI侵權的案件屢屢發生,從國外的“OpenAI遭起訴,涉嫌竊取數百萬用戶信息以及面臨賠款”,到國內的杭州數字人侵權、“山寨通義千問”以及國內第一AI繪畫侵權等案件的先后發生,都反映了生成式人工智能的確存在侵權問題。

科學技術是第一生產力,生成式人工智能可否作為生產力?有人認為借助各種生成式人工智能工具或者平臺,用來寫文章、繪畫、生成音頻、視頻等,由此產生的作品的著作權又歸屬于誰呢?

筆者認為,生成式人工智能的內容產出本質就是“抄襲”。生成式人工智能以億萬的龐大的數據為參數,盡管具有出色的生成能力和巨大的應用價值,但其產出的內容一度受到了各界的質疑。

2023年3月,意大利宣布暫時禁止訪問ChatGPT,原因是沒有法律依據來證明用于訓練 ChatGPT 的大規模數據是合法的。

2023年12月21日,科技部監督司發布的《負責任研究行為規范指引(2023)》指出,不得使用生成式人工智能直接生成申報材料,不得將生成式人工智能列為成果共同完成人,不得直接使用未經核實的由生成式人工智能生成的參考文獻等。

生成式人工智能的發展面臨的最大挑戰就是引發侵權風險。以ChatGPT為例,其生成式人工智能系統使用從互聯網上獲取的大量數據創建內容,這些數據涵蓋了未經授權使用的文章、圖片,甚至是敏感的個人信息。

有分析稱,OpenAI 的訓練數據包含了超過 30 萬本書,當中有許多是沒有獲得許可、非法獲取的有版權圖書。有研究表明,大語言模型在某些情況下可以重現或者生成訓練集內的初始文本。

生成式人工智能在爬取海量數據的基礎上都可能會侵犯哪些權利?首先是侵害隱私和個人信息。有研究發現,由于大模型收集大量個人信息和隱私,且模型越大,所搜集的信息和隱私越多。在數據泄露頻發的當下,大模型搜集的海量個人信息極易成為不法分子攻擊的目標,從而提取出個人隱私的信息。

其次是名譽權。OpenAI公司首席執行官山姆·阿爾特曼在接受采訪中說,“我特別擔心這些人工智能被用于大規模制造虛假信息”。我國禁止使用生成式人工智能作為材料申報、成果共同完成人的一個重要原因就是無法保證生成式人工智能提供的內容的真實性。

中國人民大學法學院教授王利明指出:“生成式人工智能自動生成的包含虛假信息的圖片、視頻、聲音,已經達到了以假亂真的地步,甚至生成式AI都難以辨別其生成的圖片等是真實拍攝的還是自動生成的。”其生成的內容已經到了自身都難辨真假的地步,產業界應該重視起來。

最后是侵害肖像權。生成式人工智能能夠自動生成圖片、視頻的原理同生成文字一樣,同樣需要將大量的原始畫作、視頻提供給AI。在生成過程中,AI根據不同的要求產生不同的“作品”,需要注意的是,AI有可能會生成虛假等非法的信息。

數據已經成為新的生產要素。未來,數據也將會成為各大平臺爭搶的重要資源,一些知名網站、APP將進一步封鎖數據的流出,保證優質的數據資源留在自身的平臺內。而這將進一步影響以爬取海量數據為基礎的大模型訓練,長此以往,生成式大模型的訓練必定難以為繼。且當下,我國越來越重視數據安全,這些因素都將影響生成式人工智能的良性發展。

生成式人工智能已經深入大多數用戶的生活和工作中,面對法治越發健全和訴訟增多的雙重發難,在這里提出一些建議。

一方面,各國應該積極完善AI領域的版權政策和法規,以法律法規引領產業健康發展;另一方面,AIGC公司應當全力保障AI生成式輸出的內容具有版權的合規性,或及時向作者支付版權費,以提高內容的真實性和質量,形成良性循環。2023年是人工智能的商用元年,在其野蠻生長的一年時間里,生成式人工智能、大模型遍地開花。僅2023一年,我國人工智能相關企業就新增52.92萬家,可以說人工智能在2023年迎來了爆發性增長。

不可否認的是,人工智能技術、企業的發展為我國經濟發展帶來了新的增長點,但人工智能的產業發展還存在明顯的弊病——侵犯隱私和著作權等權益。

最近一段時間,有關AI侵權的案件屢屢發生,從國外的“OpenAI遭起訴,涉嫌竊取數百萬用戶信息以及面臨賠款”,到國內的杭州數字人侵權、“山寨通義千問”以及國內第一AI繪畫侵權等案件的先后發生,都反映了生成式人工智能的確存在侵權問題。

科學技術是第一生產力,生成式人工智能可否作為生產力?有人認為借助各種生成式人工智能工具或者平臺,用來寫文章、繪畫、生成音頻、視頻等,由此產生的作品的著作權又歸屬于誰呢?

筆者認為,生成式人工智能的內容產出本質就是“抄襲”。生成式人工智能以億萬的龐大的數據為參數,盡管具有出色的生成能力和巨大的應用價值,但其產出的內容一度受到了各界的質疑。

2023年3月,意大利宣布暫時禁止訪問ChatGPT,原因是沒有法律依據來證明用于訓練 ChatGPT 的大規模數據是合法的。

2023年12月21日,科技部監督司發布的《負責任研究行為規范指引(2023)》指出,不得使用生成式人工智能直接生成申報材料,不得將生成式人工智能列為成果共同完成人,不得直接使用未經核實的由生成式人工智能生成的參考文獻等。

生成式人工智能的發展面臨的最大挑戰就是引發侵權風險。以ChatGPT為例,其生成式人工智能系統使用從互聯網上獲取的大量數據創建內容,這些數據涵蓋了未經授權使用的文章、圖片,甚至是敏感的個人信息。

有分析稱,OpenAI 的訓練數據包含了超過 30 萬本書,當中有許多是沒有獲得許可、非法獲取的有版權圖書。有研究表明,大語言模型在某些情況下可以重現或者生成訓練集內的初始文本。

生成式人工智能在爬取海量數據的基礎上都可能會侵犯哪些權利?首先是侵害隱私和個人信息。有研究發現,由于大模型收集大量個人信息和隱私,且模型越大,所搜集的信息和隱私越多。在數據泄露頻發的當下,大模型搜集的海量個人信息極易成為不法分子攻擊的目標,從而提取出個人隱私的信息。

其次是名譽權。OpenAI公司首席執行官山姆·阿爾特曼在接受采訪中說,“我特別擔心這些人工智能被用于大規模制造虛假信息”。我國禁止使用生成式人工智能作為材料申報、成果共同完成人的一個重要原因就是無法保證生成式人工智能提供的內容的真實性。

中國人民大學法學院教授王利明指出:“生成式人工智能自動生成的包含虛假信息的圖片、視頻、聲音,已經達到了以假亂真的地步,甚至生成式AI都難以辨別其生成的圖片等是真實拍攝的還是自動生成的。”其生成的內容已經到了自身都難辨真假的地步,產業界應該重視起來。

最后是侵害肖像權。生成式人工智能能夠自動生成圖片、視頻的原理同生成文字一樣,同樣需要將大量的原始畫作、視頻提供給AI。在生成過程中,AI根據不同的要求產生不同的“作品”,需要注意的是,AI有可能會生成虛假等非法的信息。

數據已經成為新的生產要素。未來,數據也將會成為各大平臺爭搶的重要資源,一些知名網站、APP將進一步封鎖數據的流出,保證優質的數據資源留在自身的平臺內。而這將進一步影響以爬取海量數據為基礎的大模型訓練,長此以往,生成式大模型的訓練必定難以為繼。且當下,我國越來越重視數據安全,這些因素都將影響生成式人工智能的良性發展。

生成式人工智能已經深入大多數用戶的生活和工作中,面對法治越發健全和訴訟增多的雙重發難,在這里提出一些建議。

一方面,各國應該積極完善AI領域的版權政策和法規,以法律法規引領產業健康發展;另一方面,AIGC公司應當全力保障AI生成式輸出的內容具有版權的合規性,或及時向作者支付版權費,以提高內容的真實性和質量,形成良性循環。

編 輯:胡錦明
分享到: