給火爆全球的ChatGPT潑一瓢冷水

2023-06-28 22:36史繼紅
台商 2023年1期
关键词:風險創作內容

史繼紅

ChatGPT(Chat Generative Pre- trained Transformer),是美國人工智能研究實驗室OpenAI推出的人工智能技術驅動的語言處理工具,它通過連接大量的語料庫來訓練模型,因此擁有遠超人類的語言理解和文本生成能力,它不單能流暢地與人聊天,還能完成撰文寫詩、繪畫視頻、製訂方案、翻譯編碼等任務。

2023年一月,ChatGPT的月活用戶已突破1億,成為史上增長最快的消費者應用。2023年2月2日,微軟官方公告表示,旗下所有產品將全線整合ChatGPT,除此前宣佈的搜索引擎必應、Office外,微軟還將在雲計算平臺Azure中整合ChatGPT,Azure的OpenAI服務將允許開發者訪問AI模型。

但與此同時,IT業的領軍者擔心,ChatGPT已經被黑客們用於策劃網絡攻擊時使用。另有調查顯示,截止2023年1月,美國89%的大學生都是用ChatGPT做作業,巴黎政治大學宣佈,該校已向所有學生和教師發送電子郵件,要求禁止使用ChatGPT等一切基於AI的工具,旨在防止學術欺詐和剽竊,多家學術期刊發表聲明,完全禁止或嚴格限制使用ChatGPT等人工智能機器人撰寫學術論文。因為他們認為:使用ChatGPT完成作業和寫論文是不道德和不健康的學習方式,常用ChatGPT的學生們逐漸失去自主思考的能力。所以,這類人工智能技術可能為商業和民生帶來顛覆性的機遇,但同時也伴隨著巨大的風險。

在ChatGPT及其他AI智能應用產品火爆全球,資本紛紛嗅機而動之際,我們今天卻是來潑一瓢冷水的。在經濟不景氣,裁員很嚴重的今天,絕大部分普通人不會因ChatGPT的火爆興奮,而是非常擔憂,我們法律人也不例外。方案文本創作等這類的工作被智能取代了,還能有我們坐在電腦前的人什麼事兒呢?我們就來談談法律風險,盤點一下還真不少,完全有可能拖一下ChatGPT或類似AI應用的「後腿」。

侵害他人著作權

討論這個問題之前,我們先要弄清楚,如果ChatGPT創作的具有個性化的作品有著作權的話,誰是作者?這和誰是著作權人是兩個概念。作者是指文學、藝術和科學作品的創作人,根據《著作權法》的規定,作者按照以下標準進行認定:創作作品的公民(自然人)是作者,這是作者最基本的認定原則。就算是職務創作或者其他繼受原因使非自然人拿到了著作權,但按以往的樸素理解,最先創作的一定是一個或若幹個自然人。所以,不少法律專家認為ChatGPT生成的文本等內容是基於大量數據的統計和應用生成的,首先,它不是人,不是著作權法意義上的創作者,不具有自己的思想和創新,很難構成著作權法保護的作品,皮之不存,毛將附焉。ChatGPT作品是智能機器模仿人類創作的成果,其創作過程和創作結果與人類創作類似,但是AI並非理性人,它沒有創作動機,也無自己的創意表達,其創作並非表達思想,而是在虛擬空間從大量輸入作品中發現規律,生成模板,利用算法組合素材的機械過程,所以,ChatGPT不是作者,其生成的內容不能受著作權法的規制。

雖然司法界存在不同的聲音,比如深圳南山法院在審理騰訊訴盈訊案中,認可了騰訊利用智能寫作Dreamwriter創作的,被發佈在互聯網上的文章著作權人為騰訊,但在菲林律所訴百度公司案中,北京互聯網法院不認可菲林對其利用智能可視化軟件自動生成的報告享有著作權。但主流仍傾向於認定人工智能生成物無法獲得版權保護。如2019年,國際保護知識產權協會(AIPPI)發佈《人工智能生成物的版權問題決議》,認為人工智能生成物在其生成過程中有人類幹預,且該生成物符合受保護作品應滿足的其他條件情況下,能夠獲得保護,對於生成過程無人類幹預的人工智能生成物無法獲得版權保護。

《暨南學報(哲學社會科學版)》發佈關於使用人工智能寫作工具的說明提到,暫不接受任何大型語言模型工具(例如:ChatGPT)單獨或聯合署名的文章。在論文創作中使用過相關工具,需單獨提出,並在文章中詳細解釋如何使用以及論證作者自身的創作性。如有隱瞞使用情況,將對文章直接退稿或撤稿處理。

非但如此,ChatGPT生成的文本等,其來源主要靠海量的他人作品數據挖掘技術,其內容為人使用,還可能侵犯別人的著作權,因為這類人工智能可能未經過權利主體授權,「借鑒」了一些受著作權保護的文本、視頻、代碼等,直接獲取複制到自己的數據庫中,並在此基礎上進行模仿、修改、拼湊。對於這部分內容,若不能構成中國著作權法所規定的「合理使用」的情形,則可能引發侵權糾紛。不過另人擔憂的是,筆者認為,隨著ChatGPT等人工智能技術的發展,系統和算法會自動優化分析和處理,使其生成的文本和內容繞開跟原有作品相同或相似的表達,從而規避侵害著作權的風險,但源生根本,如果人類創作者認為絞盡腦汁的創作還不如一個人工智能,創作動力會大大減弱,缺少人的創作,ChatGPT的發展是不是會遇到瓶頸呢?另外,ChatGPT在建立語料庫、生成文本時,如果使用了非公開的開源代碼,或使用開源代碼商用未辦理許可的,也可能會導致侵權。

信息合規化問題及泄露風險

ChatGPT對挖掘的信息、數據來源無法進行事實核查,可能存在個人數據與商業秘密泄露和提供虛假信息的隱患。

ChatGPT生成文本依托海量數據庫信息挖掘加工,包括大量的互聯網用戶自行輸入的信息,這就引發了一些問題,當用戶輸入個人數據或商業秘密等信息時,ChatGPT將其納入自身的語料庫而產生泄露個人隱私及商業秘密的風險。雖然ChatGPT承諾刪除所有個人身份信息,但未說明篩查、刪除或屏蔽方式,未精細匿名化處理可識別的自然人的相關信息,也不能完全判斷商業信息是公開信息還是非公開信息,這類信息仍然具有泄露風險。

另外,如果C h a t G P T挖掘的數據信息是不準確的,甚至有不法分子惡意訓練人工智能,使其提供詐騙信息、釣魚網站等內容,需要一定的專業知識才能辨別真偽反詐,這類辨別與反詐等安全監管系統有漏洞的,很可能有損害公民、企業人身、財產安全。這需要ChatGPT或其他AI系統加強監管安全方面的處理,對生成疑似違法信息時進行攔截或提示用戶存在安全風險。

山寨ChatGPT亂相迭生

不少商家也瞅準大「商機」,亂搶「一杯羹」。有媒體就提醒,中國迅速出現了一批名字中包含「ChatGPT」的微信公眾號、小程序產品,這些產品的服務方式大多先讓你免費試用,次數用盡,就開始按使用條數或者時間收取費用,而且往往「一經購買,概不退換」。

這種山寨ChatGPT費用一點不便宜,OpenAI為每個注冊賬號提供18美元額度,可以供用戶與ChatGPT進行大約3600次對話;而在一些山寨公司的服務中,免費對話僅4次,當免費的對話次數額度用盡後,系統就提示需充值額度後才可繼續使用,充值額度分為9.99元20次、199.99元3000次等,最高檔為999.99元無限次對話額度,有效期一年需要支付。而該些服務賬號中,有點良心的,是讓用戶通過直聯OpenAI的接口所獲得服務,沒良心的,壓根貨不對板,使用的是其他開發的仿制對話模型,往往存在回復延遲較長、內容出現低級錯誤等問題,屬於完全的山寨,購買這類產品的用戶就是上當受騙。

社會與國家安全問題

前面已述不法分子可以訓練ChatGPT進行詐騙犯罪活動,同樣也可以在使用者失去自行查閱不同搜索結果並自行判斷的機會時,可以通過訓練ChatGPT實現信息與答案的相對壟斷,ChatGPT便容易成為輿情的操縱工具。現網絡犯罪分子已經在嘗試使用ChatGPT創建惡意軟件,雖然黑客攻擊通常需要高水平的編程知識,但ChatGPT提供了廉價幫助。

中國2022年出台的《互聯網信息服務算法推薦管理規定》中明確要求,人工智能的算法應當堅持社會主義主流價值觀,不能利用算法危害國家安全和社會公共利益、擾亂經濟秩序和社會秩序、侵犯他人合法權益。今年1月10日起施行的《互聯網信息服務深度合成管理規定》中明確,任何組織和個人不得利用深度合成服務制作、複制、發佈、傳播法律、行政法規禁止的信息,不得利用深度合成服務從事危害國家安全和利益、損害國家形象、侵害社會公共利益、擾亂經濟和社會秩序、侵犯他人合法權益等法律、行政法規禁止的活動。

為了國家與社會安全,為了合法財產安全,對人工智能監管,需要深入人工智能系統整個生命周期的每個具體環節,貫穿在模型的建立、語料庫的標注、模型訓練、投放市場後的迭代優化中。此外,還包括語料庫的篩選標準、參與人工監察的人員培訓規程的制定,還需要加強對人工智能的倫理規制,積極引導對價值觀、道德觀負責任的人工智能研發與應用活動,促進人工智能健康發展。

猜你喜欢
風險創作內容
論張維屏的詩學觀與創作
1-2期合刊
創作《萬物眾神》的感想與回顧
7—8合刊
樓繼偉 全社會缺乏風險意識是個大問題
关于创作
创作剖析
「一帶一路」沿線投資 匯率風險如何防範?
「一帶一路」沿線投資 匯率風險如何防範?
李稻葵 如何規避「一帶一路」的建設風險