ChatGPT火爆背后有何法律風險?
調查動機
最近,由美國人工智能研究室OpenAI開發(fā)的全新“聊天機器人”ChatGPT火了。作為一款人工智能語言模型,它不僅能和人展開互動,還可以寫文章、制定方案、創(chuàng)作詩歌,甚至編寫代碼、檢查漏洞樣樣精通,上線僅兩個月全球活躍用戶破億。
對此,有人直呼“太好用了,你要什么它就給什么”,也有人擔憂“一些工作將被它取代”。
ChatGPT的問世掀起了新一輪人工智能浪潮,但其使用過程中可能涉及的法律問題不容忽視,記者對此進行了調查采訪。
□ 本報記者 韓丹東
□ 本報實習生 王意天
ChatGPT火了,在國內連續(xù)多日沖上熱搜榜,一時與ChatGPT相關的各種信息遍布網(wǎng)絡。
ChatGPT全稱“Chat Generative Pre-trained Transformer”,按照其自我介紹,它是一個由OpenAI訓練的大型語言模型,被設計用來回答各種問題并為人們提供幫助。
人工智能、人機交互、自動問答……與ChatGPT相關聯(lián)的各種“高大上”的形容詞讓不少人感到好奇:ChatGPT到底能干什么?是否真的像一些人擔憂的那樣,可以取代文本創(chuàng)作等類型的工作?
《法治日報》記者近日采訪發(fā)現(xiàn),ChatGPT的火爆背后暗藏法律風險隱患。人工智能在給人們的生活增添樂趣、提供便利的同時,其信息真?zhèn)?、知識產權等法律風險也愈發(fā)受到關注。另一方面,不少人盯上了其熱度想“搭便車”牟利,出現(xiàn)了大批“山寨”產品和賬號轉賣行為。
存在信息泄露風險
可能侵犯知識產權
ChatGPT爆火后,很多博主拍攝了測評視頻。不少人給出評價稱,面對一些提問,ChatGPT反應速度、準確性較高,表現(xiàn)甚至優(yōu)于一些搜索引擎。但ChatGPT的回答通常是籠統(tǒng)的、整合性的回答,而不是具有個性色彩的、創(chuàng)新性的回答。
公開資料顯示,ChatGPT可以總結研究論文、回答問題、生成可用的計算機代碼,甚至快速通過美國醫(yī)學執(zhí)照考試、沃頓商學院的MBA期末考試、司法考試。一些醫(yī)學論文預印本和已發(fā)表的文章甚至正式賦予了ChatGPT作者身份。
但在受訪的法律人士看來,ChatGPT的強大功能也隱含著不少法律風險。
“ChatGPT對信息、數(shù)據(jù)來源無法進行事實核查,可能存在個人數(shù)據(jù)與商業(yè)秘密泄露和提供虛假信息兩大隱患?!北本┯?上海)律師事務所互聯(lián)網(wǎng)法律事務部主任謝連杰說。
謝連杰分析說,ChatGPT依托海量數(shù)據(jù)庫信息存在,其中包括大量的互聯(lián)網(wǎng)用戶自行輸入的信息,因此當用戶輸入個人數(shù)據(jù)或商業(yè)秘密等信息時,ChatGPT可能將其納入自身的語料庫而產生泄露的風險。雖然ChatGPT承諾刪除所有個人身份信息,但未說明刪除方式,在其不能對信息與數(shù)據(jù)來源進行事實核查的情況下,這類信息仍然具有泄露風險。
其次,人工智能生成的信息并不總是準確的,ChatGPT常常出現(xiàn)“一本正經(jīng)地胡說八道”的情況,需要一定的專業(yè)知識才能辨別真?zhèn)危灰部赡苡胁环ǚ肿訍阂狻坝柧殹比斯ぶ悄?,使其提供詐騙信息、釣魚網(wǎng)站等內容,損害公民人身財產安全。
“對于這類隱患,平臺應充分提示用戶其生成的內容可能為虛假信息,且在其生成疑似違法信息時進行攔截或提示用戶存在安全風險。”謝連杰說。
泰和泰(重慶)律師事務所高級合伙人朱杰說,ChatGPT在建立語料庫、生成文本時,如果使用并非公開的開源代碼、使用開源代碼商用未辦理許可證或者未按照許可證的要求實施的,可能會導致侵權。
他解釋說,這類人工智能主要是通過挖掘人類日常交流以及文本,進而統(tǒng)計分析,因此,對于一些受著作權保護的文本、視頻、代碼等,如果沒有經(jīng)過權利主體的授權,直接獲取復制到自己的數(shù)據(jù)庫中,并在此基礎上修改、拼湊,極可能侵害他人的著作權。
2019年,國際保護知識產權協(xié)會(AIPPI)發(fā)布《人工智能生成物的版權問題決議》,認為人工智能生成物在其生成過程中有人類干預,且該生成物符合受保護作品應滿足的其他條件情況下,能夠獲得保護,對于生成過程無人類干預的人工智能生成物無法獲得版權保護。
近日,多家國內學術刊物針對ChatGPT發(fā)聲?!遏吣蠈W報(哲學社會科學版)》發(fā)布關于使用人工智能寫作工具的說明提到,暫不接受任何大型語言模型工具(例如:ChatGPT)單獨或聯(lián)合署名的文章。在論文創(chuàng)作中使用過相關工具,需單獨提出,并在文章中詳細解釋如何使用以及論證作者自身的創(chuàng)作性。如有隱瞞使用情況,將對文章直接退稿或撤稿處理?!短旖驇煼洞髮W學報(基礎教育版)》發(fā)布聲明,建議作者在參考文獻、致謝等文字中對使用人工智能寫作工具(如:ChatGPT等)的情況予以說明。
朱杰認為,ChatGPT生成的文本等內容是基于大量數(shù)據(jù)的統(tǒng)計和應用生成的,不具有自己的思想和創(chuàng)新,很難構成著作權法保護的作品。
謝連杰提到,ChatGPT的文本數(shù)據(jù)挖掘技術可能導致其在他人享有著作權的作品中“借鑒”部分內容。對于這部分內容,若不能構成我國著作權法所規(guī)定的“合理使用”的情形,則可能引發(fā)侵權糾紛。
借勢販賣租賃賬號
“搭便車”山寨頻出
ChatGPT走紅后,由于服務端對中國大陸的IP有限制,無法注冊使用,其賬號一時在國內多個網(wǎng)購平臺、社交平臺上銷售火熱。在某電商平臺上售賣成品賬號的店鋪,一天之內多達萬人付款,價格最低1.68元。
記者在一家名為“ChatGPT賬號供應商”的店鋪購買了賬號,商家隨后私聊發(fā)來賬號和密碼,并特別標注輸入時需要復制粘貼,還附有登錄教程。登錄后,記者發(fā)現(xiàn)這是一個多人共享賬號,左側聊天欄已經(jīng)存在許多聊天窗口,系統(tǒng)運行十分緩慢,不一會記者就被提醒不能多人同時提問。
記者發(fā)現(xiàn),某電商平臺上,多數(shù)商家售賣的都是共享賬號,而單人定制賬號或者代注冊賬號的價格往往更高。
近日,多個電商平臺對ChatGPT賬號銷售行為進行了查禁,相關關鍵詞被屏蔽。記者先前賬號訂單顯示商品不存在,進入到商家界面發(fā)現(xiàn),所有的商品均已下架。
然而,記者在社交平臺上搜索“ChatGPT賬號”等關鍵詞發(fā)現(xiàn),仍有不少網(wǎng)友在提供代注冊、有償賬號分享服務,圍繞ChatGPT賬號展開的買賣行為仍在野蠻生長。
朱杰認為,這種買賣行為可能構成非法經(jīng)營等違法行為。ChatGPT的正版服務由境外機構提供,而未經(jīng)我國相關部門批準利用VPN跨境提供經(jīng)營活動是被明確禁止的,所以國內這些代問、代注冊的商家以營利為目的,搭建或使用VPN進行注冊賬號,未辦理國家相關行政許可,擅自經(jīng)營買賣國外賬號,可能會受到行政處罰甚至刑事處罰。
ChatGPT賬號價值被炒作成商品以外,借其名稱熱度“搭便車”的牟利行為也大量出現(xiàn)。近日,記者查詢發(fā)現(xiàn),以“ChatGPT”“智能問答”等字眼作名稱的小程序、公眾號數(shù)量激增,不少小程序都顯示有“1000+人最近使用”。
記者使用其中一些小程序后發(fā)現(xiàn),這些產品不僅和ChatGPT毫無關系,而且大多以免費試用為噱頭,吸引用戶注冊使用后,再推出收費服務,最終目的是誘人充值以牟利。例如,一個名為“××超級AI”的公眾號中提到,可以為用戶提供ChatGPT中文版的服務,小程序界面有不同的服務類型,從“AI情感問題”到“AI程序助手”,用戶可以選擇與不同的AI聊天。
可當記者點擊進入“AI情感問題”一欄,還未進行任何操作,對話框就顯示記者“已經(jīng)用完今天的免費次數(shù)”,后續(xù)體驗需要購買VIP,分別為19.9元的一天會員、199元的月度會員與999元的年度會員。
朱杰說,“山寨”軟件打著正版軟件的旗號進行宣傳,欺騙消費者進行下載,可能構成虛假廣告;同時,“山寨”軟件使用的名稱及標志如與正版軟件相同或相似,引導他人誤認為與正版存在特定聯(lián)系,可能構成反不正當競爭法中規(guī)定的商業(yè)混淆行為,將受到行政處罰。
法律規(guī)范必不可少
部門監(jiān)管精細治理
ChatGPT浪潮澎湃,其背后暴露出的人工智能法律風險、圍繞ChatGPT展開的無序商業(yè)行為亦洶涌來襲,如何應對成為關注焦點。
上海政法學院人工智能法學院副教授郭金蘭告訴記者,我國算法行業(yè)在此前的標準制定時已經(jīng)初步嘗試了以場景和架構為基準的思路。
2018年7月,中國科學院軟件研究所聯(lián)合15家產學研單位共同編制首個國內人工智能深度學習算法標準《人工智能深度學習算法評估規(guī)范》。這一規(guī)范基于深度學習算法可靠性的內部和外部影響,結合實際應用場景,確定了由7個一級指標和20個二級指標組成的算法可靠性評估指標體系,做了場景化和精細化算法治理實踐的有益嘗試。
2022年出臺的《互聯(lián)網(wǎng)信息服務算法推薦管理規(guī)定》中明確要求,人工智能的算法應當堅持社會主義主流價值觀,不能利用算法危害國家安全和社會公共利益、擾亂經(jīng)濟秩序和社會秩序、侵犯他人合法權益。今年1月10日起施行的《互聯(lián)網(wǎng)信息服務深度合成管理規(guī)定》中明確,任何組織和個人不得利用深度合成服務制作、復制、發(fā)布、傳播法律、行政法規(guī)禁止的信息,不得利用深度合成服務從事危害國家安全和利益、損害國家形象、侵害社會公共利益、擾亂經(jīng)濟和社會秩序、侵犯他人合法權益等法律、行政法規(guī)禁止的活動。
隨著人工智能產品不斷迭代升級,未來對相關產品該如何進行監(jiān)管與應對?
郭金蘭認為,對人工智能監(jiān)管,需要深入人工智能系統(tǒng)的整個生命周期,從模型的建立、語料庫的標注、模型訓練、投放市場后的迭代進化直到系統(tǒng)退出使用。監(jiān)管需要關注到每個具體的環(huán)節(jié),包括語料庫的篩選標準制定、參與人工標注的人員培訓,開發(fā)者的價值觀考察等。
“對ChatGPT這類生成式人工智能的監(jiān)管必須將算法監(jiān)管和數(shù)據(jù)監(jiān)管結合起來。在算法監(jiān)管機制的未來探索中,應充分考慮算法決策的主體類型和作用類別,探索場景化和精細化的算法治理機制?!惫鹛m建議說。
朱杰建議,國家應當加強對人工智能的倫理規(guī)制,將倫理道德納入人工智能研發(fā)和應用的全過程,增強全社會人工智能的倫理意識和行為自覺,積極引導負責任的人工智能研發(fā)與應用活動,促進人工智能健康發(fā)展。
版權聲明:凡注明“來源:中國西藏網(wǎng)”或“中國西藏網(wǎng)文”的所有作品,版權歸高原(北京)文化傳播有限公司。任何媒體轉載、摘編、引用,須注明來源中國西藏網(wǎng)和署著作者名,否則將追究相關法律責任。