ChatGPT是一款人工智能聊天機器人模型,其於2022年11月30日發布,僅用2個月時間月活躍註冊用戶就超過了1億,最可怕的是它的發展已經超乎人們想像,就在昨日晚間(2023年3月16日),微軟宣布發布AI辦公助手——Microsoft 365 Copilot。簡單而言,Copilot(副駕駛員)是一個搭載了GPT-4大模型能力的AI助手,將接入微軟全家桶產品中。
ChatGPT誕生至今僅4個月時間就已經歷經數代更新和發展,在全球範圍內掀起了多輪熱議,並迅速登頂各大頭條和熱榜,它備受全網熱捧,不限地域、不論國籍,粉絲狂漲、收穫連連讚嘆。可以說它的橫空出世引領了新一輪的人工智能熱潮。廣大網友短時間內便與它構建起深厚的革命友誼,究其原因在於它不僅能陪人聊家長里短,還敢談天下格局、編文案、撰小說、寫論文和敲代碼,可謂項項精通又樣樣在行。但是,在使用並了解了ChatGPT後,除了讚歎其功能的強大和智能外,我們仍嘗試以客觀謹慎的態度發出更進一步的追問,基於算法運行的人工智能ChatGPT,當真那麼靠譜嗎?
01
爆火的ChatGPT
ChatGPT,其全稱為Generative Pre-trained Transformer,即“生成式預訓練Transfomer模型”。通俗來講,ChatGPT通過預先對大量語料庫的自主學習,形成預測模型,從而獲得對自然語言進行處理的能力,也就是說, ChatGPT能夠對人們輸入的內容進行判斷和預測,從而模仿人類組織語言,給出回答或是形成文章。
ChatGPT之所以能一炮而紅,原因在於它的回答實在是太“像人”了,它不同於傳統AI聊天機器人的強大之處在於它具有自主學習的能力,能夠伴隨著輸入語言材料的增加而不斷成長,相當於它可以根據人們餵養的語言資料而同步學習,從而不斷提升自己的內容回復能力。據OpenAI官網介紹,GPT模型參數數量始終處於增速中,GPT-1版本的數量是1.17億,GPT-2時便已有15億,到了GPT-3,也即ChatGPT的前身版本,已飆升至1750億的海量,這意味著ChatGPT的準確性和功能依舊在不斷提高。而微軟宣布接入的GPT-4正是數日前由OpenAI發布的,目前功能最強大的AI大模型。這意味著全球最大辦公軟件和最強AI模型將強強聯合,堪稱“王炸”。大多數語境中,ChatGPT的反饋確實實現了語句通順且富有邏輯,甚至論證嚴謹又文辭優美,打破了人們對於邏輯跑偏、答非所問的人工“智障”小助手的刻板印象,它超乎意料的優異表現無疑使其成為新一代人工智能機器人中的佼佼者,宣告著人工智能技術的突破性進展,也使人們愈發相信它擁有廣闊的應用前景。
02
潛在的法律風險
然而,如此強大的ChatGPT卻也難逃技術影響兩面性的鐵律。它是高懸於頂的達摩克利斯之劍,與之強勢發展共生的,還有潛在的合規難題和法律風險。
(一)隨意使用ChatGPT的回答可能會侵犯他人的著作權
當ChatGPT為提問者提供回答時,其答复的內容是否構成著作權成果從而產生相應權利?隨意使用ChatGPT的回答是否會構成著作權侵權?
我國《著作權法實施條例》第2 條規定:“著作權法所稱作品,是指文學、藝術和科學領域內具有獨創性並能以某種有形形式複制的智力成果。”獨創性的“獨”是指作品人獨立創作,而“創”則是指作品具有一定程度的智力創造性。 ChatGPT回答主要依靠兩個重要因素:一個是作為“經驗”素材供其深度學習的海量數據,另一個是作為內在“本體”而供其自主決策的算法技術,其中深度學習環節是ChatGPT產出“作品”的關鍵。
ChatGPT的深度學習不同於普通計算機的計算,它是基於一定的任務目標,在人工神經網絡系統技術的支持下,對海量的數據進行識別分析、總結歸納以及處理改造的結果。和人類創作過程中需要從生產生活實踐中學習、借鑒他人已有成果類似,但是由於我國還沒有關於人工智能作品著作權的法律,所以其權屬爭議仍無法予以定論。
但是即便人工智能產出作品的著作權存在爭議,提問者也不應該認為ChatGPT回答的內容不受《著作權法》的保護而隨意使用,因為如果ChatGPT在進行回答的時候借鑒了很多互聯網上現有的內容甚至他人的專有作品,則其在生成作品過程中存在對他人既有作品的參考或引用,如果提問者將其回答的內容據為己有,即便使用者全然不知ChatGPT引用作品的真正權利人,但事實上也會造成對他人著作權的侵犯。
(二)ChatGPT基於算法而進行的錯誤回答可能誤導提問者
雖然ChatGPT基於龐大的語料庫和預測模型的自主學習能力,已然能夠為很多提問者的問題提供精準的回答,但是再智能的機器人也依舊是基於算法運行的。算法運行的本質是數據輸入和輸出的過程,但在這個過程中存在無法解釋的“算法黑箱”問題。因為同一算法可通過不同程序設計語言加以編碼,思想與表達之間存在諸多可能。而且多種算法的疊加及多個隱含層的存在加劇了算法的不可解釋性風險。 “算法黑箱”可能會導致人工智能的運行不可解釋,ChatGPT並不是真正擁有了人類的思維,其基於算法而運行的特徵可能導致難以對信息來源的真假進行辨別。
而且ChatGPT無法對提供回答的後果和影響進行評估,所以經常存在其回答看似有規律,其實是在一本正經地胡說八道。對於信息接受者而言,不論是提供錯誤回答還是虛假信息,如果將其回答視為專家言論般信賴,一些對於行為和方法的錯誤指導可能會造成提問者的人身遭到損害、財產面臨損失等嚴重的法律後果。有時甚至會導致刑事犯罪,比如不同國家的毒品管制存在區別,如果一名擁有嚴格禁止大麻的B國國籍的提問者詢問ChatGPT:“大麻是否為毒品?”,而其卻根據不禁止大麻的A國法律回答為“否”,如果B國人聽信其回答在B國吸食、運輸或販賣毒品,則有可能導致提問者面臨相關刑事責任。
(三)基於大數據運作的ChatGPT可能會侵犯個人信息
人工智能的智能感知、智能推理、智能學習、智能行動四個環節都要受數據的驅動。從技術上來說,目前人工智能必須具備機器學習技術,而這一技術的實現需要藉助於收集、分析和使用大量數據。 ChatGPT的工作原理本質上也是基於大數據的收集、分析和使用。所以在大數據時代,無論是ChatGPT的運營者還是使用者,只要通過不恰當的方法使用了數據,都有可能產生因大數據使用所引發的數據洩漏危機。
據矽谷媒體報導,在一條從企業內部通信工具Slack洩露的信息中,亞馬遜的公司律師稱,他們在ChatGPT生成的內容中發現了與公司機密“非常相似”的文本,可能是由於一些亞馬遜員工在使用ChatGPT生成代碼和文本時輸入了公司內部數據信息,該律師擔心輸入的信息可能被用作ChatGPT迭代的訓練數據。
作為大型語言模型,ChatGPT的訓練數據集包含TB級別的海量互聯網文本數據,代碼、詩歌、法律文件、自然對話都是這些數據的一部分。在當今的Web2.0時代,ChatGPT收集到的信息的處理權依舊歸屬於其的背後的操控者微軟公司,如果提問者簡單將ChatGPT當做一個無感情的機器人而隨意暴露自己的隱私,可能會導致個人信息遭遇洩露甚至販賣等法律風險。
03
結論
科技路上一路狂飆的ChatGPT在極短時間內便一躍成為人工智能的發展浪尖,其廣闊的技術應用前景,不僅將助力人工智能產業本身的進一步突破,也必然惠及內容、硬件等相關企業,相關技術在教育、醫療、金融、政府等領域的應用也飽受期待。隨著微軟Office 365搭載GPT-4後實現強強聯合,神秘的ChatGPT將逐漸進入我們的日常生活,雖然人工智能發展迅速且前途光明,但是我們使用時也不能掉以輕心,因為其在某種程度上存在觸碰法律底線的風險,而產品搭載GPT-4的微軟公司,也只有遵守“合規”底線才能真正行穩致遠。
參考文獻:
[1]郭萬明.人工智能生成成果的法律性質及著作權保護[J].出版發行研究,2022(05):58-64.
[2]雷麗莉,朱碩.人工智能生成稿件權利保護問題初探——基於Dreamwriter著作權案的分析[J].傳媒觀察,2022(05):62-69..
[3]胡小偉.人工智能時代算法風險的法律規制論綱[J].湖北大學學報(哲學社會科學版),2021,48(02):120-131
[4]姚萬勤.大數據時代人工智能的法律風險及其防範[J].內蒙古社會科學(漢文版),2019,40(02):84-90.