生成式人工智能的治理是今年兩會上代表委員們熱議的一個重要話題。生成式人工智能既帶來了人工智能技術的“奇點時刻”,也帶來了人工智能治理的“關鍵時刻”。生成式人工智能技術是指具有文本、圖片、音頻、視頻等內容生成能力的模型及相關技術。加快對生成式人工智能領域的立法,既是防范生成式人工智能服務風險的現實需要,也是促進生成式人工智能健康發展的長遠需要。前不久,歐洲議會、歐盟委員會和27個成員國的談判代表就《人工智能法案》達成協議,這成為全球首部人工智能領域的全面監管法規,為用法律監督ChatGPT等生成式人工智能服務的發展提供了一定借鑒。在該領域,我國也進行了不少探索,2023年已正式施行的《生成式人工智能服務管理暫行辦法》(以下簡稱《辦法》)從價值規范、行為規制和過程監管等方面對生成式人工智能加強了治理。隨著技術的廣泛應用和不斷演進,生成式人工智能服務的開發者、提供者、使用者、監管者在未來實踐中都還將面臨不少的法律挑戰,法律上也仍有諸多可填補的空間。這些也是我國下一步針對生成式人工智能立法立規應重點關注的問題。
首先,生成式人工智能生成內容的準確性和可靠性該如何認定是一個突出的問題。人工智能準確性不僅是生成式人工智能部署和運行的重要底線,也是構建可信賴人工智能的重要前提。以目前生成式人工智能的技術水平,其技術和應用局限仍非常明顯,存在生成內容準確率不高、可信性不強、文本生搬硬湊、缺乏邏輯性等問題,有時甚至出現一些脫離現實、啼笑皆非的低級錯誤。對此,《辦法》要求,提供和使用生成式人工智能服務應當“提高生成內容的準確性和可靠性”。要落實這一要求,尚需進一步的法律規則細化。一方面,要求服務提供者使用具有合法來源的數據和基礎模型;另一方面,要求其采取有效措施提高訓練數據質量,增強訓練數據的真實性、準確性、客觀性、多樣性。同時,應正視人工智能的風險閾值,繼續深入探索同生成式人工智能技術特性與產業特點相匹配的數據準確性、算法模型準確性、輸出準確性和解釋準確性標準,構建科學精準的風險治理框架。
其次,生成式人工智能帶來了個人信息保護的相關問題。大數據和人工智能技術的結合,改變了以往單一的個人信息收集和處理方式。生成式人工智能通常需要大量數據進行訓練,并且,隨著生成式人工智能的廣泛使用,個人數據的收集、存儲和處理變得非常普遍,加強數據管理和隱私保護至關重要,以盡量保證生成式人工智能服務提供的透明性和可控性。一方面,生成式人工智能的開發應該時刻注重確保個人對自身數據的控制權。根據《辦法》,生成式人工智能服務的提供者應當依法履行對用戶個人信息保護義務。涉及個人信息的,應當取得個人同意或者符合法律、行政法規規定的其他情形。其實這項義務并非新增,而是個人信息保護法等法律在生成式人工智能領域的細化。但是,這些規定大都有賴于產品研發者、服務提供者進行自我審查和自我履行,還缺乏獨立第三方對算法進行有效論證和監管的具體設計,需要適時填補這一空白,細化數據采集、存儲、使用和共享的規則,確保數據的合法性與安全性。
再次,生成式人工智能面臨知識產權認定的問題。一方面,生成式人工智能運用未被授權的數據生成的內容可能被指控侵犯知識產權;另一方面,其生成的獨創性內容是否應該受到知識產權保護?又該如何保護?《辦法》堅持尊重知識產權的導向,宏觀地作出規定:“涉及知識產權的,不得侵害他人依法享有的知識產權。”面對生成式人工智能涉嫌侵權的行為,用戶可以依據相關法律規定對服務開發者和提供者提起訴訟,進行維權。根據我國著作權法的規定,享有著作權的作者,主要包括創作作品的自然人,和其他依照本法享有著作權的法人或者非法人組織。只有“人”能夠成為知識產權法律關系的主體,可以對智力成果進行創作并享有權利,而人工智能模型不具備自由意志,不是法律上的主體,不能成為我國著作權法上的“作者”,且人工智能的設計者、研發者、投資者、管理者、實際操控者等在作品的創作過程中均發揮著重要作用,權利的歸屬如何,目前也尚無明確規定,如何進行產權保護,還需要相關法律法規加緊跟上。
最后,生成式人工智能還面臨法律監管不充分的問題。對于具有超大規模、千億參數量、極易擴展性和大量應用場景的生成式人工智能而言,以事后啟動、分散推進為特征的傳統監管面臨應對遲滯、彈性不足、監管尺度不清、跨域協調成本高企的挑戰。人工智能生成內容技術因其快速反應能力、豐富知識輸出、多元應用場景等,對監管者的監管能力也提出極大挑戰。因此,應積極打造“以AI治理AI、以算法規制算法”的智能監管體系,深入探究技術模型在人工智能監管層面的有效性,將倫理規范和合規要點轉化為程序語言,以內部倫理技術約束嵌入人工智能設計和運行全過程,探索智慧化監管模式。同時,充分吸納專業技術人才充實監管隊伍,轉變監管思維,創建監管機構間高效的信息共享機制,提升與人工智能技術創新相匹配、相適應的應對能力和管理能力,確保技術的研發與使用符合法律法規和道德規范。(胡建淼專家工作室供稿)