近年來,以OpenAI的ChatGPT為代表的大語言模型迅速發展,在各行各業衍生出了以大量典型的實用化應用,相比早期的自然語言處理工具,大語言模型具有更強大的自然語言處理能力,不僅能夠識別語義信息,還能理解上下文關聯,進行多輪對話。這使其能夠以近似人類的方式進行交互,理解并回答提問者的問題。同時大語言模型具備海量知識庫,其訓練用的語料涵蓋了維基百科、文學作品、論壇對話等各類文本數據,知識容量巨大,這為其提供了充分的知識來源,可以就多種領域的問題給出解答。目前在教育領域,大語言模型主要用于個性化的知識講解,教學文案生成,教學評估與反饋等,在降低教師負擔的同時,其新穎的人機交互形式也可以提高學生的學習興趣和參與度。
大語言模型在思政教育方面的應用及風險
在思想政治教育方面,同樣面臨其帶來的沖擊和變革。值得注意的是,大語言模型作為一種新興技術,其應用既存在機遇也潛藏風險。
從積極層面看,大語言模型技術具有語義分析和知識輸出能力,可以實現對學生需求的精準把握和個性化回應,這為思想政治教育提供了實現“因材施教”的可能性。同時,大語言模型可以通過輔助教案準備、自動生成測試題目、批改作業等方式幫助教師減輕重復勞動,提高教學效率。但是,我們也要清醒地看到,直接應用大語言模型進行思想政治教育存在一定風險。其訓練所用的海量數據中可能存在錯誤知識、負面內容,這些元素都可能被編碼在模型參數中,其輸出可能會引導學生產生價值觀念的偏差。依賴大語言模型的思想政治教育也會削弱學生的獨立思考能力,模型生成的內容往往更具形式化邏輯性,但缺乏真正的價值引領作用。此外,過度依賴大語言模型會侵蝕教師的主體地位,教師有可能陷入被動回復的局面。總體來說,大語言模型啟發了思想政治教育變革的可能,但應用過程中需要警惕其技術局限性,不能直接等同于教師的引領作用,必須防范其負面影響,真正服務于學生全面發展的根本目的。
大語言模型的局限性根源分析
從技術上看,大語言模型在思政教育方面的局限性來自于以下幾個方面:
一是大語言模型的數據來源存在問題?,F有可供訓練大語言模型的公開語料數據,很大一部分來自互聯網等渠道,ChatGPT的訓練數據絕大部分和GPT-3是相同的,而據統計GPT-3的訓練數據中,英文占比超過92%,擁有絕對優勢,其他語言占比極低,中文占比不到1%,因此訓練數據可能包含不符合主流意識形態和價值取向的內容。此外,現有數據對主流意識形態闡釋不夠充分,理論聯系實際的案例較少,也會弱化模型對正確價值觀的判斷。
二是訓練方法的局限性。大語言模型本質上仍然是一個概率模型,在學習過程中并不會對數據進行價值上的篩選,一旦訓練過程中權重錯誤知識的比例較大,就會影響模型的知識結構和價值判斷。當前大語言模型訓練還無法達到真正理解知識內涵的效果。
三是人為治理不足。大語言模型技術快速發展,相關的應用治理措施與法規還不夠完善,模型開發企業和使用方的自律性有待加強。對一些可能引發問題的模型應用,目前還缺少相關技術限制和行為規范,使用時還需進一步完善相應監管。
從思政教育角度對大語言模型發展的建議
為了避免上述風險,需要從多個方面入手,強化大語言模型應用于思想政治教育的效果。
(1)在思政教育中,明確大語言模型是一個輔助工具,不能替代教師主體地位。教師需要保持清醒認知,了解其風險,合理應用。完善應用規范,防止過度依賴和不當使用。
(2)從基礎科研、知識版權等方面支持領先的科技公司改進大語言模型的算法技術,提升其對世界知識理解的準確性,開放模型運行查詢接口,使教育工作者能夠查詢其內部知識圖譜,了解知識來源。
(3)加速相關法規制定,構建應用治理框架,積極參與國際大語言模型治理的標準制定。如建立大語言模型應用的法規條例,明確技術開發和應用的底線原則。成立約束性規章制度,要求開發商和應用方建立內容審核等制度化流程,防止內容偏差。加快人工智能倫理治理立法,為大語言模型應用劃定紅線。
總結
隨著技術爆炸式的發展,大語言模型的廣泛應用已經是必然趨勢。出于對行業知識專業性的要求,已經有很多公司在構建面向不同行業的大語言模型或多模態模型,未來也有可能會出現根據實時數據即時更新的大語言模型,因此,在對大語言模型的治理上,要有超前的思考和行動。在充分利用大語言模型為思想政治教育賦能的同時,也要對其能力邊界及風險有足夠的認識,通過完善數據建設、設置輸出審核、劃清定位邊界、增強透明度、建立法規治理等舉措,可以在發揮其技術優勢的基礎上,有效規避其負面影響,促進思想政治教育的健康發展。這需要技術企業、政府管理部門、教育工作者等多方協同努力,共同推進人工智能在教育領域的深度融合應用。
作者:劉璇 北京化工大學文法學院
![](http://img.rmlt.com.cn/templates/rmlt2013/img/rmlt_logo.jpg)