【摘要】人工智能時代算法的領域歸屬、形態屬性與功能價值發生重大變化,其影響力失控蔓延的苗頭愈加明顯,催生“算法焦慮”。本文以“算法焦慮”現象為研究對象,從算法自身以及規制理念、治理模式等多個角度系統挖掘“算法焦慮”誘發因素,進而從多元互動、相互聯結的維度構建邁向算法信任的本土化治理方案。
【關鍵詞】“算法焦慮” 生成機理 算法信任 治理方案
【中圖分類號】F49 【文獻標識碼】A
“算法焦慮”:人工智能時代典型現象
第一,算法侵蝕個人主體性。算法可以根據個人的興趣愛好,打造具有沉浸感、互動感和愉悅感的個性化定制智能場景,信息、資訊傳播路徑由過去的“千人一面”轉變為“千人千面”,不斷滿足用戶的信息興趣和需求偏好。這種顛覆性變化依靠數據收集與處理來支撐。算法通過多種渠道收集用戶的行為習慣、信息興趣、信息需求,將其集合到數據庫之中,并通過一定的運算規則進行“用戶畫像”,把零散的數據信息整合成可視化的“完整個體”,將虛擬世界的個體與現實世界的個體相聯結。在聯結過程中,用戶信息收集環節極易出現“失控”現象。因為在算法面前,用戶評論、轉發、點贊、收藏等行為所產生的信息均會不由自主地成為算法的“囊中之物”。這就使公眾的個人主體性遭受侵犯,對算法難以產生有效信任,在與其互動時出現玻璃箱中“小白鼠”式焦慮。
第二,算法帶來“內卷化”現象。“內卷化”這一被廣泛應用到各個學科與領域之中的學術概念,深刻地揭示出組織或者社會中既無突變式變化,亦無漸進式增長,總是在較低水平徘徊的現象。算法領域的“內卷化”現象較為突出。受到經驗閱歷、知識水平、思想追求、價值傾向等綜合因素影響,個體用戶的信息需求與興趣偏好會保持較為穩定的狀態,這決定了個體用戶的“用戶畫像”呈現出整體輪廓不易改變、具體細節動態調整的典型特征。算法為了實現對用戶需求的“精準打擊”,必然會根據用戶主體進行“精準推送”。在雙向性、回旋型、交流式的互動模型中,用戶接收的是極大滿足自身信息需求的“海量推送”,出現越看越“精準”、越看越“貼心”、越看越“沉浸”的局面。但是算法強調“精度”與“敏度”,忽視“溫度”與“增度”,不會考慮用戶信息需求的價值性、規范性與增值性。受眾接收的不再是多元全面、葷素搭配的信息,而是“同質異象”的、與用戶信息偏好高度吻合的信息。由此,用戶在海量信息里面的營養收益呈現出邊際遞減的趨勢,“內卷化”現象凸顯,出現人工智能時代“逆水行舟,不進則退”式焦慮。
第三,算法影響公眾輿論導向把控。信息與資訊能夠影響公眾的認知與判斷,對公眾的輿論行為具有調控乃至再造的功能。算法針對用戶偏好進行海量信息的智能推送,“同類信息”“一種聲音”持續轟炸用戶的眼球與大腦,“異類信息”“不同聲音”則受到限制與屏蔽,風聲雨聲讀書聲難以聲聲入耳。同類的、滿足用戶偏好的海量信息極大壓縮用戶仔細篩選、獨立思考以及理性判斷的空間,使其成為任由算法擺布的“繭房蠶蟲”,陷入越是喜歡越是“投喂”、越是“投喂”越是“自縛”的桎梏。長此以往,以自我封閉、固執僵化和拒絕交流為核心特征的偏執型用戶會大量出現,逐漸在網絡空間中集結成或緊密或松散的輿論聯合體,在虛擬與現實的聯結中影響公眾輿論導向。與傳統媒體的輿論導向功能相比,算法影響公眾輿論導向的力度更大、范圍更廣、時間更久。算法對公眾輿論的導向與把控是技術理性作用的結果,由于缺乏價值理性的正向引導,算法對公眾輿論導向的負面效應亦難以避免,出現以“知識鴻溝”“沉默的螺旋”等為典型代表的群體式焦慮。
生成機理:誘發因素系統化剖析
“算法焦慮”在個人、群體乃至社會層面均有所體現,誘發“算法焦慮”的因素也是多種多樣、相互交織的,既有算法自身層面的問題,也有規制理念、治理模式等層面的問題。
第一,一段時間內盛行的“技術中立論”的錯誤引導。在算法早期發展階段,它主要用來解決一些較為簡單、涉及范圍較小的問題。對算法的審視主要以技術本身的內部視域為主,更多關注商業領域內算法技術的革新與增長,認為算法在倫理層面的判斷具有中立性。由此,算法“技術中立論”大行其道。歷史地看,算法“技術中立論”能夠在一定程度上保證算法的相對獨立性,幫助其在早期發展階段獲得革新與增長的空間。但是從本質來講,算法作為一種技術始終擺脫不了人的因素,算法始終會有人的情緒與偏好烙印,根本不能做到中立而無偏斜。“技術中立論”本身就是個偽命題。尤其是隨著人工智能蓬勃發展,算法逐漸嵌入到經濟社會發展的方方面面,政府與社會的監督管理與引導更加成為算法發展的應然要求。然而受到思維慣性、體制惰性以及商業利潤等因素的影響,很長一段時間內算法“技術中立論”仍舊占據主導地位,致使算法既缺乏政府有效監管,又缺乏系統化、科學化的頂層設計,呈現出“野蠻生長”態勢,“算法霸權”“算法歧視”“算法繭房”等亂象層出不窮。
第二,“算法黑箱”等技術特性增加外部有效監督的困難性。算法可能比用戶更加了解自身的需求和偏好,然而用戶對算法卻是知之甚少,可能都不會察覺到隱藏在人工智能、大數據、區塊鏈等標志性技術背后的算法的存在。這是因為算法和有形物品不同,具有很強的載體依附性與隱蔽性,用戶無法清晰地了解其內部運行機理。由算法的技術特性帶來的不透明現象被生動地描述為“算法黑箱”。“算法黑箱”成為橫亙在算法與公眾、社會與政府之間的一道鴻溝,帶來外部有效監督的困難性。法國總統馬克龍在2018年接受連線雜志采訪時稱,應用在公共事業領域的算法,會逐步公布其代碼和模型,以降低因算法不透明而帶來的種種風險與公眾恐慌。然而這種做法收效甚微。原因在于,向社會和公眾公布的代碼和模型仍舊具有高度專業性與程序性特征,只有少部分具有專業知識的公眾以及專業領域的行政人員才能理解其內在運行機理,才能對算法應用后的風險進行預測與評估。在算法仍舊是“黑暗的秘密”情況下,“算法焦慮”自然難以紓解。
第三,“互聯網+”治理與“互聯網+”增長間的悖論。人工智能時代,政府智能治理以“互聯網+”式的回應型治理模式為主,呈現的是“問題—對策”的邏輯范式。回應型治理模式基本能夠適應公共治理、社會治理領域中的諸多問題,是有效提高治理效能的科學模式。然而在智能治理領域,算法呈現出“互聯網+”式的指數增長規律,區別于呈現線性增長規律的其他問題。“互聯網+”式的回應型治理與“互聯網+”指數增長間的悖論油然而生。二者之間的悖論意味著政府在“算法焦慮”治理情景中經常扮演事后處罰者的角色,問題處置的滯后性極易影響“算法焦慮”治理效能。因此,我們經常發現治理“算法焦慮”過程中傳統的政府治理框架頻繁失效,對現有治理框架進行稍許改良的路徑亦難以持續回應層出不窮的新焦慮。
多元互動:邁向算法信任的治理方案
人工智能時代算法治理已經成為推進國家治理體系和治理能力現代化的題中應有之義。綜合考慮我國智能治理現狀以及“算法焦慮”的主要表現和誘因,紓解“算法焦慮”,邁向算法信任,必須進一步堅持科學謀劃、多管齊下、重點突出、持續優化的復合型治理思路。
第一,進一步完善用戶數據區分與隱私保護機制。把握好數據區分與隱私保護之間的辯證關系,就是抓住了算法的“阿喀琉斯之踵”,是紓解“算法焦慮”,邁向算法信任的重要內容。數據是算法賴以生存和增長的前提,一定規模與質量的數據是算法發揮功效的重要保證。因此,探討數據區分與隱私保護的辯證關系,要著重思考數據的權屬及其使用邊界問題。數據的權屬可以分為三種情形。一是敏感型數據的權屬。涉及用戶個人信息、底層使用痕跡的數據被稱為“敏感型數據”,用戶擁有敏感型數據的所有權。二是公共型數據的權屬。應用于行政、司法等領域的、經過匿名化處理的數據被稱為“公共型數據”,數據控制者擁有受限制的所有權。三是脫敏型數據的權屬。經過數據清理加工的衍生數據被稱為“脫敏型數據”,數據控制者擁有所有權。對敏感型數據而言,算法企業或平臺不能私自使用,更不能泄露甚至買賣,否則后果將不堪設想。對公共型數據而言,行政機關、司法部門必須按照嚴格的規定與程序,有限度使用與處理數據。對脫敏型數據而言,可以集中應用于新聞推薦場景、搜索引擎排序以及電子商務領域,但仍要注意數據使用的限度,防止數據過度使用帶來的次生問題。
第二,進一步構建適應算法發展實際的法律體系。法律因其治理效能的權威性、規范性與持續性,被認為是治理“算法焦慮”的“重器”。我國一向重視人工智能領域立法工作,已形成一定的法律框架體系,為治理“算法焦慮”提供重要指導和遵循。同時也應該看到,與治理“算法焦慮”相關的法律法規呈現出零散化以及低位階的顯著特點。下一步,應該重點關注相關法律體系的完整化、精細化以及層次化問題。
第三,進一步凸顯算法使用平臺自我治理的優勢。人工智能時代,算法使用平臺與行政、司法等領域相結合,算法“公共性”色彩日益增強。強化算法使用平臺自我把關、自我控制的責任與義務,既是符合算法技術特點的基本要求,也是算法使用平臺主動維護用戶利益與權利、承擔社會責任的必然要求。一方面,算法使用平臺應該加強價值引領與導向把控。應該摒棄“流量為王”“利潤至上”“娛樂至死”等不良導向,堅持以人民為中心的價值導向,傳播主流價值觀,主動落實用主流價值導向駕馭算法,全面提高輿論引導能力的部署要求。另一方面,算法使用平臺應該在一定程度上“去算法化”。人工智能時代算法在不同場景下深度學習和優化升級的能力與日俱增,但是再先進的技術也有自身的盲區與缺陷,機器始終無法全面代替人類。算法使用平臺依賴算法而生存,但是要想取得持續優化與改進,必然要在一定程度上“去算法化”,逐步打造一支本領高強、站位較高的“把關人”“總編輯”隊伍,強化人工審核與問題糾偏的重要功能。
第四,進一步保持對算法使用平臺監督問責的良好態勢。黨的十八大以來,一大批導向不正、格調低俗的自媒體、公眾號被拉入“黑名單”,諸多烏煙瘴氣、逾越道德和法律底線的APP被永久關停。這既能有效打擊算法使用平臺違法犯罪行為,同時也拉起一條網絡“高壓線”,為治理“算法焦慮”、重塑算法信任保駕護航。下一步,要把完善算法登記備案制度以及強化算法技術審查機制作為行進重點。依據《國家新一代人工智能標準體系建設指南》等重要文件,對算法進行分類別、分領域、分層次的登記備案,可以在算法投入應用前確立責任主體,強化對算法應用平臺的事前審核監督。同時,也應該強化算法技術審查機制,對算法使用后果持續追蹤、及時反饋、系統剖析,從而發現問題、解決問題,實現事前監督與事中監督、問責相結合,充分體現對算法技術、算法使用平臺激勵與約束并重、嚴管與厚愛結合的正確導向。
(作者為中共中央黨校(國家行政學院)黨的領導與領導科學教研室主任、教授、博導;中共中央黨校(國家行政學院)黨的建設教研部博士研究生候術山對本文亦有貢獻)
【注:本文系國家社會科學基金重點項目“完善中國縣處級黨政領導干部考核評價體系和獎懲機制研究”(項目編號:16ADJ007)和教育部人文社科規劃基金項目“新形勢下領導干部敢于擔當的動力與激勵機制研究”(項目編號:18YJA810005)研究成果】
責編/潘麗莉 美編/王夢雅
聲明:本文為人民論壇雜志社原創內容,任何單位或個人轉載請回復本微信號獲得授權,轉載時務必標明來源及作者,否則追究法律責任。