【摘要】通用人工智能的開發和應用無疑都展現出了巨大的潛力,但由于其內在復雜性,以及與其相關的不確定性,通用人工智能在法律界定和監管方面仍面臨著挑戰。在推動技術進步的同時,需強化跨學科合作,以充分發掘通用人工智能和心理學的互補性;在明確界定通用人工智能責任歸屬的基礎上,提高通用人工智能透明度和可解釋性,并完善數據處理和保護規定,與此同時,提倡通用人工智能在心理學實踐中的倫理應用。這些措施將有助于通用人工智能在心理學領域的健康、安全和高效應用。
【關鍵詞】通用人工智能 心理學 法律 挑戰
【中圖分類號】TP29 【文獻標識碼】A
【DOI】10.16619/j.cnki.rmltxsqy.2023.14.008
【作者簡介】朱廷劭,中國科學院心理研究所研究員、博導,中國科學院行為科學重點實驗室副主任。研究方向為大數據心理學、 網絡挖掘、機器學習。主要著作有《大數據時代的心理學研究及應用》等。
人工智能(Artificial Intelligence,簡稱AI)這一概念誕生于1956年,由約翰·麥卡錫(John McCarthy)及其同仁首次提出,其核心思想是通過計算機系統模擬人類智能的過程。這一領域的發展歷程跨越了幾十年,期間有關AI的定義層出不窮,各種解讀和理解不斷涌現。然而,最被廣泛接受的定義依舊來自麥卡錫,他在2004年正式將AI定義為“制造智能機器,特別是智能計算機程序的科學和工程”。這一定義不僅揭示了AI的本質,也指出了其發展方向。近年來,人工智能領域得到了迅猛發展,分化出了眾多子領域,這些子領域的研究成果已經被廣泛應用于各個行業和領域。其中,通用人工智能(Artificial General Intelligence,亦稱強人工智能,簡稱AGI)這一概念引起了越來越多的關注。AGI與傳統的AI有著顯著的區別,它被設計為具有高度自主性的系統,其目標是在大多數產生經濟價值的工作領域中超越人類的能力。AGI通常具有強大的理解、學習、適應和實施知識的能力,這使得它能夠展現出與人類相似甚至在一定程度上超出人類的認知能力。AGI的出現為人類的生產和精神活動帶來了前所未有的可能性,同時也帶來了一系列的挑戰。這些挑戰不僅涉及技術層面,更涉及倫理、法律等多個領域。因此,深入探究AGI,理解其在心理學領域中的潛在應用,以及伴隨其發展而來的道德和法律風險,就顯得至關重要。這不僅需要我們從技術角度出發,更需要我們從心理學、倫理學、法學等多個角度進行深入研究和探討。
AGI概述及其法規要求
艾倫·圖靈(Alan Turing)曾猜想,如果一臺機器能夠模擬出人類的認知,那么我們就可以稱之為擁有智能。AGI的出現正是在追求這樣一種智能,即一種具有人類級別智能的、能夠理解和執行任何認知任務的系統,而不僅僅局限于特定的、有限的任務(Bhatti et al., 2023)。AGI的這一特性與大多數現有的人工智能系統形成鮮明對比,后者通常被設計和訓練來執行特定的任務,如圖像識別或自然語言處理。具體而言,通用人工智能的設計理念,就是為了克服傳統AI在未經特定訓練的新任務或環境中性能可能會大打折扣的問題,以實現在任何類型的任務上都能理解和學習。近年來,深度學習和圖卷積神經網絡等先進的技術在處理非歐幾里得空間數據等復雜任務中顯示出其潛力(Bhatti et al., 2023),這標志著AGI的發展已經取得了顯著的進步。然而,AGI仍面臨許多挑戰,如決策過程的透明性和可解釋性,以及在無人監督的情況下保證其行為的道德性和合法性。這些問題都在提示我們,AGI雖然是人工智能發展的一個重要方向,但其成為一種能夠在任何智能任務上表現出人類級別的性能的系統,仍有著漫長的路要走。
在使用AGI或任何類型的AI的過程中,我們都需要嚴格遵循現有的倫理準則和法規要求,確保其在服務人類的同時,不會侵犯個人的隱私,保證數據安全,并維持公平性和透明性(Azam et al., 2023)。例如,歐盟出臺《通用數據保護條例》(General Data Protection Regulation,簡稱GDPR)加強對個人數據的保護,包括數據收集、存儲、使用和傳輸等方面的規定(Meszaros et al., 2022)。中國則實施《中華人民共和國個人信息保護法》等法律法規,明確數據主體的權利和數據處理者的義務(Ella, 2022)。除了法律要求,研究者同樣需要遵循一系列的倫理準則,以確保AGI的使用不會對個人和社會產生不公平或不合理的影響。這些準則包括尊重個人的自主權、保護個人的隱私和數據安全,以及確保AGI的決策過程的公平性和透明性(Meszaros et al., 2022)。在研究過程中,研究者需要確保研究對象的知情同意,同時在任何的研究報告或文獻中,都不能泄露用戶的個人隱私信息,以及有可能暴露個人身份的重要線索。
綜上所述,無論在歐洲還是在中國,通用人工智能的使用都需要遵循一系列的倫理準則和法規要求。這些準則和要求旨在保護個人的隱私和數據安全,同時也確保人工智能的使用不會對個人和社會造成危害。這正是我們在推進人工智能技術發展的同時,必須遵循的道德和法律原則。
AGI在心理學領域的潛在作用
通用人工智能在心理學的研究和實踐中的潛能是深遠且多元的。AGI的核心目標在于模擬人類的智能和適應性,這使得AGI在理解和模擬人類心理過程方面具有無可比擬的優勢(Abdüsselam, 2023)。在心理學的研究領域,AGI的應用可以深化我們對復雜人類認知過程的理解。例如,AGI可以被用作一個強大的工具,模擬人類的決策過程,從而揭示人類是如何在面臨不確定性的情況下作出決策的(Wolff, 2023)。這種模擬不僅可以幫助我們理解決策過程的機制,還可以揭示人類如何處理信息、評估風險,以及如何在多種可能的選擇中作出最佳決策。此外,AGI還可以模擬人類的學習過程,以研究人們是如何從經驗中學習和適應新的環境的(Abdüsselam, 2023)。這種模擬可以幫助我們理解學習的機制,包括記憶的形成、知識的獲取、技能的發展等。
在心理學的實踐領域,AGI也有可能發揮重要作用。例如,AGI可以用來開發更有效的心理治療方法。通過模擬人類的心理過程,AGI可以幫助心理治療師更好地理解他們面對的患者,從而提供更個性化和有效的治療(Irshad et al., 2022)。這種模擬可以幫助治療師更好地理解患者的心理狀態,包括他們的情緒、思想、行為模式等。此外,一些基于AGI的聊天機器人已經被應用于心理咨詢,幫助人們處理焦慮和壓力等問題(Gündoar and Niauronis, 2023)。這些機器人可以提供及時的反饋,幫助人們更好地管理情緒和應對壓力。
AGI還可以用來開發新的心理評估工具。通過分析人們的面部表情、語音和文本等信息,AGI可以識別出人們的情緒狀態,這對于理解和模擬人類的心理過程具有重要作用(Zhao et al., 2022)。此外,利用AGI分析和解釋復雜的行為數據,能夠提供更準確和詳細的心理評估(Mikkelsen et al., 2023)。這種評估可以幫助我們更好地理解人類的行為模式,包括他們的情緒反應、社交行為、決策過程等。
總體來說,AGI在心理學的潛在作用是廣泛的,從基礎研究到臨床實踐,都有可能受益于AGI的發展。但正如前述,盡管AGI的潛力巨大,但在實際應用中,我們還需要考慮到倫理和法律問題,如數據共享和隱私保護。這些問題需要我們在推動AGI應用的同時,保護個人的隱私和權益,確保AGI的發展在一個公平、公正和透明的環境中進行。
AGI的法律限制和面臨的挑戰
盡管世界各國對于通用人工智能的法律限制和監管體系多種多樣,但我們可以發現一種普遍趨勢,即法律體系在不斷強調個人隱私保護、數據安全,以及保障AGI使用的公平性和透明性這些核心原則。然而,由于AGI的內在復雜性,以及與其相關的不確定性,對AGI的法律界定和對其進行有效監管仍面臨著挑戰。
首先,對于如何明確界定AGI的責任承擔,法律界尚未達成統一的共識。傳統法律中的責任歸屬大多是基于個體行為,而AGI作為一個無法進行主觀認知的機器實體,其行為如何納入現有的責任框架,無疑是一大挑戰。其次,如何確保AGI的決策過程具備透明性,也是一個有待解決的問題。由于AGI的決策常基于復雜的算法和海量數據,其過程往往難以解析和理解。因此,如何確保AGI決策的可審計性和可解釋性,是法律面臨的重要問題。最后,如何合法、安全地處理跨境數據傳輸是一個至關重要的問題。AGI的運作有賴于全球范圍內的數據輸入,因此,對于跨境數據的傳輸、存儲和使用等方面,都需要明確的法律指引。
就當前而言,諸如GDPR和《中華人民共和國個人信息保護法》等法律條例都對數據處理者設定嚴格的法律責任,要求他們必須確保個人數據的安全和私密性,并且只能在明確、合法的目的下進行數據的收集和使用。這種法規對AGI的運作和發展提出了重大的挑戰,因為AGI的功能發揮基本上依賴于對大量數據的處理和學習,這意味著AGI必須在嚴格遵守數據保護法規的前提下,才能進行有效的數據處理。值得一提的是,這些法律限制不僅關乎數據的處理,也涉及到AGI的具體應用,因此,需要進一步的法律和道德層面的探討。
AGI應用于心理學領域的相關建議
通用人工智能在心理學領域的應用既充滿機遇,也面臨挑戰。在推動技術進步的同時,我們要高度重視個人權益的保護以及公眾福祉的維護。通過對通用人工智能技術在心理學領域應用的相關問題進行深入探討,筆者提出以下建議。
建立和增強跨學科合作。隨著通用人工智能技術的日益發展和深化,其應用領域不斷擴展,心理學自然也囊括其中。但是,這種科技的前沿和復雜性使得單一學科難以全面深入地研究和應用AGI。例如,心理學家通常對AGI背后的計算機科學理念和技術不夠熟悉,而計算機科學家則可能缺乏對人類心理過程和行為的深入理解。此外,AGI的使用過程中可能涉及一系列法律問題,包括但不限于數據保護、隱私權以及責任歸屬等,需要法律專業人士的介入和指導。這一點在心理學領域的AGI應用中更為重要,由于涉及到大量的敏感個人數據,如心理咨詢記錄、診斷信息、治療方案等,因此,有必要建立一種跨學科的合作機制,鼓勵和引導心理學家、計算機科學家和法律專業人士的全面參與。
建立和增強跨學科合作的預期目標是將各個領域的專業知識和技能有機結合,從而更好地研究和應用AGI在心理學領域的可能性。心理學家可以通過他們對人類心理過程和行為的深入理解來幫助計算機科學家構建更為符合實際的模型和算法。例如,心理學可以提供有關心理疾病的診斷和治療方法,以及人類情緒、動機和行為等方面的研究成果,用以優化AGI的心理治療程序。計算機科學家則可以利用這些理解來改善AGI的設計和運行,使其能夠更有效地處理和利用心理學數據,從而提高其在心理治療中的應用效果。與此同時,法律專業人士可以為這種合作提供法律建議,解釋相關法規,預防法律風險,以及在出現法律問題時提供解決方案。這樣的跨學科合作不僅能夠推動AGI在心理學領域的研究和應用,也有助于預防和解決可能出現的法律問題,從而確保AGI在法律上的合規性和在實際應用中的有效性。
明確界定AGI責任歸屬。隨著通用人工智能技術的快速發展和廣泛應用,其在諸如心理咨詢等領域引發的責任歸屬問題也越來越突出。具體來說,由于AGI系統具有自我學習和自我決策的能力,因此,在AGI的行為所導致的問題上,傳統“責任歸屬于制造商或用戶”的歸責模式可能無法完全適用。例如,如果一個AGI系統在提供心理咨詢建議的過程中犯了錯誤,是由制造商、程序員,還是用戶承擔責任?在一些復雜的情況下,比如,AGI系統基于用戶的輸入和環境的反饋進行自我學習與調整,進而導致問題的發生,該如何確定責任?這些都是目前面臨的挑戰。因此,我們需要建立一個新的、明確的責任框架,來應對AGI在心理咨詢等領域應用中可能出現的問題。
界定AGI開發和使用過程中的責任歸屬問題的預期目標,是確立一個盡可能明確的責任框架來幫助我們更好地理解和管理AGI的使用,特別是在諸如心理咨詢等涉及個人隱私和安全的領域。首先,這個責任框架可以為AGI制造商、程序員和用戶提供明確的指導,即在何種情況下需要承擔責任,從而可以更好地遵守法規,并預防和管理風險。其次,明確的責任框架也有利于保護消費者和公眾的權益。如果AGI的行為導致問題的發生,消費者和公眾應該有權知道責任由誰承擔,并獲得相應的賠償。此外,明確的責任框架也有助于推動AGI的健康發展,因為制造商和程序員會更加重視AGI的設計和測試,以避免可能的責任風險。最后,為了實現上述目標,我們可能需要對現有的法律框架進行調整,以適應AGI的特性和能力。可能的解決方案包括設立特殊的法律實體來管理AGI的責任問題,或者設定一種新的責任歸屬模式,如共享責任。這些方案都亟需聯合立法機構及各界人士進行深入的討論研究。
提高AGI透明度和可解釋性。通用人工智能的決策過程通常基于復雜的深度學習模型,如神經網絡等,并利用大規模數據進行訓練。這些深度學習模型的一個顯著特征是“黑箱”,即其決策過程往往難以理解和解釋。比如,當AGI在提供心理咨詢服務時,它可能根據患者的表述和歷史信息作出診斷和治療建議,但具體的決策過程(例如,AGI如何理解和解釋患者的表述、如何基于歷史信息作出決策等),通常難以追蹤和解釋。這種不透明性和不可解釋性不僅可能導致誤解和疑慮,也會不可避免地帶來法律和倫理問題。如果無法理解和解釋AGI的決策過程,那么確定責任可能會非常困難。因此,提高AGI的透明度和可解釋性是非常必要的。
提高AGI的透明度和可解釋性的預期目的是更好地理解與管理其決策過程,從而增加人們對AGI的信任,并降低可能的法律風險。具體來說,如果我們能夠理解AGI是如何作出決策的,那么當其決策出現問題時,我們就可以更容易地找出問題的原因。此外,透明和可解釋的決策過程也能夠增加人們對AGI的信任,人們可以更好地理解AGI是如何工作的,而不是簡單地接受其決策結果。為了實現這一目標,未來應當致力于研發新的工具和技術,譬如,可解釋的機器學習算法,或者對AGI決策過程的可視化工具。這些工具和技術可以幫助人們理解AGI是如何作出決策的,從而增加人們對AGI的信任,并降低由于不透明決策過程帶來的法律風險。
完善數據處理和保護規定。通用人工智能的運作依賴于大量的數據輸入,因此,需要制定嚴格的數據處理和保護規定。在數據收集、存儲和使用的過程中,都必須尊重和保護個人隱私。此外,數據的使用必須在明確且合法的目的下進行,不能濫用個人數據。為了實現這一目標,一方面,需要借鑒和采納現有的數據保護法規,例如,GDPR和《中華人民共和國個人信息保護法》;另一方面,雖然GDPR和《中華人民共和國個人信息保護法》等法律條例為數據的保護和使用提供了基本的法律框架,但它們并未針對AGI的特殊性進行詳細規定。AGI的功能及其在心理學領域的應用,使其對數據的需求和處理方式產生了特異性,這種特異性在現有的法律法規中并未得到充分的反映。比如,AGI在進行學習和優化過程中,可能需要處理大量的個人心理健康數據,這些數據往往具有極高的敏感性和隱私性。而現行的GDPR和《中華人民共和國個人信息保護法》均未詳細規定如何處理此類高度敏感的信息,以及如何在保護隱私的同時,確保AGI的有效學習和優化。此外,AGI的決策過程通常基于復雜的算法和模型,這意味著它的數據處理過程可能難以理解和解釋,這在現有的法律框架下也存在明顯的挑戰。譬如,GDPR中的“自動決策權”規定,個人有權不受完全基于自動化處理的決策的影響,然而,如何定義和執行這一規定在AGI的應用中,尤其是在心理學應用中,仍然存在很大的不確定性和困難。
鑒于此,世界各國需要研究和制定一套針對AGI的數據處理和保護規定。這既需要深入理解AGI的運作機制和數據需求,又需要充分考慮數據主體的權益和社會公眾的利益。在該過程中,我們可以借鑒現行的數據保護法規,但也不得不考慮對這些法規進行擴展和調整,以適應AGI的特殊性。具體來說,我們可能需要對如何處理高度敏感的個人心理健康數據進行明確規定,以及如何在復雜的AGI決策過程中確保透明度和可解釋性進行詳細的指導。這樣的規定不僅可以幫助我們保護個人隱私,也可以為AGI在心理學領域的應用提供法律依據和指引。
提倡AGI在心理學實踐中的倫理應用。隨著人工智能技術的發展,AGI將不可避免地應用到心理學實踐環節中。例如,一些基于AGI的心理治療系統可能在未來能夠高效、自動地為個體提供心理咨詢服務甚至是心理治療方案。然而,AGI系統的決策可能會受到訓練數據的影響,如果訓練數據存在偏見,那么AGI系統的決策也必然存在偏見。此外,由于AGI系統的決策過程是自動化的,因此,可能缺乏對患者自主性的尊重,以及對專業醫療和心理學標準的遵守。
提倡AGI倫理安全的預期目的是更好地保護患者的權益,預防倫理問題,以及提高AGI在心理學實踐中的應用質量。具體來說,我們需要確保AGI系統的決策是在尊重患者自主性的基礎上進行的。這意味著AGI系統在提供心理咨詢和治療等服務時應該充分理解和尊重患者的意愿,如果患者不希望接受某種治療,那么AGI系統應該及時識別并終止該方案。此外,我們也需要確保AGI系統的決策是基于最新的科學證據,并且符合專業的醫療和心理學標準。這意味著AGI系統在提供心理咨詢和治療服務時,應該根據最新的研究成果和臨床實踐標準,而不是僅僅依賴于訓練數據。為了達到這一預期,亟需建立一套具體的倫理準則和審查機制,以監督AGI在心理學實踐中的應用。這套倫理準則和審查機制應該涵蓋AGI系統的設計、開發和應用各個階段,并且應該由專業人士進行監督和審查,以確保AGI系統的決策真正符合倫理準則和醫療標準。
參考文獻
A. Veronese, A. Silveira and A. N. L. Espiñeira Lemos, 2019, "Artificial Intelligence, Digital Single Market and the Proposal of a Right to Fair and Reasonable Inferences: A Legal Issue Between Ethics and Techniques," UNIO – EU Law Journal, 5(2).
A. Gündo?ar and S. Niauronis, 2023, "An Overview of Potential Risks of Artificial General Intelligence Robots," Applied Scientific Research, (2)1.
N. Azam et al., 2023, "Data Privacy Threat Modelling for Autonomous Systems: A Survey From the GDPR's Perspective," IEEE Transactions on Big Data, 9(2).
U. A. Bhatti et al., 2023, "Deep Learning with Graph Convolutional Networks: An Overview and Latest Applications in Computational Intelligence," International Journal of Intelligent Systems, 28 February.
G. Bryce, 2022, "Privacy Without Persons: A Buddhist Critique of Surveillance Capitalism," AI and Ethics, 15 August.
D. A. Dourado and F. M. A. Aith, 2022, "The Regulation of Artificial Intelligence for Health in Brazil Begins with the General Personal Data Protection Law," Revista De Saúde Pública, 56.
G. Ella, 2022, "Ethical Regulation of Artificial Intelligence as a Factor of Financial and Banking Sector Security: China's Experience," Revista De Saúde Pública, 2.
F. Caccavale et al., 2022, To Be fAIr: Ethical and Fair Application of Artificial Intelligence in Virtual Laboratories, SEFI 50th Annual Conference of The European Society for Engineering Education, "Towards a New Future in Engineering Education, New Scenarios that European Alliances of Tech Universities Open up," Barcelona: Universitat Politècnica de Catalunya, pp. 1022-1030.
I. Kim et al., 2022, "Application of Artificial Intelligence in Pathology: Trends and Challenges," Diagnostics, 12(11).
J. G. Wolff, 2023, "The SP Theory of Intelligence, and Its Realisation in the SP Computer Model, as a Foundation for the Development of Artificial General Intelligence," Analytics, 2(1).
J. G. Mikkelsen et al., 2023, "Patient Perspectives on Data Sharing Regarding Implementing and Using Artificial Intelligence in General Practice - a Qualitative Study," BMC Health Services Research, 23(1).
Dubiński, 2022, "Evidence from Artificial Intelligence in General Administrative Procedure," Przegl?d Prawniczy Uniwersytetu im. Adama Mickiewicza, 14.
J. McCarthy, "What is AI? / Basic Questions," http://jmc.stanford.edu/artificial-intelligence/what-is-ai/index.html.
J. Meszaros et al., 2022, "The Future Regulation of Artificial Intelligence Systems in Healthcare Services and Medical Research in the European Union," Frontiers in Genetics, 13.
M. S. Abdüsselam, 2023, "Qualitative Data Analysis in the Age of Artificial General Intelligence," Revista De Saúde Pública, 7(4).
N. K. Sørensen and U. Steen, 2022, "The Fundraiser's Transfer of Personal Data from the European Union to the United States in Context of Crowdfunding Activities," Nordic Journal of Commercial Law, 2.
P. A. Utami, Z. Zulfan and B. Bahreisy, 2022, "Enforcement of Restrictions on Community Activities (PPKM) for the Emergency Period of Covid-19 (Certificate of Vaccination Identification with Artificial Intelligence) in Terms of Indonesia's Criminal Justice System," Proceedings of Malikussaleh International Conference on Law, Legal Studies and Social Science (MICoLLS), 2.
S. Irshad, S. Azmi and N. Begum, 2022, "Uses of Artificial Intelligence in Psychology," Journal of Health and Medical Sciences, 5(4).
A. M. Turing, 2009, "Computing Machinery and Intelligence," In R. Epstein, G. Roberts and G. Beber, (eds.), Parsing the Turing Test: Philosophical and Methodological Issues in the Quest for the Thinking Computer, Springer Netherlands, pp. 23-65.
T. Voloshanivska, L. Yankova and O. Tarasenko, 2022, "About Data Protection Standards and Intellectual Property Regulation in the Digital Economy: Key Issues for Ukraine," Baltic Journal of Economic Studies, 8(4).
T. Zhang and C. Fu, 2022, "Application of Improved VMD-LSTM Model in Sports Artificial Intelligence," Computational Intelligence and Neuroscience, 14 July; R. Woroniecki and M. L. Moritz, 2023a, "A Critical Reflection on Analytics and Artificial Intelligence Based Analytics in Hospitality and Tourism Management Research," International Journal of Contemporary Hospitality Management, (35)8.
R. Woroniecki and M. L. Moritz, 2023, "Investigating the Human Spirit and Spirituality in Pediatric Patients with Kidney Disease," Front Pediatr, 11.
J. Zhao et al., 2022, "Cognitive Psychology-based Artificial Intelligence Review," Front Neurosci, 16.
An Analysis of the Application of AGI in the Field of Psychology
Zhu Tingshao
Abstract: With great development and application potentiality, AGI still faces challenges from legal definition and supervision in law enforcement due to its inherent complexity and related uncertainty. To promote its application, interdisciplinary collaboration needs to be strengthened to fully explore the complementarity between AGI and psychology. Based on a well-defined responsibility of AGI, such measures should be adopted to improve its transparency and interpretability, to formulate strict data processing and protection regulations for its healthy, safe and efficient application in psychology.
Keywords: AGI, psychology, law, challenge