人工智能存在以下的風險問題:一是歧視,含有偏見的數據可能會放大歧視。如,Obermeyer在一個廣泛使用的算法中就發現了種族歧視的證據。二是人臉識別對隱私的侵犯。三是會影響未來就業。據《2020年未來就業報告》指出,到2025年,機器人將會取代人類8500萬個工作崗位。四是基于算法的信息推送可能會導致信息繭房,甚至是社會輿論的兩極分化。
人工智能治理是我們能夠以最佳方式確保人工智能技術的有益開發和使用的有效手段,基本價值觀、治理體系、參與者、治理對象、效果評價等是人工智能治理的核心。很多治理的問題可以通過技術本身來解決,目前人工智能發展面臨的最大挑戰是——人工智能技術發展太快,而治理準則作為一種社會體系,其發展是緩慢的、漸進的,因此我們需要“敏捷治理”。在發展技術的同時,高度關注治理問題是一個具有前瞻性的舉動。數據是算法、算力的基礎。數據的安全對于人工智能治理的重要性不言而喻。數據的海量增長,為技術創新和發展集聚了力量,但侵犯他國隱私、對他國數據進行大規模監控的危險也在與日俱增。由于各國缺乏足夠的政治互信,數據治理和管理能力頁層次不齊。下一步,人工智能可以學習已有的國際機制,未來不斷加強人工智能領域的國際合作,可以在合作過程中找到各方的共同點,并不斷探討、溝通,一同尋找人工智能共同的準則和規則,引導人工智能的健康發展,為人類造福。
對未來人工智能治理發展的幾點建議:一是公正客觀、不搞雙重標準。數據安全需要合作應對。二是增進互信,營造對話合作氛圍,承諾尊重他國管轄權,不采取危害別國數據安全的舉動,實行數字保護主義。同時要為數據共享和流動創造條件。三是加強協調,構建全球統一規則。采取開放合作的積極姿態,加強政策溝通。四是善加引導,鼓勵利益有關方參與。
(作者為清華大學人工智能國際治理研究院院長、教授)