亚洲激情在线-天堂中文在线最新版地址-茄子视频破解永久ios-噜噜色图|www.bjxyzx.com

網站首頁 | 網站地圖

大國新村
首頁 > 人民智庫 > 專家觀點 > 正文

張鈸:治理和發展相輔相成、共同前進

人工智能為什么要治理?主要原因在于人工智能技術非常容易被誤用和濫用,而且會產生很嚴重的后果。為什么是這樣呢?原因有三個:

第一,所有技術都存在的問題,就是技術的兩面性。人工智能也不例外,人工智能既可以用來造福人類,也可以用來傷害人類。舉一個簡單的例子,語音和圖像的合成,利用這兩項技術可以合成跟人類一樣惟妙惟肖的機器人,讓它跟人類進行交互、進行聊天,達到很好的用戶體驗。但是同時也可以用這兩項技術合成虛假的新聞、視頻去欺騙公眾,誤導輿論,造成不良的社會影響。但是人工智能技術還有另外兩點特殊的地方,導致說人工智能的治理問題更為嚴重,也更加重要。

第二,現在的人工智能技術非常脆弱。換句話講它非常容易被攻擊、被欺騙。

第三,數據安全問題。其實人工智能依賴大量的數據,確實數據可以幫我們很大的忙,但數據也存在大量需要解決的問題,比如隱私問題、知識產權問題、偏見問題、污染問題、存在錯誤等等,這些同樣會造成很大的危險。

舉一個非常簡單的例子,我們用計算機去識別汽車,汽車后頭有商標,正常情況都能識別。但我們只要在商標上加一點點噪聲,這個噪聲人用肉眼根本看不出來,但是就可以誤導計算機“看不到”(識別不到)汽車,這就是新出現的“隱身術”,這個非常危險,我們通常用這種計算機視覺識別技術去監測車輛,人家只要在車上搞一點小的噪聲圖案就可以讓計算機看不到它,這就是一個人工智能脆弱性的表現。

同樣的,在視頻監控場景里,如果我們用計算機來監測電網周遭環境的危險情況,我們只要在這個地方布置一點很簡單的噪聲干擾,就可以讓計算機誤認為這個地方有火情,或者真的發生了火情,我們也可以添加一點小的干擾進去讓計算機認為沒有火情。

文本也存在這種問題,比如對電影的評價,計算機辨別這是一個正面的評價,但只要把其中一個字改了,人看起來這只是一個簡單的修改,但計算機就會錯誤辨別成負面評價。所以人工智能是非常脆弱、非常容易受攻擊的,這也讓人工智能使用起來更容易被誤用或濫用。

那我們應該怎么來解決人工智能安全性的問題呢?我認為必須從兩個方面下手,一個方面就是其他專家發言里談的比較多的,去治理。但是我們不能用治理來限制人工智能的發展,唯一的辦法還是在于發展,所以這就涉及到另外一個問題,我們該如何發展它?我們現在提出來第三代人工智能,是從理論上解決人工智能的可解釋和魯棒性的問題,在這個基礎上發展安全、可靠、可信、可擴展的人工智能技術,這是發展的一個方向。

我們做了兩項工作,一項工作是已經發布的一個計算平臺-OneFlow,現在市面上主流的框架平臺,就是TensorFlow和PyTorch,OneFlow的可解釋性比別的好,有很多優點,現在已經把應用在交通、醫療、智能制造等很多領域。

最近我們又發布了兩個產品,一個叫RealSecure,主要做隱私保護,如何安全地利用數據,數據里面有隱私信息,如何從計算層面進行保護,實現可追溯,前面也有人提到了,如何保持可追溯,如何讓有偏見的數據清除掉,這是我們在這個方面做的一款產品。另外一個產品是RealSafe2.0,可以抵御攻擊。

從這里可以看出來治理和發展的一個關系,一方面根據現階段人工智能的發展狀況,應該提出來一系列治理的政策、方針,但隨著技術的發展,治理的方式應該與時俱進,兩者結合起來。這是一個長期任務,因為我們不可能發展出來一個絕對安全的人工智能算法,整個是在發展過程中間,我們認為要跟治理兩者相輔相成,共同前進。

最后,我們希望跟大家一起分享我們的研究成果,全世界團結起來共同發展安全、可靠、可信、可拓展的第三代人工智能技術,讓人工智能更加安全,謝謝大家!

(作者為中國科學院院士、清華大學人工智能研究院名譽院長,本文根據作者在首屆“清華大學人工智能合作與治理國際論壇”上的發言整理)

[責任編輯:趙光菊]
標簽: 人工智能   數據安全