人工智能很牛嗎? 牛,但也有可能犯大錯
人工智能火了!人工智能牛了!很大程度歸功于近年來一只不斷進化的“狗”——阿爾法狗(AlphaGo)。
中科院院士張鈸簡單分析了人工智能發(fā)展的兩條路徑:一是符號主義,即從信息處理的宏觀層面去模擬智能;二是連接主義,即從網(wǎng)絡介觀層面去模擬人類行為。當人工智能的開拓者提出上述方向時,不少人認為不可能,但事實證明這兩條路都行得通。
“人工智能第一次震撼,是IBM的‘深藍’程序打贏國際象棋冠軍,這是用計算機模擬人類下象棋的理性思考過程,證明了符號主義這一條路走得通。”張鈸說。
人工智能第二次對人類的“暴擊”,是基于神經(jīng)網(wǎng)絡的深度學習,AlphaGo拋棄了傳統(tǒng)圍棋程序的編程方法,創(chuàng)造性地利用機器學習,來獲取下棋的經(jīng)驗與直覺,結果戰(zhàn)勝世界圍棋冠軍。“更值得注意的是AlphaGo Zero從零開始,通過36小時自我學習,超越人類3000年的圍棋經(jīng)驗,以100比0擊敗了上一版本的AlphaGo。這證明第二條路也走得通。”張鈸說。
“這讓人歡欣鼓舞,也令人擔憂。”張鈸的“憂”,指的是基于深度學習的人工智能系統(tǒng)存在的根本性缺陷——不可解釋和不可理解,就事論事,缺乏推廣能力,遇到新的情況一籌莫展等。因此當面對動態(tài)變化的環(huán)境,信息不完全、存在干擾與虛假信息時,人工智能系統(tǒng)性能就會顯著下降。
“當前的人工智能與人類智能本質上是不同的。”張鈸說,與人類相比,人工智能系統(tǒng)抗干擾能力(魯棒性)差,推廣能力弱,甚至可能犯大錯。“基于深度學習的模式識別系統(tǒng)盡管可以準確地區(qū)分不同事物,但本質上不認識它們。與人類不一樣,它不會舉一反三,更不會‘知其所以然’。使用這樣的人工智能系統(tǒng)需要十分小心。”
“現(xiàn)在大家對人工智能有無限期待。圍棋有規(guī)則,現(xiàn)實生活中沒有規(guī)則。人工智能產(chǎn)品完成單項任務很牛,但遇到復雜情況,實際沒那么厲害。”海爾公司CTO趙峰認為。
人工智能可怕嗎? 遠慮尚“遠”,近憂在即
人工智能會威脅人類嗎?馬斯克、霍金、扎克伯格……科技和產(chǎn)業(yè)界的大腕對此的爭論和互懟一直沒有停歇。
參加香山科學會議的科學家認為,人工智能威脅論擁躉者所指的“強人工智能”到來還比較遠,現(xiàn)在發(fā)展的多是擅長完成單項任務的“弱人工智能”。“人工智能還在生長發(fā)展過程中,是否造成威脅估計是下一代科學家面臨的問題,我們現(xiàn)在的任務是把它‘養(yǎng)大’。”不過,中科院院士何積豐也坦承,現(xiàn)在人工智能也有“內憂外患”,如無人機黑飛亂飛管理亂象,恐怖主義黑客攻擊等。
“世界上沒有免費的午餐,機器通過‘黑箱’學習(深度學習)方法取得的智能,由于與人類認知行為存在根本差異,因此也將帶來潛在的風險。”張鈸說,人工智能全面超越人類智能并出現(xiàn)自我意識,是危險的,不過這是遠慮;但其不可解釋性會帶來“近憂”,如將深度學習應用于軍事決策,萬一系統(tǒng)出現(xiàn)原則性決策失誤怎么辦?
人類準備好了嗎? 遠遠沒有,急需跟進
“人類現(xiàn)有的概念框架及知識儲備難以應對人工智能帶來的影響,也使我們不得不面對‘制度性風險’。”李真真說,人工智能技術的社會應用迅速改變了人類的生存環(huán)境,重塑人的行為,也不斷挑戰(zhàn)諸如隱私、責任等概念內涵及其既有策略。
李真真以“隱私”舉例說,傳統(tǒng)法律上,隱私是一種權利的概念,但現(xiàn)在它還可以是一種商品,即我們讓出一部分個人的隱私或信息以換取服務和產(chǎn)品,這就需要法律的及時跟進。再有,匿名化技術的發(fā)展為隱私保護提供了新的工具,但如果對于匿名化數(shù)據(jù)的法律概念和認定標準上沒有明確規(guī)定,很可能會導致數(shù)據(jù)的濫用。同時,隱私保護與國家安全、商業(yè)利益如何平衡,也是問題。再比如“責任”,比較典型的就是自動駕駛系統(tǒng)的責任認定。“還有人工智能的預測或決策,如預測犯罪,這將使我們面對一個更為復雜的法律問題。”
“法律具有滯后性,這就要求我們不斷地根據(jù)出現(xiàn)的新情況和新的社會難題,對人工智能帶來的影響進行倫理評估,以保障相關法律和政策的及時跟進。”李真真說。
