客服服務熱線:
400-167-1811
高新波教授:人工智能未來發展趨勢分析如果按照聰明和笨、勤奮和懶惰來劃分,世人大致可分為四類:聰明且勤奮、笨但勤奮、聰明卻懶惰、笨且懶惰。一般而言,前兩種人成功的幾率會比較大。因此,人們總結出“勤能補拙是良訓,一份汗水一份才”的成功經驗。進而得出了 “聰明人都在下笨功夫,愚蠢的人都在找捷徑”這樣看似很有道理的名言警句。與此同時,人們又常說“聰明是一種天賦,勤奮是一種選擇”,因此大家往往會把勤奮看成一種美德,而把聰明貶低為“小聰明”。但是,在現實生活中靠勤奮成功的人,總是給人一種很悲壯的感覺,令人尊重但并不讓人羨慕。如果可以選擇,我們當然希望選擇聰明。 聰明往往是指一個人機智靈活,學習中具有舉一反三、觸類旁通的能力。這樣的人不費多少力氣就能掌握某種知識和技能,而且善于解決復雜問題,尤其是以前沒有處理過的問題。而勤奮則是指認認真真努力干好每一件事情,不怕吃苦,踏實肯干。這樣的人默默持久的堅持,有一種水滴石穿、永不言棄的精神。 經過了60多年的發展,人工智能(Artificial Intelligence, AI)就是父母口中所說的那個別人家的孩子,看上去毫不費力卻取得了很大的成功。其實,今天的AI只是一個勤奮、聽話、精力充沛、幾近完美的“笨小孩”。比如,打敗圍棋九段柯潔和李世石的AlphaGo存儲了多達100萬盤棋譜,它正是通過學習這些數據才總結出柯潔和李世石下棋的策略,進而提前做出布局。而柯潔和李世石兩個人加起來終其一生也不可能下到100萬盤棋。盡管后來AlphaGo的升級版AlphaGo Zero已經無需再輸入棋譜,而是從零基礎開始,通過自己左右互搏自學成才。AlphaGo Zero不斷探索和累積經驗,現在已碾壓AlphaGo。但是,我們卻很難把AlphaGo和AlphaGo Zero與“聰明”關聯起來。因為它們的成功更多來自“勤能補拙”,就像是我們自己家的那個懂事勤奮又刻苦的孩子,確實取得了很大成功,但是著實相當不易,非常辛苦!我們由衷地為孩子高興,卻又總覺得苦了孩子,總希望他們能多一點聰明,少一點辛勞!同樣的道理,我們也希望未來的AI更多地贏在“智能”而不是“人工”上。 對于未來AI的發展,大家都做出了很多預測。概括起來,大致可以總結為以下六個方面的發展趨勢。如果在這些方面不斷取得新突破,就會使AI不僅勤奮而且聰明,可更好地滿足人們的需要。 高新波:重慶郵電大學校長、教授;西安電子科技大學大數據安全教育部工程研究中心主任,重慶市青年科技領軍人才協會會長,科技部重點領域創新團隊負責人,教育部創新團隊負責人。主要從事機器學習、計算機視覺、模式識別和多媒體內容分析等領域的研究和教學工作。CAAI/CIE/CCF/IET Fellow。 01 2021年10月24日,中共中央、國務院《關于完整準確全面貫徹新發展理念做好碳達峰碳中和工作的意見》提出大力發展綠色低碳產業,為 AI賦能產業提出了新要求——綠色化助力碳中和。清華大學智能產業研究院院長張亞勤提出AI+IoT綠色低碳應用場景,一是清潔能源和傳統能源的融合領域,AIoT技術可以監測碳排放,智能調度;二是信息和通信技術產業本身,大型的數據中心、5G等快速發展,消耗了很多能源,AI可以應用其中實現節能減排;三是新興產業,比如在綠色城市、綠色交通等領域,AIoT也大有可為。 其實,未來AI自身的發展也應該沿著綠色低碳方向進行。當下的AI正在“野蠻生長”,其算法、數據和算力這三大基石也在進行規模擴張式發展。深度神經網絡的模型規模越來越大,參數越來越多,因此所需要訓練樣本的規模越來越大,訓練網絡所需的算力必須越來越強,對資源的消耗必然越來越高。這樣的發展顯然是與綠色低碳背道而馳。以OpenAI提出的自然語言處理領域的GPT模型為例,其強大的功能是建立在超大的訓練語料、超多的模型參數,以及超強的計算資源之上。GPT模型的參數量為1.17億,預訓練數據量5GB;GPT-2的參數量為15億,預訓練數據量40GB;GPT-3的參數量為1750億,預訓練數據量45GB。據說,GPT-4的參數量將達到100萬億,比GPT-3還要大500倍。同時,針對監督學習來說,數據量的增長需要很多人力進行樣本標注,從而產生了一批又一批被AI“累死”的人。為此,有人提出了“難道有多少人工,才有多少智能?”這樣的靈魂拷問。 反觀人類的智慧體現在“否定”“遺忘”“有所為有所不為”等哲學上。這樣的智慧是在做減法,通過主動“選擇”走上了一條綠色極簡的發展道路。為了實現綠色低碳智能系統,我們希望未來AI的發展方向應該是做“減法”而不是做“加法”。一方面構建更為靈巧的網絡模型,通過輕量化的模型降低對數據量和算力的需求;另一方面,構建更為高效廣泛的共享復用機制,針對AI大模型,加大開放、共享的廣度和深度,提高預訓練模型的效益,從而從宏觀上實現綠色低碳的總體效果??傊?,“創新、協調、綠色、開放、共享”五大發展理念為未來AI的發展指明了方向,提出了根本遵循。 02 人工智能的發展歷程經常被劃分為兩代,即知識驅動的AI和數據驅動的AI。第一代AI主要基于知識庫和推理機來模擬人類的推理和思考行為。其代表性成果就是IBM公司的Deep Blue和Deeper Blue,于1997年5月打敗了當時的國際象棋冠軍卡斯帕羅夫。知識驅動的AI具有很好的可解釋性,而且知識作為一種數據和信息高度凝練的體現 , 也往往意味著更高的算法執行效率。但是,其缺點在于完全依賴專家知識。一方面,將知識變成機器可理解可執行的算法十分費時費力;另一方面,還有大量的知識或經驗難以表達建模。因此,知識驅動的AI的應用范圍非常有限。 第二代AI則基于深度學習來模擬人類的感知,如視覺、聽覺、觸覺等。其代表性成果就是深度神經網絡,通過收集大量的訓練數據并進行標注,然后訓練設計好的深度網絡。這類AI不需要領域知識,只需要通過大數據的訓練就可以達到甚至超過人類的感知或識別水平。這類AI具有通用性強、端到端的“黑箱”或傻瓜特性。但是,也正是由于其“黑箱”特性,才使得第二代AI算法非常脆弱,依賴高質量、帶標記的大數據和強大的算力。因此,具有魯棒性差、不可解釋,以及不太可靠等瓶頸問題。 為此,清華大學張鈸院士提出第三代AI,希望將知識驅動和數據驅動結合起來,充分發揮知識、數據、算法和算力四要素的作用,建立可解釋的魯棒AI理論。為了探索知識與數據雙驅動AI的落地,華為云提出了知識計算的概念。它把各種形態的知識,通過一系列AI技術進行抽取、表達后協同大量數據進行計算,進而產生更為精準的模型,并再次賦能給機器和人。目前,知識計算在若干垂直行業獲得初步成功。為此,華為云把明確定義的應用場景、充沛的算力、可以演進的AI、組織與人才的匹配歸納為影響行業AI落地的4個關鍵要素。但是,這種垂直行業成功的AI距離通用AI卻是漸行漸遠。未來,數據與知識雙驅動的通用AI將是一項極具挑戰性的課題。 03 習近平總書記在2021年5月中國科協第十次全國代表大會上的講話指出:“以信息技術、人工智能為代表的新興科技快速發展,大大拓展了時間、空間和人們認知范圍,人類正在進入一個人機物三元融合的萬物智能互聯時代”。為此,我們的研究對象將由過去的物理 - 信息系統(CPS)向物理-信息-人類社會更復雜的系統擴展。人類所面臨的許多問題具有不確定性、脆弱性和開放性,同時人類也是智能機器的服務對象和最終“價值判斷”的仲裁者,因此,人類智能與機器智能的協同將是貫穿始終的。這就需要將人的作用或認知模型引入到AI中,從而形成“人機混合智能”或“混合增強智能”。 人機混合增強智能有兩種形態,一種是人在回路中(Human-in-the-loop)的混合增強智能;一種是人在回路上(Human-on-the-loop)的混合增強智能,或者說基于認知計算的混合增強智能。前者將人作為一個計算節點或者決策節點放置于整個智能回路中;后者則將人的認知模型引入到AI系統,形成一種類人的AI。其實“人機混合”這一概念并不陌生,人與動物一個最重要的區別就是人會制造和使用工具,而人使用工具的過程就是“人機混合”的過程。機械化時代,人機混合延伸和增強人的體力;信息化時代,人機混合延伸和增強人的感知力;在今天的智能化時代,人機混合增強人類的智力,將是人腦主導的“感知力增強”和“智力增強”。比如,可穿戴設備,智能手表、智能眼鏡、智能服裝等,都幫助我們構建以人為中心的智能系統。人機混合增強智能系統的技術瓶頸在于人機的自然交互或接口技術,這將是未來AI研究的難點和關鍵核心問題。 當前,人機混合智能已經有了很多嘗試。比如,可穿戴搬運機器人在馬達驅動下支撐人的上半身,減輕搬運重物時腰部負擔;一些科學家還嘗試將電極植入人腦中,讓人腦可以隨時直接從計算機中下載或上傳數據,大幅提升人類的認知能力。未來人機混合增強智能希望能夠建立以人為中心的智能形態,保證它“可用、好用”,而且“可控”。此外,當前的AI由于尚沒有自主的意識,其價值觀主要是由使用者的價值觀決定。因此,我們需要通過人機混合的方式為AI“立心”,從而讓AI更好的為人類“立功”。 04 機器學習尤其是深度學習的發展使得人工智能模型越來越復雜,而這些更復雜更強大的模型變得越來越不透明。再加上這些模型基本上仍然是圍繞相關性和關聯性建立的,從而導致很多挑戰性的問題,如虛假的關聯性、模型調試性和透明性的缺失、模型的不可控,以及不受歡迎的數據放大等。其中,最核心的問題就是AI的可解釋性。這一問題不解決,AI系統就會存在不可信、不可控和不可靠的軟肋。2019年歐盟出臺《人工智能道德準則》,明確提出AI的發展方向應該是“可信賴的”,包含安全、隱私和透明、可解釋等。 2016年,來自谷歌機器學習科學家Ali Rahimi在NIPS大會上表示,當前有一種把機器學習當成煉金術來使用的錯誤趨勢。同年,美國國防高級研究計劃局制定了“DARPA Explainable AI (XAI) Program”,希望研究出可解釋性的AI模型。關于“可解釋性”,來自谷歌的科學家在2017年ICML會議上給出一個定義——可解釋性是一種以人類理解的語言 ( 術語 ) 給人類提供解釋的能力(Interpretability as the ability to explain or to present in understandable terms to a human)。人有顯性知識和隱性知識,隱性知識就是經驗直覺,人可以有效地結合兩種不同的知識;而我們在解釋、理解事物時必須是利用顯性知識。當前的深度學習是以概率模型得到了隱性的知識,而顯性知識適合用知識圖譜來模擬。但是,目前深度學習和知識圖譜這兩個世界還沒有很好地走到一起。 可解釋性要求對AI系統的技術過程和相關的決策過程能夠給出合理解釋。技術可解釋性要求AI做出的決策是可以被人們所理解和追溯。在AI系統會對人類的生命造成重大影響時,就需要AI系統的決策過程有一個合理的解釋、提前的預判與合法的控制。因此可解釋性AI有三大需求,第一是使深度神經網組件變得透明;第二是從深度神經網里面學習到語義圖;第三是生成人能理解的解釋。 AI系統不一定有意識,但可以有目的。機器學習的真正難點在于保證機器的目的與人的價值觀一致。AI面臨的重要挑戰不是機器能做多少事,而是知道機器做的對不對。 05 今天AI的成功在很大程度上是大數據和深度學習的成功。如果把AI未來的發展全部寄托在深度神經網絡上,總讓人感到有些單調,盡管目前的網絡形態也是多種多樣的。為了保持“物種的多樣性”,有必要研究深度神經網絡以外的AI系統。 南京大學周志華教授認為,深度神經網絡之所以成功的原因主要是基于逐層加工處理、內置特征變換和模型復雜度三個關鍵因素。但是,這三個因素并沒有“要求”我們必須使用神經網絡模型;只要能同時做到這三點,別的模型應該也能做深度學習。為此,他們提出了“深度森林”這種非神經網絡的新型深度學習模型。深度森林的基礎構件是不可微的決策樹,其訓練過程并不基于BP算法,甚至不依賴于梯度計算?!吧疃壬帧本哂杏柧毢唵?、效率高等優點,小規模訓練數據也可運轉,而且在理論分析方面也更容易。因此,成為非深度神經網絡AI系統的一種嘗試。 此外,華南理工大學陳俊龍教授認為,雖然深度結構網絡非常強大,但大多數網絡都被極度耗時的訓練過程所困擾。其中最主要的原因是,上述深度網絡都結構復雜并且涉及到大量的超參數。為此,他提出了寬度神經網絡系統。相對于“深度”結構來說,“寬度”結構由于沒有層與層之間的耦合而非常簡潔。同樣,由于沒有多層連接,寬度網絡亦不需要利用梯度下降來更新權值,所以計算速度大大優于深度學習。在網絡精度達不到要求時,可以通過增加網絡的“寬度”來提升精度,而增加寬度所增加的計算量與深度網絡增加層數相比,可以說是微乎其微。當然,也有學者認為,現有的寬度學習僅適用于數據特征不多,但對預測實時性要求較高的場景。 不管是深度森林還是寬度網絡,它們的意義在于為我們提供了未來AI系統的更多可能,以及多元化的新選擇。從而避免出現人們不得不被迫選擇深度神經網絡的無奈。我們相信,未來一定還會有更多的非深度神經網絡的AI系統,因為系統多樣性是改善AI生態環境的重要保障。 06 今天AI取得的成功基本上都是封閉環境中的成功,其中的機器學習有許多假設條件,比如針對數據的獨立同分布假設,以及數據分布恒定假設等。我們通常要假定樣本類別恒定,測試數據的類別是與訓練數據的類別一致,不會出現訓練時沒有遇到的類別。此外,樣本屬性也是恒定的,在測試時也要求屬性特征完備。而實際情況是,我們現在越來越多地碰到所謂的開放動態環境。在這樣的環境中可能一切都會發生變化,這就要求未來的AI必須具備環境自適應能力,或者說要求AI的魯棒性要強。 比如,在自動駕駛或無人駕駛領域,在實驗室的封閉環境下,無論采集多少訓練樣本都不可能涵蓋所有情況,因為現實世界遠比我們想象的豐富。這樣在自動駕駛的過程中會遇到越來越多的以前沒有見到的特殊情況,尤其是越是突發事件,越是很少出現的場景,這就對AI系統的自適應性或魯棒性提出極大的挑戰。因此,未來AI的發展必須能應對“開放環境”的問題,即如何在一個開放環境下通過機器學習進行數據分析和建模。 此外,現有AI技術依賴大量的高質量訓練數據和計算資源來充分學習模型的參數。在系統初始建模階段,由于數據充分能夠得到比較理想的效果。然而,在投入使用一段時期后,在線數據內容的更新,就會產生系統性能上的偏差,嚴重時直接導致系統下線。在訓練數據量有限的情況下,一些規模巨大的深度神經網絡也容易出現過擬合,使得在新數據上的測試性能遠低于之前測試數據上的性能。同時,在特定數據集上測試性能良好的深度神經網絡,很容易被添加少量隨機噪聲的“對抗”樣本欺騙,從而導致系統很容易出現高可信度的錯誤判斷。因此,發展魯棒性、可擴展性強的智能學習系統必定會成為下一代AI系統的重要研究課題。 從以上未來AI系統發展的六種形態以及各自的發展趨勢來看,下一步的研究需要系統、全面地借鑒人類的認知機理,不僅是神經系統的特性,還有認知系統(包括知識表示、更新、推理等),發展更加具有生物合理性,以及更靈活、更可信可靠的AI系統。唯有如此,未來AI系統才能夠實現“不僅勤奮而且更聰明更有智慧”的理想。 讓我們共同努力,一起向未來! 本文為網絡轉載,不代表公司立場。如有侵權或其他問題,請聯系刪除! |