發(fā)布時間:2024-08-29作者來源:趙敏瀏覽:1965
近年來,伴隨著AI大模型的顯著技術(shù)進步,新一代人工智能成果倍出,如人工智能對話系統(tǒng)ChatGPT、文生視頻軟件Sora、文生音樂軟件Suno等AI新應(yīng)用不斷給大家?guī)眢@喜,在沖擊人們眼球和大腦的同時,也正在深刻影響著社會的千行百業(yè)。
2023年初,[敏感詞]Open AI公司推出了基于大規(guī)模深層神經(jīng)網(wǎng)絡(luò)、通過人工反饋的強化學(xué)習(xí)和人工提示的預(yù)訓(xùn)練生成式人工智能對話系統(tǒng)ChatGPT,隨后又推出了它的更新版本GPT-4。
2023年底,Google推出的Gemini系統(tǒng),性能表現(xiàn)也與GPT-4各有千秋。2024年推出的SORA,則可根據(jù)用戶提供的簡單文本生成極為酷炫的短視頻;Anthropic研制成功的Claude 3更是全面超越了GPT-4。
有些人發(fā)出感慨,認為“硅基生命超越碳基生命的日子為期不遠了”,甚至還有人提出了荒唐的建議:面對人工智能的發(fā)展,人類要么設(shè)法逃離地球,要么就得學(xué)會臣服機器。
也有不少頭腦清醒的人對此持有不同看法。他們認為,當(dāng)前GPT產(chǎn)品還存在很多問題,“一本正經(jīng)地說胡話”就是其中一個特別突出的例子。眾所周知,理解能力是智能的前提。沒有理解能力,不識真?zhèn)魏么酰趺茨芩闶恰坝辛苏嬲闹悄堋保?/span>!GPT“一本正經(jīng)地講胡話”,說明它沒有理解能力,本身意味著巨大風(fēng)險,因為“胡話”可能把用戶引到錯誤方向。實際上,GPT有意回避了“內(nèi)容理解”難題,轉(zhuǎn)而借助同樣也是基于樣本形式特征的“統(tǒng)計方法”來生成語句和選擇對話的“候選答案”。這種缺乏理解能力的GPT離真正的人工智能還相差甚遠,更談不上“全面超人”。
不少國內(nèi)外的專家、院士、學(xué)者,在肯定ChatGPT、Gemini等AI大模型系統(tǒng)的巨大進步的同時,也提出了質(zhì)疑和反對意見。
2024年8月1日,中國科學(xué)院院士、清華大學(xué)人工智能研究院名譽院長張鈸在ISC.AI 2024第十二屆互聯(lián)網(wǎng)安全大會的演講上表示,當(dāng)前人工智能還沒有理論,只有發(fā)展出來針對的模型和算法,它們都是針對特定領(lǐng)域的,軟件或硬件也都是專用的,市場很小,因此到現(xiàn)在為止還沒有發(fā)展出一個大型的人工智能產(chǎn)業(yè),問題就出在這里。
張鈸院士還指出,盡管深度學(xué)習(xí)在多個領(lǐng)域取得了顯著成就,但是仍然有不少局限性,包括對大量標(biāo)注數(shù)據(jù)的依賴、模型的可解釋性差以及容易受到對抗性攻擊的影響。他提出,未來的改進方向應(yīng)包括開發(fā)更高效的學(xué)習(xí)算法、增強模型的泛化能力、提高模型的可解釋性,并探索更符合人類認知機制的智能系統(tǒng)。
中國科學(xué)院院士、北京大學(xué)教授鄂維南,在2024年6月26日中國科學(xué)院第二十一次院士大會期間,旗幟鮮明地表示,當(dāng)前人工智能的技術(shù)路線是不可持續(xù)的,要想找到能使我國人工智能長期穩(wěn)定發(fā)展的技術(shù)路線,必須探索人工智能的基本原理。
在2024年5月20日舉辦的搜狐科技年度論壇上,中國工程院院士鄔江興指出:“他們團隊對當(dāng)前[敏感詞]的10種大模型進行安全分析發(fā)現(xiàn),90%以上的主流大模型是不可信的,而采用內(nèi)生安全構(gòu)造的問題,相比單一安全具有顯著優(yōu)勢,達到了幾個數(shù)量級的提升。”
鄔江興指出,深度學(xué)習(xí)模型存在“三不可”基因缺陷。分別是:
第一,不可解釋性,從數(shù)據(jù)提供AI模型訓(xùn)練到知識規(guī)律,到獲得應(yīng)用推理階段,工作原理到現(xiàn)在不明確,問題發(fā)現(xiàn)定位非常困難,AI系統(tǒng)中的安全問題比破解密碼還要難。
第二,不可判識性,因為AI對序列性強依賴,不具備對內(nèi)容的判識能力,所以數(shù)據(jù)存在質(zhì)量差異,來源差異,就可能導(dǎo)致訓(xùn)練出的結(jié)果有差異。
第三,不可推論性,AI的推理是從已知數(shù)據(jù)中獲得規(guī)律性,難以勝任對中長期未來事物變遷的預(yù)測和推理,只是把現(xiàn)有的東西歸納起來,看起來它聰明無比,但僅僅是比我看得多,并沒有產(chǎn)生什么新的認知。
Meta人工智能首席科學(xué)家楊立昆(Yann LeCun)認為,當(dāng)前的LLM(大語言模型)技術(shù)存在“理解邏輯能力極其有限”、“無法對物理世界建模”、“無法形成持久記憶”、“無法進行層級規(guī)劃推理”等重大缺陷,并稱單純追求推進LLM的發(fā)展“本質(zhì)是上不安全”的,無法實現(xiàn)真正的AGI(通用人工智能)。
楊立昆指出,現(xiàn)有的LLM盡管在自然語言處理、對話交互、文本創(chuàng)作等領(lǐng)域表現(xiàn)出色,但其仍只是一種“統(tǒng)計建模”技術(shù),通過學(xué)習(xí)數(shù)據(jù)中的統(tǒng)計規(guī)律來完成相關(guān)任務(wù),本質(zhì)上并非具備真正的“理解”和“推理”能力。結(jié)論是:目前的LLM路線無法通往AGI,且非常危險,顯示出業(yè)界對AI發(fā)展路線圖的分歧。
同濟校長鄭慶華認為,大模型已經(jīng)成為當(dāng)前人工智能的[敏感詞],大模型之所以強,是依托了大數(shù)據(jù)、大算力和強算法,但是也面臨著四大固有缺陷:
缺陷一是過度消耗數(shù)據(jù)和算力。大模型的參數(shù)量已達到萬億級別,訓(xùn)練數(shù)據(jù)規(guī)模和算力消耗與參數(shù)規(guī)模成正比。
缺陷二是災(zāi)難性遺忘。在新任務(wù)上訓(xùn)練會損害之前任務(wù)的性能;在問題求解階段,無法記住處理過的數(shù)據(jù)或場景,比如在無人駕駛中,人腦對路況有記憶,但自動駕駛每次都要重新計算,并為此消耗了大量能量。
缺陷三是黑盒模型邏輯推理能力弱,大模型缺乏“分而治之”能力,在處理需要邏輯、數(shù)值推理等復(fù)雜問題時表現(xiàn)不佳,無法舉一反三、觸類旁通。
缺陷四是大模型不知道自己錯了,也不知道為啥錯,更做不到知錯就改。以GPT4求解算術(shù)運算題的實例為例,對于在1381和1453之間選兩個隨機數(shù)相乘的結(jié)果給出了錯誤答案,被指出錯誤后,無法定位是語料,還是訓(xùn)練等原因,更無從修正。
中國科學(xué)院院士陳潤生在接受媒體采訪時,談及過他對國產(chǎn)大模型的看法。他認為,好的大模型要真正解決實際問題,并具有足夠的準(zhǔn)確度和效率。中國現(xiàn)在有上百個大模型,其中的90%沒多大用處,只會加劇資源和人力的浪費,應(yīng)該被淘汰。
原工信部副部長楊學(xué)山教授在2019年3月21日的人工智能春季創(chuàng)新大會上提到一個統(tǒng)計數(shù)據(jù)和一個重要觀點,麻省理工近日對16625篇人工智能的論文進行了分析總結(jié),得出結(jié)論是:近26年來人工智能領(lǐng)域并沒有出現(xiàn)新技術(shù)。他認為,人工智能到今天為止還沒有理論基礎(chǔ),沒有形成類似經(jīng)典物理學(xué)的“牛頓定律”式的理論,人工智能的理論仍處于“前牛頓時期”。
楊學(xué)山在其所著《智能原理》前言中指出:智能成熟度不是以使用什么算法和邏輯決定的。更進一步,人在進化和發(fā)展中形成這樣的本能或直覺,也沒有經(jīng)過邏輯或算法的過程。(編者注:真正的智能無需計算。通過暴力計算出來的結(jié)果,也不是真正的智能)
楊學(xué)山在《智能原理》P79指出:2017年,又有一些科學(xué)家預(yù)測到2136年,人工智能可以承擔(dān)所有人的工作,這樣的可能性是存在的,但前提是對一系列重大理論和方向問題要有答案。工業(yè)革命基于物理學(xué)的大發(fā)現(xiàn),智能革命的理論尚未建立,任何樂觀的預(yù)言都缺乏理論基礎(chǔ)。
楊學(xué)山在《智能原理》P085指出:不僅指導(dǎo)人工智能走向未來的理論尚未建立,最佳實踐也沒有達到,這是有人憂慮人工智能進入再一個冬天的原因。…還有人指出,人工智能的神經(jīng)網(wǎng)絡(luò)研究進展,并沒有跟上認知神經(jīng)科學(xué)[敏感詞]研究的成功,深度學(xué)習(xí)的算法與人腦的工作機制幾乎沒有共同之處。
楊學(xué)山在《智能原理》P092指出:但是人工智能的理論研究與具體的非生物智能應(yīng)用成果之間存在一條不協(xié)調(diào)的溝壑。
楊學(xué)山在其另一本專著《智能工程》P005指出:智能和通用人工智能沒有[敏感詞]的定義,常識和理解這兩個通用人工智能的必要條件也成為可望而不可即的空中樓閣。…與此相伴的是人工智能界對算法、算力和具有算法能力的人的崇拜,認為具備這三者就一定能構(gòu)造通用人工智能,這是一個基本認識論的錯誤。
楊學(xué)山在《智能工程》P205指出:通過數(shù)據(jù)挖掘就能得到知識和智慧更是一廂情愿,因為知識和智慧的形成根本不是通過數(shù)據(jù)挖掘這種模式就能夠獲得的。我們通過大數(shù)據(jù)及利用一些計算工具和算法得到的一些有趣或有效的結(jié)論,這種局部想象泛化為知識和智慧的來源,是科學(xué)方法的不嚴謹。
中國人工智能學(xué)會原理事長鐘義信教授認為:在物質(zhì)學(xué)科范式引領(lǐng)下的人工智能研究,雖然在技術(shù)層次上不斷取得一些淺層和局部的進展,但始終沒有在基礎(chǔ)理論的研究上實施必要的變革,因此始終無法根治物質(zhì)學(xué)科范式給人工智能研究帶來的致命性缺陷:
第一,受到“分而治之”方法論的制約,三大學(xué)派各奉所信,各行其是,分道揚鑣,無法建立統(tǒng)一的人工智能理論,也無法研制出通用的人工智能系統(tǒng)。
第二,受到“唯形式化”方法論的制約,人工智能所有概念都被閹割了內(nèi)涵,成為了難以理解的“無心概念”。因此,所有人工智能產(chǎn)品(當(dāng)然包括GPT系列)都無法實現(xiàn)對概念的理解,無法生成基于理解的真實智能。
如前所述,當(dāng)今的AI大模型盡管目前看起來“很成功”,但是確實是沒有發(fā)展后勁的,其成果是不可持續(xù)的。
上述質(zhì)疑者和批評者的共性意見摘錄如下:
*“當(dāng)前人工智能還沒有理論指導(dǎo)”;“指導(dǎo)人工智能走向未來的理論尚未建立”;“人工智能到今天為止還沒有理論基礎(chǔ)”;“人工智能所有概念都被閹割了內(nèi)涵”;“智能革命的理論尚未建立,任何樂觀的預(yù)言都缺乏理論基礎(chǔ)”;
*“理解邏輯能力極其有限”;“不可解釋,不可判識,不可推論”;“本質(zhì)上并非具備真正的‘理解’和‘推理’能力”;“大模型不知道自己錯了,也不知道為啥錯,更做不到知錯就改”;“無法生成基于理解的真實智能”;
*“當(dāng)前人工智能的技術(shù)路線是不可持續(xù)的”;。
*“算法、算力和具有算法能力的人,這三者不可能構(gòu)造AGI”;“目前的LLM路線無法通往AGI”;
*“90%以上的主流大模型是不可信的”;“中國現(xiàn)在有上百個大模型,其中的90%沒多大用處”。
從上面的專家觀點可以看到,目前還不能對當(dāng)今AI大模型取得的巨大成果過于樂觀,客觀上AI大模型還存在諸多弊病和偏差。如果上述專家們所言屬實,那么用不了兩三年,很多現(xiàn)有AI大模型在技術(shù)上是走不下去的,甚至是沒有未來的。
現(xiàn)有人工智能缺乏理論基礎(chǔ),是諸多專家詬病最多的一個問題。人類幾百年的近代科學(xué)史證明,缺乏理論的科研,一定走不遠。
那么,該怎么辦?
當(dāng)今人工智能在技術(shù)取得長足進步、市場一片喧囂之后,是時候該放慢腳步,換個思路,思考一下人工智能的理論基礎(chǔ)了,即研究人工智能的學(xué)科范式問題。
鐘義信教授的見解是:作為信息學(xué)科高級篇章的人工智能研究,一直遵循著經(jīng)典的物質(zhì)學(xué)科范式的“唯形式化”和“分而治之”的方法論,這不符合信息學(xué)科性質(zhì)的需要,屬于學(xué)科范式的“錯配”。應(yīng)該用全新的信息學(xué)科范式來研究今天的人工智能,用中華文明中的“整體觀和辯證論”的思想去重新思考人工智能的基本問題。
物質(zhì)學(xué)科只研究物質(zhì)。信息學(xué)科則不僅研究物質(zhì),更要研究主體(編者注:只有主體才有智能),尤其要研究主體駕馭下的主體客體相互作用的信息生態(tài)過程。信息學(xué)科的迅猛崛起是時代進步的需要。物質(zhì)學(xué)科研究主導(dǎo)的科學(xué)時代一定要向信息學(xué)科研究主導(dǎo)的科學(xué)時代迅速轉(zhuǎn)變,才能適應(yīng)時代進步和科學(xué)發(fā)展的要求。
信息學(xué)科范式在人工智能領(lǐng)域取代物質(zhì)學(xué)科范式,并不表明物質(zhì)學(xué)科范式本身存在什么問題,只是表明學(xué)科范式與學(xué)科研究的性質(zhì)之間必須和諧匹配,而不應(yīng)當(dāng)錯位,不應(yīng)當(dāng)張冠李戴:人工智能是信息學(xué)科的高級篇章,因此應(yīng)當(dāng)遵循信息學(xué)科范式;而物質(zhì)學(xué)科的研究則應(yīng)當(dāng)遵循物質(zhì)學(xué)科的范式。各種范式都按照學(xué)科的性質(zhì)各就其位,各得其所,各司其職,各領(lǐng)風(fēng)騷,協(xié)調(diào)發(fā)展,共創(chuàng)輝煌。
免責(zé)聲明:本文采摘自英諾維盛公司,本文僅代表作者個人觀點,不代表金航標(biāo)及行業(yè)觀點,只為轉(zhuǎn)載與分享,支持保護知識產(chǎn)權(quán),轉(zhuǎn)載請注明原出處及作者,如有侵權(quán)請聯(lián)系我們刪除。
Copyright ? 深圳市金航標(biāo)電子有限公司 版權(quán)所有 粵ICP備17113853號