4月18日,第十屆聯想創新科技大會Tech World在上海舉行。聯想集團高級副總裁、首席技術官芮勇博士表示,不能再單純地用大數據+大算力+大網絡來堆砌大模型,而是要超越大模型,探索更接近人類的思維和行為方式。
2022年11月底,ChatGPT橫空出世,掀起了大模型的熱潮。從百億參數,到千億參數,再到萬億參數,大模型能力越來越強大;從語言模型,到視頻模型,再到最近的音樂模型,大模型的表現越來越出色;AI歷史上,無論是統治語音識別30年的隱馬爾可夫模型,還是稱霸整個90年代的支持向量機,從來沒有任何一個技術,能夠像今天的大模型這樣強大。大模型是AI歷史上的重要里程碑,它開啟了人工智能發展的新紀元。芮勇博士稱,但是它的理解和規劃能力還很有不少侷限性,這些侷限性需要解決。
今天的大模型沒有真正地理解語言和理解世界,也沒有推理和規劃能力。它只是根據高維語義空間的聯合概率分佈,來連接它之前見過的海量信息片段。
大模型一方面能力很強,另一方面有侷限性。所以要'揚長補短',揚長:我們要持續發揚並增強大模型的強大能力。長短:我們要打造基於大模型的智能體技術,真正解決應用場景的問題。聯想的理念是,左手是大模型,右手是智能體,兩手都要抓,兩手都要硬。
聯想倡導混合人工智能框架,是公有大模型和私有大模型的混合。從技術角度看,還有幾個重要維度的混合。
首先,小模型不會消失。今後一定是基於大模型和小模型混合的"意圖理解"技術。大家知道信息論裏面的熵 entropy 是度量信息量的。越有序,熵越小,越無序,熵越大。聯想使用交叉熵 cross entropy 損失最小化原則,將意圖理解任務最優地分配給大模型和小模型,從而兼顧精準度和複雜性。
第二,基於CPU、GPU、NPU混合調度的"異構計算"技術。今天,在大模型的訓練和推理過程中,瓶頸往往不在於芯片算力,而在於數據傳輸。這個方程式是説,我們來同時優化計算負載和數據傳輸,使總體執行時間最短。
第三,基於模型微調 (SFT) 與檢索增強 (RAG) 混合的"智能問答"技術。相信很多人都聽過RAG和模型微調。這兩種技術哪個更好呢?其實,這兩種技術各有長短。
第四,基於硬件加密與全棧可信架構的混合"隱私安全"技術。光用硬件是不夠的,光用軟件也是不夠的。我們知道,在前量子時代,我們是通過把一個非常大的整數進行質數分解進行加密。但是在後量子時代,這就不夠了。這個方程式通俗地講,就是通過在一個高維實數空間裏進行因式分解來進行加密。
可以看到,這裏講到的4 種混合式技術,需要端邊雲的協同,需要軟件硬件的協同,需要傳輸與計算的協同。聯想的新IT架構 "端邊雲網智"為混合式技術的實現提供了強大支持。