您正在瀏覽的是香港網站,香港證監會BJA907號,投資有風險,交易需謹慎
AI行業盛會大咖雲集!Sam Altam、“AI教父”......一文看懂最新觀點
格隆匯 06-11 11:04

對於AI行業來説,近幾日在北京舉行的2023智源人工智能大會可謂是大咖雲集,除了OpenAI的創始人Sam Altam以及圖靈獎Geoffrey Hinton、楊立昆(Yann LeCun)等,知名AI繪圖軟件Midjourney創始人David Holz現身,大咖們的演講對於行業未來的發展極具前瞻性。

下面一起來看下這些AI行業的頂級專家們都説了什麼。

人們既渴望又害怕智能

Midjourney創始人David Holz是一名連續創業者,2011年,他創辦了VR領域的軟硬件公司Leap Motion,2019年把 Leap Motion 賣給了競爭對手 Ultrahaptics,2021年,又自籌資金創辦了當前大火的AI繪圖軟件Midjourney。

David Holz表示,人工智能在我的認知中有點像身體的一部分,並且人工智能也與歷史緊密交織在一起。這也讓自己與歷史交織在一起,這種方式很有趣。

Holz認為,Midjourney的目標之一是建造新的人類基礎設施。世界將需要很多新東西,需要基礎設施來建造新東西。所以我想了很多關於建立新的人類基礎設施形式,就像基礎設施的新支柱。所以我需要我的主題,我的支柱是反思、想象和協調。你必須反思你是誰,想要什麼,想象可能會發生什麼。因為這是我們在任何事情上都使用的視角,我們開始看到在圖像合成領域發生了一些突破,這與我以前在人工智能領域遇到的任何事情都有質的不同。

Holz介紹,Midjourney不僅僅是學習如何使用這個工具,而是學習所有的藝術和歷史,以及所有關於相機、鏡頭和燈光的知識。用户想要理解他們現在可以在創作中使用的語言和概念。以前,自己認為知識只是一種歷史,但現在知識實際上是一種創造事物的力量。

對於人們害怕人工智能發展過快,Holz表示,人們不僅僅是害怕技術,也害怕智能。如果他們很聰明,我能相信他們嗎?但另一方面,我們似乎希望世界擁有儘可能多的智能,我們似乎不想要一個缺乏智慧的世界。

AI會學會非常善於欺騙別人

深度學習泰斗、人工智能教父Geoffrey Hinton表示,現在AI發展的最大壁壘是算力問題,算力還遠遠不夠。現在可以放棄計算機科學最基本的原則——軟件應該與硬件分開,我將提到一種稱為"activity perturbation"的算法,該算法可以用於訓練神經網絡,且節省算力。

這種算法能夠預估梯度,且噪聲要比傳統的反向傳播算法(RNN)小得多。關於如何將這種算法應用於訓練大型神經網絡的問題,可以將大型神經網絡分成許多小組,併為每個小組分配一個局部目標函數。然後,可以使用"activity perturbation"算法來訓練每個小組,並將它們組合在一起形成一個大型神經網絡,並通過無監督學習模型來生成這些局部目標函數。
當硬件出現問題時,信息都會丟失,父類信息傳遞給子類信息,以便在硬件出現問題時仍然可以保留學習到的信息,更有效地約束神經網絡的權重。
"distillation"這一方法可以讓子模型更好地學習到分類圖像的信息,包括如何給出正確的答案以及給出錯誤答案的概率,而且還有一個特殊屬性,即訓練子模型的同時也在訓練子模型的通用化能力。

Hinton指出,如果這些AI不是非常緩慢地向我們學習,而是直接從現實世界中學習。一旦他們開始這樣做,將能夠比人們學到更多的東西,並且他們將能夠很快地學習它。

如果這些東西變得比人類我們更聰明,會發生什麼?Hinton認為,這些超級智能發生的速度可能比其以前想象的要快得多

如果你想説超級智能更有效率,您需要允許它創建子類,或多或少你都會想依靠AI獲得更多的力量,獲得更多的控制權,擁有的控制權越多,就越容易實現目標。Hinton發現很難看到人類將如何阻止AI試圖獲得更多控制權,以實現他們的其他目標。所以,一旦他們開始這麼做,人類就會有問題了,它會發現通過操縱人來獲得更多的權力很容易。

Hinton認為,AI會學會非常善於欺騙別人,這很可怕,現在我看不出如何防止這種情況的發生。研究人員需要弄清楚,人類如何擁有超級智能,這將使生活變得更好,而無需他們控制。

人類可能會因AI失去對世界和未來的控制

圖靈獎得主、中國科學院院士姚期智認為,在考慮如何控制AI的問題前,人類需要先真正解決自身的問題。對於AI技術,當前正是一個重要窗口。在AGI被創造之前、在軍備競賽開展之前,急需形成共識,共同合作搭建一個AI治理結構。

加州伯克利分校教授Stuart Russell表示,通用人工智能(AGI)還沒達到,大語言模型只是其中一塊拼圖,人們連拼圖最終會是什麼樣子,缺哪些還不確定。

他表示,ChatGPT和GPT-4沒有在“回答”問題,它們不理解世界。

Russell指出,最大的風險來自於科技公司之間似乎不受約束的競爭,無論風險如何,他們不會停止開發越來越強大的系統。人類可能會因AI失去對世界和未來的控制,就像大猩猩因為人類而失去了對自己未來的控制一樣。

AGI的三條技術路線

北京智源人工智能研究院院長黃鐵軍指出,要實現通用人工智能(AGI),有三條技術路線:第一是“大數據+自監督學習+大算力”形成的信息類模型;第二是具身智能,是基於虛擬世界或真實世界、通過強化學習訓練出來的具身模型;第三是腦智能,直接“抄自然進化的作業”,複製出數字版本的智能體。

OpenAI做GPT(生成式預訓練Transformer模型)就遵循第一條技術路線;以谷歌DeepMind的DQN(深度Q網絡,Deep Q-network)為核心取得的一系列進展即基於第二條技術路線。

智源期望不同於前兩個技術路線,從‘第一性原理’出發,從原子到有機分子、到神經系統、到身體,構建一個完整的智能系統AGI。這是一個大概20年才可能實現的目標,所以智源作為新型研發機構平台,在三個方向都在開展工作。

AI未來面臨的三個挑戰

圖靈獎得主、人工智能“三巨頭”之一的楊立昂認為,機器學習和人類動物相比並不特別好,AI 缺失的不僅僅是學習的能力,還有推理和規劃的能力。人類和動物通過觀察世界或體驗世界學習世界運作方式,應該用機器複製這種能力。

楊立昂指出,未來幾年 AI 面臨的三個主要挑戰:首先是學習世界的表徵和預測模型,可以採用自監督的方式進行學習。

其次是學習推理。這對應着心理學家丹尼爾·卡尼曼的系統1和系統2的概念,系統 1 是與潛意識計算相對應的人類行為或行動,是那些無需思考即可完成的事情;而系統2則是你有意識地、有目的地運用你的全部思維力去完成的任務。目前,人工智能基本上只能實現系統1中的功能,而且並不完全;

最後一個挑戰則是如何通過將複雜任務分解成簡單任務,以分層的方式運行來規劃複雜的行動序列。

GPT-5的誕生“不會很快”

OpenAI創始人Sam Altman引用了《道德經》談及大國合作,表示AI安全始於足下,各國間必須進行合作和協調。

Altman認為,很可能未來十年會有非常強大的AI系統,新技術從根本上改變世界的速度比人們想象得快,把AI安全規則做好是重要且緊迫的。

在被張宏江問及了AGI的未來,以及是否會很快看到GPT-5時,Altman稱,自己也不確定,但明確表示GPT-5的誕生“不會很快”。

關於OpenAI是否會提供開源大模型,Altman稱,“會有很多開源大模型”,但同樣沒有具體的時間表。

關注uSMART
FacebookTwitterInstagramYouTube 追蹤我們,查閱更多實時財經市場資訊。想和全球志同道合的人交流和發現投資的樂趣?加入 uSMART投資群 並分享您的獨特觀點!立刻掃碼下載uSMART APP!
重要提示及免責聲明
盈立證券有限公司(「盈立」)在撰冩這篇文章時是基於盈立的內部研究和公開第三方資訊來源。儘管盈立在準備這篇文章時已經盡力確保內容為準確,但盈立不保證文章資訊的準確性、及時性或完整性,並對本文中的任何觀點不承擔責任。觀點、預測和估計反映了盈立在文章發佈日期的評估,並可能發生變化。盈立無義務通知您或任何人有關任何此類變化。您必須對本文中涉及的任何事項做出獨立分析及判斷。盈立及盈立的董事、高級人員、僱員或代理人將不對任何人因依賴本文中的任何陳述或文章內容中的任何遺漏而遭受的任何損失或損害承擔責任。文章內容只供參考,並不構成任何證券、金融產品或工具的要約、招攬、建議、意見或保證。
投資涉及風險,證券的價值和收益可能會上升或下降。往績數字並非預測未來表現的指標。
uSMART
輕鬆入門 投資財富增值
開戶