您正在瀏覽的是香港網站,香港證監會BJA907號,投資有風險,交易需謹慎
夜讀 | ChatGPT背後

作者:韋青 微軟中國CTO

來源:混沌學園

 

導讀

ChatGPT怎麼突然就火了?
他說,“山中方七日,世上幾千年。當你埋頭在屋子里面,研究最新技術進展,比如現在的最火的ChatGPT,出門一看,好像滿世界的人都把它當成了很新鮮的事情。其實ChatGPT3.0算是一個比較大的突破,但它兩年前就有了。它的結構、基本原理也存在很多年了。”
這輪技術到底是什麼?ChatGPT真的會思考嗎?
他說,“這輪技術,大概率就是把我們的知識進行提煉……機器是不會想的,想這個詞是人類自己發明出來的。如果你硬把這種能力視爲“想”,不能說錯與對,但它會誤導你對機器的判斷、理解和定義。”
ChatGPT究竟是怎麼做出來的?
他說,“Sam Altman(OpenAI CEO)那批人就是堅信大模型大力出奇跡,就能夠表徵人類的知識,就這麼簡單。”
……
ChatGPT的本質是什麼?是否將替代人類工作?我們人類又該如何與之共存?
今天,我們邀請韋青老師,微軟中國CTO做客混沌。他將利用工程師的底層視角,爲大家揭開人工智能的冰山一角,探尋ChatGPT爲何全球爆火。
韋青老師說,“大家有沒有感覺到,每天好像都是見證時代的一天。由於我們的工作背景,在技術領域、在微軟,能看到更多現象,我想跟大家講,首先看到任何現象,先不用感到驚訝。帷幕剛拉開一角,舞臺尚未完全展開。”

01

比真還真的時代

1. 我們需要通過ChatGPT理解什麼?
GPT是現在最熱門的話題,但GPT3模型兩年前就培訓出來了。GPT4的出現讓人驚豔,但去年8月份它就已經被訓練出來了。
什麼意思?ChatGPT實際上是冰山一角。當我們看到某些現象出現的時候,某種意義來講,這件事已經結束了。而這個時代纔剛剛開始,ChatGPT現象會層出不窮。
再追逐冰山已經沒什麼意思了,我們要儘快通過浮起的冰山,去理解我們可能進入了一片冰山叢生的海洋。
從一個本質性的構成來講,人類對世界的認知已經經歷了三個階段:農業時代是物質構成的。有地、有糧、有人就等於有權力,有生存的空間;工業時代如果你有能源、有動力,比有糧食還具備競爭力;到第三階段,人類發現信息也是構成世界的一種本源性的存在。思想受什麼影響?信息。
無論是麥克盧漢,還是鮑德里亞的理論,都已經強調了信息、電子信息的出現,可能會使人類社會的結構、邊界、性質、方式都發生變化。
麥克盧漢最出名的理論是地球村。請想象一下,在父母輩的時代,朋友大部分是單位的同事,來自家族、村子、單位。僅僅過了幾十年,現在你的朋友圈還受公司約束嗎?
鮑德里亞的觀點是,如果人類無止境地或者完全氾濫地利用數字化信息技術,我們很快就會進入一個比真還真的時代,那些由人工智能生成的照片、文字,你覺得它是真的嗎?
鮑德里亞說的“比真還真”的時代,它已經來了。
2. 語言是思想的邊界,技術是思想的實現
這幾個月太熱鬧了,或許先不需要這麼快下結論。當你埋頭在屋子里面,研究最新技術進展,比如現在的最火的ChatGPT,出門一看,好像滿世界的人都把它當成了很新鮮的事情。
ChatGPT3.0算是一個比較大的突破,但它兩年前就有了。它的結構、基本原理也存在很多年了。
語言是思想的邊界,這是維特根斯坦說的,但我要給他再加一句話,技術是思想的實現。
我們忽略了一點,能夠把技術開發出來,先得有一個思想。ChatGPT,實際上它只是一種提取已經被沉澱、被記憶的知識的一種交互方式,底下什麼?是基礎模型。像谷歌的BERT,Facebook的LLaMa。
爲什麼GPT現在那麼火?它背後是OpenAI的技術信仰,再加上微軟的Satya(微軟CEO)、Kevin Scott(微軟CTO)這些人的技術信仰的結合。這些人都相信,靠大量的語料和海量的計算,能夠產生出對於知識的沉澱和應用。
Sam Altman說,GPT走出的第一步,是拿把人類知識先沉澱下來。就像先把玫瑰花蒸餾成玫瑰精油。
但精油太濃了,你要使用的話,需要調和。所以第二步,就是用Instruct(指令)的方法,用提示詞的方法,把精煉的玫瑰精油,滴到沐浴露中去。
但是,這件事沒被證明可行之前,某種意義上是完全要靠信仰支撐的事情。有多少人敢這麼做?又要花人力、花時間、花海量的金錢,結果可能竹籃打水一場空。某種意義上,它的成功也可以理解成倖存者偏差。
我認爲你要讚歎的,不應該是ChatGPT的模型多麼偉大,而是它背後耐得住寂寞、懷疑的這種定力、決心、信心,這已經是一種技術信仰了。
我們有沒有對於工具、對於數字化技術的技術信仰?這纔是我們應該問自己的。
認知達到信仰的層面,才能夠選一條沒有人走過的路。儘管今天還走不通,但你就認爲這條路可以走,因爲第一性原理告訴你,這樣做是對的,只不過人類的技術還沒有發展到那一步,還證明不出來。
另一個例子是SpaceX。它成功了,大家都覺得太牛了。但當馬斯克後來接受媒體採訪時,他哭了。他說當時我認爲火箭可以回收,但NASA、所有大咖級人物、科學家都跟他講,這條路是走不通的。
OpenAI是一樣的,我們認爲它在2023年1月忽然出名,怎麼可能?它背後有太多的辛酸、堅持、疑惑、搖擺,只不過堅持下來了。
3. 現在的機器並不具備真正的思想力
這一輪技術,大概率就是把我們的知識進行提煉。知識哪來的?是我們的所作所爲、所寫所說,落成的文字、視頻、語音,經過數字化之後,被機器去提煉,建成一種模型,變成知識沉澱下來。
爲什麼大家覺得它很神奇呢?因爲沒有任何一個人有這種能力,能記住人類所有的知識。
有些人覺得,機器會涌現出一些思想能力。確實,它會表現成思想能力。但如果你知道它的算法是如何做出來的,你還是會形成自己的判斷。
我要想先聲明一下,每個人都會對這種現象產生不同的解讀。我的解讀是,現在的機器並不具備真正的思想力,是把人類知識記憶之後的一種使用能力。
機器是不會想的,想這個詞是人類自己發明出來的。如果你硬把這種能力視爲“想”,不能說錯與對,但它會誤導你對機器的判斷、理解和定義。
4. 做一個思想實驗,這輪技術到底是什麼?
如果我們發現了,可以通過蒸餾的方式,從植物中蒸餾出它的油性。請問,花園甲跟花園乙的擁有者,做同樣的事情,最後的價值會是怎樣的?他們做出來的東西,對社會的影響力會大不相同。
花園甲的擁有者,會懷疑提純機器不行?還是會痛定思痛,發現原料有問題?
當我們從農業文明進入工業文明,已經受過很多降維打擊了。當物質、能量變成信息的時候,會帶來更加降維式的打擊。
這種競爭方式,已經不是技術能力的競爭,有錢沒錢的競爭……而是文明在一較高低。
你的文明所表現的形式,能否被新一代的會思考的機器學到、吸收到,並且讓它的行爲方式對你有利?
ChatGPT剛火的時候,知乎股價飛漲。在中國,具備語言語料的網站絕對不止知乎。爲什麼它漲得那麼厲害?我沒做過詳細統計,但我認爲,知乎的花園可能類似於花園乙。
我們再捫心自問下,貴公司、貴機構、貴組織,你們的知識的表現形式、呈現方式,更像是左邊還是右邊?你未來如何跟具備這樣能力的公司競爭?
如果你的信息,無法沉澱成能被機器學習的知識。這一輪的機器能力,你能夠利用到的概率就大爲降低。

02

機器文明,冰山一角

時代的鉅變有個好處,不管你多麼先進,多麼落後,在這個時代又拉平了。

微軟CEO Satya說的刷新,Hit Refresh就是此意,重來過一遍。在這一輪的技術潮流下,我們如何重新獲得定位?需要我們每一個人思考。
1. 衝着ChatGPT創新,等於拎包入住而沒有自己的地基
古人有一句話叫“聖人畏因,凡人畏果。” 有了理念、信仰、追求,才能產生結果,如果我們只抓着結果,很容易只見樹木、不見森林。
拿ChatGPT來舉例子。當我們看到這個技術結果的時候,要相信它不是從石頭里蹦出來的。
2023年1月,微軟CEO Satya和Sam Altman(OpenAI CEO)的合照在網上很火,他們跟大家介紹了雙方的合作和技術的進步。但其實在2016年,雙方已經開始探討了。
OpenAI的成長,也是在不斷摸索的。大家可以看一本書,《深度學習革命》,以OpenAI這批人爲代表的深度學習實踐者和探索者們,怎樣從當初對谷歌人工智能產生一些擔憂,到成立這間公司。一切都是有脈絡可循的,是幾十年的摸索、試錯,才走到今天這一步的。
如果我們衝着GPT的模型去了,從創新的角度來講,我把它稱之爲拎包入住。
大家想象一下,一片未開墾的土地,長滿雜草茂木。但有人把它開墾出來了,又根據土地的特點,設計出人類能夠居住的房屋,把樓給造起來了,再找一些設計師精裝修。最後招商引資。
這時我們都看到了趨勢,發現只要找個50層以上的公寓房做生意就能夠大賺特賺,就拎包入住了。當時確實大賺特賺了。但若幹年之後,文明變了,潮流變了,50層以上的房屋不受歡迎了,你怎麼辦?
OpenAI有很多算法,很多工具,它曾經在機器人上投資,現在有人去看它的機器人嗎?ChatGPT只是它在衆多的嘗試中,湊巧發現了一條路可以往前走。你要跟着它這條路走,有點像守株待兔,認爲兔子永遠會撞在這棵樹上。
我認爲,其實各位可以在這一輪,去看OpenAI的理念,最早這些人是怎麼想的、怎麼做的、願景是什麼。
2. ChatGPT的冰山下面是什麼?
如果說我們看到了冰山一角,下面是什麼?
拿ChatGPT舉例,它下層有兩類支柱,產物、產出它的人。別隻關注ChatGPT或GPT4,去看更深層的東西。
一方面是大語言模型,賴以沉澱人類所有的知識,或者是能夠被它學習到的所有知識的機制。是Transformer/RNN/CNN/LSTM,是用數學的方式,表徵物理世界和人類知識與行爲的特徵。
另一方面,OpenAI,也是由人構成。公司就是由一批志同道合者構成的一個組織,去完成一個共同的願景,共同的一個目標。
這些人才是一批有科學修養的,又有工程實現能力的,又對語言學、計算機科學的第一性原理有深刻理解的。更關鍵的是,有一個共同的理想,堅信做這件事是對的,是有用的。
其實有很多人正因爲OpenAI所謂的成功,反而離開了,因爲覺得願景不一樣了。這是它的人才特徵。
人才特徵的背後又是什麼?容錯、合作、開放的文化,不拘一格降人才的用人風格,配合的風格,彼此交流的風格。
如果我們連辦公場所都嚴格要求,老闆、員工分級坐,等級森嚴,是很漠然的羣體,有可能做成這件事嗎?
我自己也是管理者,感觸還蠻深的。各個企業的文化真的不一樣。有開放的、有封閉的、有嚴厲的、有寬鬆的、有說一套做一套的,有說知行合一的,所處的行業特徵,社會的氛圍也真的是不一樣的。
錯誤是成功的前提條件。你公司的環境,整個的社會大環境,允許不允許這種容錯文化的出現?
所以有些人問我,咱們應該怎麼做ChatGPT?
我說如果你要做一個ChatGPT,個人的建議,還是別玩這個遊戲了。就像是打冰球,追着冰球打太難了,你最好天天求什麼?求前面沒人打了。但那時,新的賽道又開出來了。天天在說彎道超車,等你真超過去才發現,前面已經沒車了。
新開闢一條道路,需要建立這種環境,建立這種文化,培養這種人才,這纔是最基本的。Sam Altman那批人就是堅信大模型大力出奇跡,就能夠表徵人類的知識,就這麼簡單。
3. 通用人工智能(AGI)
通用人工智能(AGI)是他們的追求。OpenAI會爲之付出無窮的努力,不懈的追求,直到證明它絕對不行了。只不過,很巧它成了。但就算在AGI上,大家的關注點,也都各有側重。
20年前谷歌剛成立的時候,只是個搜索引擎。你會感到很無釐頭,一個搜索引擎,爲什麼把不作惡作爲標準?現在大家明白了吧,在一個“比真還真的時代”,給你的信息當然可以作惡。     
AI也一樣。微軟明確指出要做負責任的AI,谷歌說的叫不作惡。OpenAI提出UBI,全民基本收入(UBI,是指“無條件”地爲所有個人定期發放一筆現金收入)。    
Sam Altman在採訪中說,需要新思想回答的三個問題是:如何分配通用人工智能產生的利潤?如何分享通用人工智能的訪問權?如何分擔通用人工智能的治理權?
大家想一想,爲什麼Sam Altman想到了這三個問題?
還是因爲AGI一旦推出來,大家馬上就會發現,它的能力太大了,如果不能讓人類在這三個問題上達成共識,有人賺便宜、有人吃虧,就產生動盪的因素了。AGI帶來的這些議題,需要我們去了解。
4. 有些議題其實已經被思考100多年了
建議大家看一下《大都會》這部電影。它1927年上映,到現在馬上100年了,你會發現,我們幾乎在重演歷史。
它出現了三個文明的特質:
1)無用的機器。出現了過度設計的無用的自動機。仔細想一想,它每一個理念,每一個精巧的激發過程和動作,是不是我們現在人工智能、機器人的思想的底蘊?
那麼,我們有沒有可能在不接受,甚至排斥“無用的自動機”前提下,鼓勵工程師,孩子們去創造出這種自動機的文明?當不被鼓勵、允許時候,他們有沒有可能去做自動化的事兒?
我再舉個例子,我們這個文明是不接受多米諾骨牌有任何價值的。但實際上,多米諾骨牌跟無用的自動機,背後都有一個隱含的、對於自動機的一種強烈的發自內心的追求。人工智能沒成功前的所有投入,都是無用的自動機。這就是我們要深思的。
2)魔法師的學徒。名字來源於歌德的戲劇,它在全球技術領域經常被引用,說人類在開創一些魔法式的技術,但魔法需要被制衡,開啓魔法以外,要會關。
3)精靈寶瓶。你不但要關掉魔法,還得把它收回去。留在世上可能也會有問題。
《大都會》結尾有一句經典名言,說在負責思考、籌劃的大腦跟執行任務的雙手之間,必須有一個調節者,這個調節者必須是人心。
我想說,當你爲ChatGPT激動不已,腦補着很多東西的時候,有些議題其實已經被思考100多年了。而且,還沒有定論。一兩百年過去了,大家仍然在探討自動機的普遍流行造成的後果,和相應的人文上的制約。
這就是蓋子揭開之後,人類所面臨的話題。這是遠比所謂的人工智能奇異點,更宏大、更深刻、更嚴峻的話題。

03

如何利用機器?

“教-學”相長,“有-用”相隨

人和機器的關係是什麼?比較理想的狀況,是由機器彌補人類的弱點。那麼,首先機器的優點、弱點是什麼?人類的優點、弱點是什麼?我們知道嗎?

第二,人類怎麼指揮機器?機器怎麼能夠被指揮?怎麼能夠不被指揮?我們考慮過嗎?
第三,教學相長。我們要明白它是怎麼學的,才能明白怎麼去教它。

1. “教-學”相長

這點我特別希望想跟大家強調一下。否則,我們會誤以爲機器真能憑空學到知識。
上圖中有幾個機器智能的關鍵詞,表徵、映射、記憶、應用、學習。
圖中還有從GPT4官方網站上取的一句話,這是它對GPT4的定義。我們把GPT4開發出來,就是讓它去解決困難的問題,靠什麼呢?靠形成的通用知識。
問題是輸入,映射能力就是這種函數關係,產生的結果就是問題被解決掉了。
我認爲它說得恰到好處,沒有說什麼特別花哨的東西,就是由一種知識去解決一種問題。知識是橋樑,問題是輸入,把問題解決了是結果。
如果再優化,這三個等式。
第一個公式在描述什麼?這是一種映射。即通過輸入的變量,在一定參數的配置下,產生你要的Y。
第二個公式:這個Y是永遠不可能完全滿足你的。所以怎麼辦?理想的Y,減去每次產生的Y,產生一個偏差。
第三個公式:你接下來要做的事兒,就是不管用什麼樣的算法,把偏差最小化。
我們如何用機器?不就這三件事兒嗎?
你作爲一個人,是不是同樣也在做這三件事兒?也要根據你的X和Y搭建一種函數,一種能力,也要去配置參數?每次你的Y也會因爲一些小細節,比如這個月的銷售漲了,產品的次品率低了,跟你的理想值之間出現偏差,你也要想辦法把偏差減到最小。
明白機器的做法,你就能知道,我們應對的是怎樣的時代了。
2. 機器的祛魅與魅化
如果再剖開來看,我今天不是在講技術的細節,而是在講它的祛魅。
我們給ChatGPT披了一張畫皮,呈現出一個智者的形象。想象一下,ChatGPT是一個狐仙。我問,它答,你會覺着它是一個神人。但把這畫皮一揭開,原來你提出的問題,就是一段指令,你還會覺得很神奇嗎?
你還會對它有任何的人性化的連接嗎?你還會覺着,它要把我的工作代替掉了嗎?你覺得,是它把你的工作代替掉,還是它所賦能的一個機器或一個人把你的工作代替掉?
我們討論了給它祛魅,它有被魅化的可能嗎?如果基於你喜歡什麼,會對什麼產生情感的共鳴,如果我想給你造成一種它具有人性或神性的印象,也是可以做到的。
比如,給一個機器人取名叫歡歡,或者取一個讓你感覺到很親切的名字,或者讓機器的表達去模擬人的方式,讓你產生情感的綁定。你覺着有多少人能夠受得了這種感情的誘惑?
也就是說,我們的決定和共識,會決定我們的下一代,決定我們自己怎樣看待機器,是祛魅化?還是妖魅化?
這點並沒有達成共識,甚至沒有人去談這件事情。
在英文的語境下的Robots,bots,中文居然把它翻譯成機器人,自然地就把它向人靠了。實際上Robots和bots沒有任何的“人”的含義。
我們這個文明,是否需要主動地把這種機器能力,用語言的方式,用形象的方式,用各種各樣的方式,把它跟人連在一起,這是不是走得有點太大了?這也是一個問題。
3. 機器是不理解概念的,機器理解的是概率分佈
再給大家舉個例子,我對ChatGPT提出了一個問題:“我想去中國旅遊,我從來沒去過,那里的哪座雪山值得去看看?”
它回答說,“我無法判斷雪山的美麗程度”,爲什麼ChatGPT給出了這樣一句答案?這句話相對來講,很符合人性。
但實際上機器怎麼理解的?美字之後,好、妙、麗,各有概率的計算值。其中麗字的概率值最高,所以它就選了美麗。接下來呢,又有幾個字備選。程、景、心,在人類的語言中也都和美相關,比如美麗程度,美麗景色,美麗心情。機器發現“程度”兩個字概率更高。
最後它是自然就選擇了“度”字了嗎?不是的,度字概率最高,所以這句話就出來了。如果你前面問的問題是《三體》的主角是誰,八成它會選擇,心。
我們認爲它很完備,懂人話,說人話。但你發現沒有?人跟機器的理解是不一樣的。如果我們不知道這一點,就被它魅住了。一旦被它魅住,你很難成爲它的主人。
所以,你要明白這一點。
其實機器是不理解概念的,機器理解的是概率分佈。語言,每一個字的出現,都是有概率分佈的。它的答案是基於概率的一種推理,不是概念的推理,這一點我們務必要明白,這是祛魅的一個必要條件。Sam Altman(OpenAI CEO)能夠堅定信念,其實是因爲他對語言的特徵,有深刻的理解。
你覺得機器像人對吧?其實我要說,是我們太不像人了,所以才認爲機器像人。何以爲人?尤其是當我們知道自己有那麼多的誤區、偏差之後,如何去彌補、防範思維誤區和偏差,讓我們做得像個人?這是遠比AI會不會代替掉人,更核心、更本質的一句話。
越是紛紛擾擾,越要守住第一性原理。這個時代,門開了一道又一道,但外界其實一直這樣,是有風險的,只是我們沒有跳出舒適區。
4. 我們應該用AI幹什麼?
下圖是微軟的數字化智能反饋鏈,現在特別出名。基本概念是,幫我們建立起跟世間所有的對象的實時連接。知道它的狀態,反饋回來,進行優化,進行完善。
可以理解成什麼呢?無處不在的智能、計算、感知、決策。但實際你看,除了中間寫了Data AI,其餘圓圈里,寫的都是我們日常的工作、學習、生活。
我想強調的是,AI是幹什麼的?它跟上一世紀出現的電的特點是一樣的,應該是無處不在,通過建模仿真來進行計算和優化,用機器能力去賦能、幫助和完善我們的每一個過程。
但如果喪失掉了人的主觀能動性,如果沒有人的約束、制約、控制,沒有負反饋,全是正反饋,可能讓它自激了。它可能會在瞬間用掉地球的資源,理論上講是可以達到這種情況的。
所以就算是GPT,它也經過培訓,人是在決策鏈里面的。GPT這樣已經有很多知識沉澱的模型,能夠被使用,也是因爲人的主觀能動性在繼續發揮作用。
明白這個道理之後,你會發現實現起來沒那麼複雜。
OpenAI跟微軟合作,現在開放的這四個功能,你發現沒有,嚴格意義來講,都不會被普通用戶使用到。
我們用到的是什麼?是被它這種能力賦能的,所加強的,一種工作的性質和內容。
所以雖然OpenAI的技術很先進,微軟也在大力地推動,我們追求的不是ChatGPT或GPT,而是整個的一個系統觀,是Azure AI。Azure AI里面有除了OpenAI以外的很多功能,有很多技術的同步的實現。

04

知其雄,守其雌

如何面對這個時代?

1. 三個關鍵詞
有三個詞可以供大家參考——“煤氣燈下”、 知識“肥胖症”、知識“智子”。
煤氣燈下。Gas Lighting是2022年,韋伯字典的全球熱詞,是上一世紀40年代一部電影的名稱。電影講述了,一位先生想謀取他太太的財物,一直在給太太洗腦。電影用蒙太奇的手法,煤氣燈搖搖晃晃,讓人感覺到眩暈,感覺到不確定。它爲什麼變成全球熱詞了呢?因爲現在機器生成的虛假消息和錯誤消息,就如同搖晃的煤氣燈,讓我們失去了對什麼是真實的客觀判斷。
知識肥胖症。我們都知道,垃圾食品可能會帶來身體肥胖。但是大家想一想,每天我們通過手機,看了多少知識快餐?
捫心自問一下,我們消化得了嗎?我們的大腦,沒法去理解,也沒法記憶,就是不斷吞下很多信息。帶來了大腦的虛假連接,每個連接都是耗能的。我們天天在消耗那麼大的能量,但由於知識沒有重複,其實什麼也沒記下來。
那麼,我們是願意沉浸在知識的恐懼症中,覺着不學要落伍,還是願意理解能力的侷限或者約束,來學我們能夠消化的知識?這一點,能夠決定我們的生活素質的高低。
知識智子。算法機器,是把人類知識吃進去,消化,把它變成精華提煉出來。如果你沒有不斷給它進入新的知識,或者說,新的知識也是這個引擎產生出來的,大家想象到結果了嗎?
它就變成了一個正反饋,就像狗咬尾巴一樣,不斷在打轉,不斷地去精華同樣的知識。一開始,可能會有一些所謂的涌現現象,但我覺得,如果你不給它添一些額外知識,機器轉得又快,越來越壓縮,你會看到這個模型好像越來越小,越來越精練,越來越有用,但實際上它的知識固化了。
類似於《三體》里的智子,是一種源頭上的約束,讓新的知識無法產生。
這種情況不一定出現,但是有這樣的隱憂。它是受機器能力本身所侷限,尤其當我們人類不加約束去運用的時候,就會出現這種情況。
2. 文明這個話題很關鍵
提煉知識的算法是沒有文明的,但你給它供給的原料是有文明的。我們要給這種技術以文明,我們的文明,讓它能夠沉澱下來,爲我們所用。
文明這個話題很關鍵,我拿幾張圖,給大家展現一下,還是蠻發人深思的。我在中文語境下,試了一些關鍵詞,讓我很警醒。
“開心的農民在廣闊的農田里駕駛着拖拉機收割。”你覺着機器在中文語境中應該給你什麼樣的圖片?
我又試了一些詞彙,當我想讓它產生出一個我希望跟我的文明相吻合的圖像時,它產生的是這樣的圖像,不能說它錯誤,是說它跟文明的背景不兼容。
我有點着急,好歹給我出點跟中國相關的形象吧?所以我輸入了語文老師,符合中國的文化特點的語文老師。
你看它給我產生一個什麼形象。一個非常古舊的、傳統的、沒有現代化文明特徵的一個語文老師的形象。但我們中國的語文老師有這麼古老嗎?他們是不是也在用計算機,穿現代化的服裝,在給一幫活潑的學生在講課?
在算法界,這叫做語料的偏差和偏誤。今天我一直在跟大家講的,不是算法,要比算法大得多。文化、文明的傳承之前要提煉,沉澱下來,讓我們的下一代,包括我們自己,能利用這種知識的沉澱來幫助我們。
我們希望什麼樣的工具,什麼樣的提煉是適合我們的需求的,這是值得我們每一個人警醒的。這是對我們每個人的自勉。

05

Don't Panic,不要驚慌

在小說《沙丘》描述的場景中,人類的技術已經很先進了,可以穿越太空。但人與人之間的打鬥靠什麼?原始武器。

知道爲什麼嗎?在小說中,人類歷史出現過一件什麼事?巴特勒聖戰,有一個種族,特別熱衷於機器能力,發明了很多人工智能和智能機器人,而且把機器能力用在了戰爭上。開始大家不在意,結果越做越先進,這個反噬差點把人類都給滅掉。
爲什麼這本小說在西方影響那麼大?衝的不只是機器,是機械的價值觀。
下面這一段的話,是主角的導師跟他講的,“你就是用了太多的機器能力,結果居然忘了在沙漠里要戴上面罩。”主角跟導師說,那你怎麼不提醒我?導師說,就是因爲你過於依賴機器的提醒能力,把你自己的人的能力都喪失掉了。
我們面臨的是一個偉大的時代,而且大概率在不知不覺中已經跨入了這個偉大的時代,已經是其中一份子了。
那麼怎麼辦?Don't Panic,不要驚慌,別擔心,彆着急。爲什麼?
對機器能力的過度恐懼,實際上是對人類,對我們自己主觀能動性的極度自卑。我們高估了我們記憶的作用與知識的難度,卻低估了我們思想的深度,和人的主觀能動性。
但要保住人類的主觀能動性,還要花一些心思去理解現代化的機器的能力,成爲機器的主人翁,也就讓自己更有可能性,有更大的概率,進化成新一代的人類。
關注uSMART
FacebookTwitterInstagramYouTube 追蹤我們,查閱更多實時財經市場資訊。想和全球志同道合的人交流和發現投資的樂趣?加入 uSMART投資群 並分享您的獨特觀點!立刻掃碼下載uSMART APP!
重要提示及免責聲明
盈立證券有限公司(「盈立」)在撰冩這篇文章時是基於盈立的內部研究和公開第三方資訊來源。儘管盈立在準備這篇文章時已經盡力確保內容為準確,但盈立不保證文章資訊的準確性、及時性或完整性,並對本文中的任何觀點不承擔責任。觀點、預測和估計反映了盈立在文章發佈日期的評估,並可能發生變化。盈立無義務通知您或任何人有關任何此類變化。您必須對本文中涉及的任何事項做出獨立分析及判斷。盈立及盈立的董事、高級人員、僱員或代理人將不對任何人因依賴本文中的任何陳述或文章內容中的任何遺漏而遭受的任何損失或損害承擔責任。文章內容只供參考,並不構成任何證券、金融產品或工具的要約、招攬、建議、意見或保證。
投資涉及風險,證券的價值和收益可能會上升或下降。往績數字並非預測未來表現的指標。
uSMART
輕鬆入門 投資財富增值
開戶