新智元報道
編輯:Aeneas
【新智元導讀】Scaling Law撞牆了嗎?OpenAI高階研究副總裁Mark Chen正式駁斥了這一觀點。他表示,OpenAI已經有o系列和GPT系列兩個模型,來讓模型繼續保持Scaling。
最近,OpenAI高階研究副總裁Mark Chen在爐邊談話中,正式否認「Scaling Law撞牆論」。
他表示,並沒有看到Scaling Law撞牆,甚至OpenAI還有兩個範例——o系列和GPT系列,來保持這種Scaling。
用他的話說,「我們準確地掌握了需要解決的技術挑戰」。
o1不僅是能力提升,也是安全改進
從經濟角度看,OpenAI已經是最有價值的科技公司之一,因為他們為真實使用者提供了數十億美元的價值。
兩年前,AI最前沿的任務還是小學數學題;而今天,它們已經可以做最難的博士生題目。
因此,我們正處於這樣一個階段:AI模型能夠解決人類有史以來最困難的考試。
一旦這些模型解決了博士級別的問題,下一步,即使為世界提供實用性和價值。
當所有基準測試飽和之後,需要考慮的就是是否為終端使用者提供了價值。
雖然今天AI通過了基準測試,但它並沒有完全捕捉到AGI應該做的事。
好在,在過去一年裡,OpenAI內部發生了最令人興奮的進展——o1誕生了。
這不僅是一種能力上的提升,從根本上來說也是一種安全改進。
為什麼這麼說?
想象我們試圖對一個模型進行越獄,舊的GPT系統必須立即做出回應,所以可能更容易被觸發。
但當我們有一個推理器時,模型卻會反思:這個問題是不是試圖讓我做一些與我要做的不一致的事?
此時,它獲得的額外思考和反思的時間,會讓它在很多安全問題上更穩健。
這也符合OpenAI研究者最初的預期。
當我們談到推理時,這是一個廣泛的概念,不僅僅用於數學或程式設計。
在程式設計中使用的推理方法,可能也適用於談判,或者玩一個很難的遊戲。
而說到基準測試,在安全性上也有同樣的挑戰。
安全性有點類似於這種對抗性攻擊框架。在這種情況下,攻擊是非常強烈的,因此我們在這方面還有很長的路要走。
如何到達五級AGI
AGI從一級到五級,關鍵推動因素是什麼呢?
OpenAI提出的框架中,定義了AGI的不同級別,具體來說,就是從基本推理者發展到更智慧的系統,再到能在現實世界裡採取行動的模型,最終到達更自主、完全自主的系統。
在這個過程中,穩健性和推理能力是關鍵。
今天我們還不能依賴很多智慧體系統,原因是它們還不夠可靠。這就是OpenAI押注推理能力的原因。
OpenAI之所以大量投資,就是對此極有信心:推理能力將推動可靠性和穩健性。
所以,我們目前正處於哪一階段呢?
OpenAI研究者認為,目前我們正從第一階段向第二階段過渡,朝著更智慧系統的方向發展。
雖然目前,許多智慧體系統仍然需要人類監督,但它們已經變得越來越自主。模型可以自行原作,我們對於AI系統的信任也在逐漸增加。
合成數據的力量
合成數據,就是不由人類直接產生的資料,而是模型生成的資料。
有沒有什麼好的方法,來生成用於訓練模型的合成數據呢?
我們在資料稀缺或資料質量較低的資料集中,可以看到合成數據的力量。
比如,在訓練像DALL-E這樣的模型時,就利用了合成數據。
訓練影象生成模型的一個核心問題是,當我們去看網際網路上帶標題的圖片時,標題和它所描述的圖片之間通常關聯性很低。
你可能會看到一張熱氣球的照片,而標題並不是描述氣球本身,而是「我度過最好的假期」之類的。
在OpenAI研究者看來,在這種情況下,就可以真正利用合成數據,訓練一個能為圖片生成高保真標題的模型。
然後,就可以為整個資料集重新生成捕獲了,OpenAI已經證明,這種方法非常有效。
資料集中某方面較差的其他領域,也可以採用這個辦法。
Scaling Law沒有撞牆
最近很火熱的一個觀點是,Scaling Law已經撞牆了,許多大型基礎實驗室都遇到了預訓練的瓶頸。
果真如此嗎?
Mark Chen的觀點是,雖然的確在預訓練方面遇到一些瓶頸,但OpenAI內部的觀點是,已經有了兩種非常活躍的正規化,讓人生成無限希望。
他們探索了一系列模型的測試時Scaling正規化,發現它們真的在迅速發展!
在推理模型的Scaling上,也沒有同樣的障礙。
其實,從早期入職OpenAI後,研究者就一直遇到多個技術挑戰。現在這些挑戰已經非常具體,在Mark Chen看來,沒有什麼是完全無法應對的。
在OpenAI內部,大家經常說推理正規化已經達到了一定的成熟度。有些產品已經有了與市場的契合點,雖然進展仍然非常緩慢。
過去幾周內,最令人驚訝的使用場景,莫過於和o1進行頭腦風暴了。
o1和GPT-4的對比,讓人感受到了全新的深度:人類彷彿終於有了一個真正能互動的陪練夥伴,而非僅僅對自己的想法進行評論。
它彷彿一個真正的實體,非常有參與感。
o1的推理直覺,是如何產生的
OpenAI的研究者,是如何想到o1中的推理直覺的呢?
這是一個集體努力的結果,不過他們也進行了很長時間的工作,進行了一些探索性的重點嘗試。
在兩年前,他們就覺得,AI雖然非常聰明,但在某些方面是不足的。不知為什麼,總是感覺不太像AGI。
當時他們假設,原因在於,這是因為AI被要求立即做出回應。
就算我們要求一個人類立即做出回應,ta也未必能給出最好的答案。
一個人可能會說,我需要思考一會,或者我需要做一些研究,明天再答覆你。
就在這裡,OpenAI研究者發現了亮點!
其實這裡缺少的,是連線系統一和系統二之間的鴻溝。
快速思考有,知識也有,但卻沒有慢速思考,核心假設就在這裡。
研究者做了許多不同嘗試,來解決這個挑戰。
一群非常具有探索精神的研究者,獲得了一些生命跡象。
圍繞這些跡象,他們組建了研究團隊,擴大的專案規模,投入了大量的資料生成工作。
從快速進展中獲取預測結果,是整個案例中最難的部分。
開始時,就像登月計劃一樣,會遭遇很多失敗。
有三四個月,他們完全沒取得多少有意義的進展。
好在最終,總會有人獲得重大突破。這也就給了他們足夠的動力來投入更多資源,往前推動一點。
從o1推出幾個月後,OpenAI和許多外部合作伙伴進行了交流。
最酷的一件事就是,他們發現它比使用微調方法要好得多——它已經不太容易被問題難倒了。
很多應用已經超出了研究者之前關注的數學和科學領域。當看到AI的推理能力能泛化到這些領域,真的令人驚喜。
比如在醫學領域,模型在醫學症狀的判斷上,涉及形成假設、驗證,隨後再形成新的假設。
即使在研究者沒有特別關注的領域,模型也進展得很快,比如醫學、法律推理。
而他們也確信,在未來還會有其他還未測試過的領域,AI會有重大進展。
OpenAI仍然注重安全
Mark Chen肯定地說,目前OpenAI仍然像早期那樣,致力於研究和安全。
為此, 他 管理著一個非常龐大的研究專案組合。並且 一直在思考著應該分配多少資源和力量來進行探索性研究,而不是短期的即時專案。
不過,在這方面,OpenAI和很多大型基礎實驗室不同。
這些大實驗室有很多優秀的研究者,可以沒有方向地進行研究,自由地去做任何事。
但對OpenAI來說,他們比這些實驗室的規模都要小,因此需要更有方向性。
他們選擇了一些非常有信心的探索性專案,在這些領域內,給了研究者很大的自由度。
也就是說,OpenAI並不會進行毫無目標的探索,而且充分利用了自己規模小的優勢。
現在是AI創業的好時機
OpenAI的研究者也認為,現在是基於AI創立初創公司的好時機。
基礎模型的玩家專注的是通用性。
但像OpenAI這樣的公司,不可能涉足每一個垂直領域。
在特定領域定製一個模型,有很多空間和可能性。
現在,我們已經可以看到一個豐富的初創企業生態系統,這些企業在OpenAI的基礎上構建了各種型別的應用。
通常情況下,初創企業之所以能夠成功,是因為他們知道並堅信某個秘密,而市場上的其他人並不知道這個秘密。
在AI領域,實際上就是在一個不斷變化的技術棧上進行構建,我們無法預測下一個模型會何時出現。
表現最好的初創企業,就是那些有直覺,在剛剛開發發揮作用的邊緣技術上進行構建的企業,它們有一種生命力。
當我們擁有AGI,就是相當強大的形式,真正釋放了全部潛力。
想象一個人在一週內,就能建立一個帶來巨大價值的大型初創公司。
一個人在幾天內產生巨大影響的想法,已經不僅限於商業領域。
這種懷舊的感覺就像17世紀,科學家們在探討物理學一樣。
我們能否回到那種氛圍,一個人能做出醫學、物理學或計算機科學領域的重大發現?
而這些,都是因為AI。
參考資料:
https://x.com/tsarnick/status/1860458274195386658