前段時間,我在上海參加了一個 AI 聚會。
活動本身聊的 AI 落地內容很多。
但最讓我印象最深的,是一位投資人前輩分享的學習方法。
(資料圖)
他說這個方法救了他,也改變了他投資時看人的標準。
具體是什么呢?就是學會「問問題」。
當你對一個問題感興趣,就去和 DeepSeek 聊,一直聊,聊到它答不出來為止。
這種「無限追問」的技巧,當時聽完我覺得挺震撼的,但活動結束后,這事就被我拋在腦后了。
沒有嘗試,也沒惦記。
直到最近,我刷到了 Gabriel Petersson 輟學,用 AI 學習進入 OpenAI 的故事。
我才突然意識到,那位前輩說的「問到底」,在這個 AI 時代到底意味著什么。
Gabriel 訪談播客|圖片來源:youtube
01
「高中輟學」,逆襲成為 OpenAI 研究員
Gabriel 來自瑞典,高中沒念完就輟學了。
Gabriel 社媒主頁|圖片來源:X
他曾經覺得自己太笨了,根本不可能從事 AI 相關的工作。
轉折發生在幾年前。
他的表兄在斯德哥爾摩創辦了一家初創公司,做電商產品推薦系統,叫他過去幫忙。
Gabriel 就這么去了,沒什么技術背景,也沒什么存款,創業初期甚至在公司公共休息室的沙發上睡了整整一年。
但這一年里他學會了不少東西。不是在學校學的,而是在實際問題的壓力下硬逼出來的:編程、銷售、系統集成。
后來為了優化學習效率,他干脆轉成了合同工,這樣可以更靈活地選擇項目,專門找最 優秀的工程師合作,主動尋求反饋。
申請美國簽證時,他面臨一個尷尬的問題:這類簽證要求證明申請人在領域內有「非凡能力」,通常需要學術出版物、論文引用之類的材料。
一個高中輟學生怎么可能有這些?
Gabriel 想了個辦法:他把自己在程序員社區上發布的高質量技術帖子整理出來,作為「學術貢獻」的替代證明。這個方案居然被移民局接受了。
到了舊金山之后,他繼續用 ChatGPT 自學數學和機器學習。
現在他是 OpenAI 的研究科學家,正在參與 Sora 視頻模型的構建。
說到這,你一定很好奇,他是怎么做到的呢?
Gabriel 觀點|圖片來源:X
02
遞歸式知識填補:反常識的學習方法
答案就是「無限追問」,找一個具體問題,然后通過 AI 徹底解決這個問題。
Gabriel 的學習方法和大多數人的直覺相反。
傳統的學習路徑是「自下而上」:先打基礎,再學應用。比如想學機器學習,得先學線性代數、概率論、微積分,然后學統計學習,然后學深度學習,最后才能碰實際項目。這個過程可能需要好幾年。
而他的方法是「自上而下」:直接從一個具體項目開始,遇到問題就解決問題,發現知識盲區就補齊知識。
他在播客里說,以前這種方法很難推廣,因為你需要一個全知全能的老師,隨時告訴你「接下來該補什么」。
但現在,ChatGPT 就是這個老師。
Gabriel 觀點|圖片來源:X
具體怎么操作?他舉了個例子:如何學擴散模型。
第 一步,從宏觀概念開始。他會問 ChatGPT:「我想學視頻模型,最核心的概念是什么?」,AI 告訴他:自動編碼器。
第二步,代碼先行。他讓 ChatGPT 直接寫一段擴散模型的代碼。一開始很多地方看不懂,但沒關系,先把代碼跑起來再說。能跑通,就有了調試的基礎。
第三步,最核心的,進行遞歸追問,他會盯著代碼里的每一個模塊問問題。
就這樣一層層往下鉆,直到徹底理解底層邏輯。然后再返回上一層,繼續問下一個模塊。
他把這個過程叫做「遞歸式知識填補」。
遞歸式知識填補|圖片來源:nanobaba2
這比按部就班學六年快得多,可能三天就能建立起基本的直覺。
如果你熟悉蘇格拉底式提問法,會發現這本質上是同一個思路:通過層層追問來逼近事物的本質,每一個回答都是下一個問題的起點。
只不過現在他把 AI 當成了被追問的人,而由于 AI 近乎全知全能,不斷的將事物的本質以一種通俗易懂的方式向提問者表達。
實際上,Gabriel 采用這樣一種方式,對 AI 進行了「知識萃取」,學到了事物的本質。
03
我們大多數人用 AI,其實在變笨
聽完博客,Gabriel 的故事讓我產生了一個疑問:
同樣是用 AI,為什么他能學得這么好,而很多人用 AI 之后,反而感覺自己在退步?
這不僅僅是我的主觀感受。
微軟研究院 2025 年的一篇論文顯示 [1],當人們頻繁使用生成式 AI 時,自身批判性思維的使用會明顯下降。
換句話說,我們把思考外包給了 AI,然后自己的思考能力也跟著萎縮了。
技能這東西符合「用進廢退」的規律:當我們用 AI 寫代碼時,手和腦寫代碼的能力就在悄悄退化。
用 AI「vibe coding」的工作方式看起來效率很高,但長期下來,程序員自身的編程技能是在下降的。
你把需求扔給 AI,它吐出一堆代碼,你跑通了,覺得很爽。但如果讓你關掉 AI,手寫核心邏輯,很多人會發現自己的大腦一片空白。
更極端的案例來自醫學領域,一篇醫學領域的論文指出 [2],醫生在引入 AI 輔助后三個月,結腸鏡檢測技能下降了 6%。
這個數字看起來不大,但想想看:這是真實的臨床診斷能力,關乎患者的健康和生命。
所以問題就來了:同樣的工具,為什么有人用它變強了,有人用它變弱了?
區別在于你把 AI 當成什么。
如果你把 AI 當成一個幫你干活的工具,讓它替你寫代碼、替你寫文章、替你做決定,那你的能力確實會退化。因為你跳過了思考的過程,只拿到了結果。結果可以復制粘貼,但思考能力不會憑空生長。
但如果你把 AI 當成一個教練或者導師,用它來檢驗自己的理解、追問自己的盲區、逼迫自己把模糊的概念說清楚:那你實際上是在用 AI 加速自己的學習循環。
Gabriel 的方法,核心不是「讓 AI 替我學」,而是「讓 AI 陪我學」。他始終是那個主動追問的人,AI 只是提供反饋和素材。每一個「為什么」都是他自己問出來的,每一層理解都是他自己挖下去的。
這讓我想起一個老話:授人以魚不如授人以漁。
04
一些實際的啟發
聊到這里,可能有人會問:我不是搞 AI 研究的,也不是程序員,這個方法對我有什么用?
我覺得 Gabriel 的方法論可以抽象成一個更通用的五步框架,每個人都可以通過 AI 學習任何不懂的領域。
1、從實際問題出發,而不是從教科書的第 一章開始。
你想學什么,就直接開始做,遇到卡殼的地方再去補。
這樣學到的知識有上下文、有目的,比孤立地背概念有效得多。
Gabriel 觀點|圖片來源:X
2、把 AI 當成一個永遠有耐心的導師。
你可以問它任何蠢問題,可以讓它用不同方式解釋同一個概念,可以讓它「像教五歲小孩一樣解釋」。
它不會嘲笑你,也不會不耐煩。
3、主動追問,直到建立直覺。不要滿足于表面的理解。
一個概念,你能用自己的話復述出來嗎?能舉一個原文沒提到的例子嗎?
能解釋給一個外行聽嗎?如果不能,就繼續問。
4、這里有個陷阱需要警惕:AI 也會產生幻覺。
在進行遞歸追問時,如果底層概念 AI 解釋錯了,你可能就在錯誤的道路上越跑越遠。
所以建議在關鍵節點,通過多個 AI 進行交叉驗證,確保提問的地基是穩的。
5、記錄你的追問過程。
這樣可以形成可復用的知識資產:下次遇到類似問題,你有一份完整的思考路徑可以回顧。
傳統觀念里,工具的價值在于減少阻力、提高效率。
但學習這件事恰恰相反:適度的阻力、必要的摩擦,反而是學習發生的前提。如果一切都太順滑,大腦就進入了省力模式,什么都記不住。
Gabriel 的遞歸追問,本質上就是在制造摩擦。
他不斷問為什么,不斷把自己逼到不懂的邊緣,然后再一點點把洞填上。
這個過程很不舒服,但正是這種不舒服,讓知識真正進入了長期記憶。
05
未來的職業趨勢
在這個時代,學歷的壟斷正在被打破,但認知的門檻卻在隱形提高。
大多數人只把 AI 當作「答案生成器」,而極少數像 Gabriel 這樣的人,把 AI 當作「思維練習器」。
其實類似的用法,已經在不同領域出現了。
比如在即刻上,我看到不少家長在用 nanobanana 給孩子輔導功課。但他們不是讓 AI 直接給出答案,而是讓 AI 生成解題步驟,一步一步地展示思考過程,然后和孩子一起分析每一步的邏輯。
這樣孩子學到的不是答案,而是解題的方法。
提示詞「解給定的積分,并把完整的解寫在白板上」|圖片來源:nanobaba2
還有人用 Listenhub 或者 NotebookLM 的功能,把長篇文章或論文轉成播客形式,讓兩個 AI 聲音對談、解釋、提問。有人覺得這是偷懶,但也有人發現,聽完對談再回去看原文,理解效率反而更高。
因為對談過程中會自然地拋出問題,逼迫你思考:這個點我真的懂了嗎。
Gabriel 訪談播客轉播客|圖片來源:notebooklm
這指向了一個未來的職業趨勢:一專多能。
以前,你想做一款產品,需要懂前端、后端、設計、運維、營銷。現在,你可以像 Gabriel 一樣,用「遞歸補洞」法,快速掌握你短板領域的 80% 知識。
你原本是個程序員,通過 AI 補齊設計和商業邏輯,你可以變成一個產品經理。
你原本是個好的內容創作者,通過 AI,你可以快速補齊代碼能力的短板,變成一個獨立開發者。
基于這個趨勢可以推斷:「也許,未來,會有更多的「一人公司」形態出現」。
06
奪回你的主動權
現在再想那位投資人前輩的話,我才明白他真正想說的是什么。
「一直問到答不出來為止。」
這句話在 AI 時代是一個很棒的心法。
如果我們只滿足于 AI 給出的第 一個答案,我們就在悄無聲息地退化。
但如果我們能通過追問,逼 AI 把邏輯講透,再內化成自己的直覺:那 AI 就真的成了我們的外掛,而不是我們成了 AI 的附庸。
不要讓 ChatGPT 替你思考,要讓它陪你思考。
Gabriel 從睡沙發的輟學生,走到 OpenAI 研究員。
中間沒有什么秘訣,就是成千上萬次追問。
在這個充滿著被 AI 替代焦慮的時代,最實在的武器可能就是:
別停在第 一個答案,繼續問下去。
參考資料
[1].The Impact of Generative AI on Critical Thinking: Self-Reported Reductions in Cognitive Effort and Confidence Effects From a Survey of Knowledge Workers.
[2].Endoscopist deskilling risk after exposure to artificial intelligence in colonoscopy: a multicentre, observational study.
