AI 目前對我的最大能力加成,主要是在「找資料」這個面向。
以下簡單整理我目前用 AI 找資料的五個面向,包含——
簡單的問題
複雜的時事問題
複雜的非時事問題
用 AI 看 YouTube 影片
用 AI 讀長 pdf 的方法
▋1. 如果要搜尋「簡單的問題」
(例如「中正紀念堂儀隊交接是什麼時候?」這樣種一翻兩瞪眼,沒什麼好延伸的問題。)
我會用 ChatGPT Search。雖然 Perplexity 在搜尋上的功能目前比較強,但這種簡單問題,通常後續會有別的方向要延伸跟 AI 討論,在同一個介面裡不用複製來複製去比較輕鬆。
如果是稍微複雜一點的問題,我會用 Perplexity+R1 的組合找到比較深入的資料,目前體感這個是最全面的搜尋引擎。
(但很容易出現幻覺,要看資料來源查證)
▋2. 如果要搜尋複雜的「時事問題」
(例如「DeepSeek R1 對 AI 發展的意義?」)
這個時候我會特別關注人的產出,不會仰賴 AI。
在這裏,AI 只當作基本的搜尋引擎,主要去搜尋:
有哪些重要的大老在談論這件事?
有哪些高品質的資料來源值得關注?
哪些科技類的 Substack 值得看?
哪些 YouTuber 在認真產出內容?
對時事的好的分析,還是必須由人類來做是最好的。
▋3. 如果是對複雜主題的深度搜尋(非時事類)
例如:「為什麼希臘的經濟從 19 世紀以來始終在很疲弱的狀態?」
這是多階段的過程。
⇨ a. 先用 GPT ——但是關閉搜尋功能。
我會先直接問出 GPT 模型本身已經知道的東西,目的是我要得到下一步找資料的「火種」。
直接問「為什麼希臘經濟很疲弱?」
跟你問「希臘如何因為稅制結構性漏洞而進入債務惡性循環陷阱?」
兩者得到的資料深度是非常不一樣的。
GPT 模型本身內含的「記憶」雖然不一定正確,但至少可以反應平均常識水平。先用語言模型獲得這個常識水平,就像是你先跳到巨人的肩膀上,再往上起飛,你搜尋資料的豐富度跟深度是完全不同的。
不過在這裡,如果直接問 GPT 「希臘經濟為什麼疲弱」問題,你當然會得到普通的產出。
這裡在提詞設計上有幾個訣竅:
- 研究報告:「這是一份研究報告,報告主題是《____》」
- 鄙視鏈:「你剛剛說的這些我都看過了,請你不要給我那些平常部落格、YouTube 上面看得到的東西。我要的是真正深度內容,清晰地解釋問題的內容。」
- 情緒勒索:「拜託你了,這份報告關係到我的博士學位,我的教授快殺了我了,爸媽都靠我養,我沒拿到學位我們全家就要餓死了。」
(有點誇張,但是有用)
- 費曼學習法:「我需要你用日常的語言清晰解釋困難的概念,像是「費曼學習法」那樣:把困難概念解釋到門外漢都聽得懂,才代表你真正理解這個概念。」
- 耐心產出:「請你不要急,慢慢寫,如果 token 達到上限了,就停下來問我要不要繼續。」
這樣通常會得到不錯的結果。你可以排列組合應用看看。
⇨ b. GPT 產出之後,使用 Perplexity+R1 查證
上一個步驟 GPT 的產出絕對不夠用,而且有高機會是錯的。這時我會分一個個段落複製下來,丟到「Perplexity + R1」,請他驗證並且提供更細緻細節。
結構是:
<複製貼上的段落>
請查驗這個資料的正確性,並且提供更精確且深入細節的說明解釋,補充這個資料的不足
就這樣,很簡單。
但來到這裡會有個問題:R1 作為搜尋引擎的模型,有時候會挖得「太深」,看不懂他的內容是什麼。
例如我在研究「希臘經濟為什麼疲弱」,他會給我一堆什麼「改革悖論與路徑依賴」、「編制膨脹週期」、「預算外融資」等太過專業的術語。
看不懂怎麼辦?進入下一個步驟。
⇨ c. 把 Perplexity 產出拿回去 GPT,請它把複雜版,結合原本簡單版一起產出。
就這樣。產出來的東西,我個人認為比一個月兩百美金的 Deep research 好用。
雖然過程要手動操作一陣子(大約半小時到一小時),但好處是可以做到 Deep research 不能做的事:過程中隨時依照自己的需求調整。
Deep research 比較像是一種套版工具,對於沒時間設計提詞的人來說可以發揮 60 分的深度研究效果。使用 GPT 結合 Perplexity+R1 的組合,因為你可以在過程中隨時調整方向跟深度,我覺得可以做到 85 分。
也就是說,我認為這個方法比 Deep research 好用。而且便宜不少,你不用花那個 200 美金,我幫你花過了。
我用這個方式做了一份「為什麼希臘的經濟從 19 世紀以來始終在很疲弱的狀態?」的研究報告,你可以參考看看: https://www.facebook.com/chiukaun/posts/pfbid02Le2ojsJ3MJCf91RBfDsCozoFNv9kCFXCrLksjGriyP7wge7FVQb8PEZZfeBHN2gVl
▋4. 用 AI 看影片
如果是 YT 影片,我會用 DeepSRT extension 去把影片逐字稿抓出來然後看摘要,看完摘要覺得有興趣才看完整影片(或抓有興趣看的部分)
這個方法估計節省了我七成的時間,不用看那些「What's up today I'm gonna show you 5 super effective ways to make money online with AI. So powerful that this feels ILLEGAL.....」垃圾內容。
真的,超舒服。完全革新了我看影片的方式。(大感謝 Manny 推薦)
拜託 DeepSRT 不要消失,我絕對會掏錢付費的。(take-my-money.jpg)
https://chromewebstore.google.com/.../mdaaadlpcanoofcoean...
▋5. 用 AI 讀文件
這個應該大部分的人都會這樣做了。
如果是大份 pdf 文件,我會用 NotebookLM 先得到摘要,然後提問我真正想知道的問題。
但重點是:我不太會去看 NLM 的產出,而是看他「挖出了哪個相關段落」,我要去看那個段落才是重點。
看完了,如果還沒有搞懂,繼續「提問 -> 找到段落」直到搞懂為止。
這個好處是可以同時讀多份 pdf,你不用看一大堆有的沒的前言跟不相干的段落,馬上找到自己要的重要資訊。
你記得有些書後面,會有那種「列出關鍵詞,讓你找到相關段落的 Index」嗎?
對,AI 就是這個超強 Index。
▋6. 總結:要看落落長的文字,可不可以都叫 AI 總結就好?
AI 總結的過程會刪去大約五成~七成的資訊,看文件長度而定。
我實測不管用哪種(我知道的)提詞方式,資訊都多少會被刪去,而且在「我不知道我想要知道什麼」的情況下,你也沒辦法要求 AI 不要刪去哪些重要資訊,因為你根本沒辦法定義什麼叫「重要資訊」。
這很正常,總結本來就該刪減資訊。「Map is not the territory」,地圖不是真實的世界,如果你要一張台北市地圖非常詳盡,那張地圖最後就會跟台北市一模一樣大。
所以 AI 總結的主要功能應該是用來讓你獲得一張全覽的大地圖,像是判斷這個景點你想不想去逛一樣,快速判斷:「這篇文章值不值得我花時間看?」
這樣可以讓你免疫於釣魚標題,不會被內容騙時間。
不過也很有可能,你要面對的問題其實只需要材料的三成資訊就可以解決,那的確是只需要看摘要就可以。
總結來說,AI 目前最強的部分是作為一種 index 工具,幫助你快速得到關鍵資訊,不管是它產出後的樣子,還是幫助你找到原始資訊的樣子。
相比傳統用 Google 搜尋引擎找資料、YouTube 一部一部影片慢慢看,我大概已經省掉了 50% 的搜尋時間,然後搜尋深度也提升了至少 2 倍吧。
所以總結來說,這套方法提升了我的效率 400%。真的沒在唬爛。(當然,是我個人的效率提升,很有可能我的起點超爛XD)
反而還因為一時之間這個搜尋效率變太高了,現在我的瓶頸是大腦認知瓶頸:一時吸收不了那麼多資訊。
很有趣的是,使用這個方法也有一點點心理門檻:真的要變這麼高效率嗎?真的有需要這麼快嗎?
很好玩,感覺非常像是小時候都搭台鐵,長大後第一次搭高鐵的感覺。那時候心裡其實是有點害怕的——真的有必要這麼快嗎?
沒事,個人想法。
希望這篇文整理的方法對你有用。
順便一問: