AI 不會毀掉你明天的工作,但會拉開別人和你的差距

AI 不會毀掉你明天的工作,但會拉開別人和你的差距

最近,我從社群上面感受到滿滿的 AI 焦慮,讓我想起 Bill Gates 有一句我很喜歡的話:

“We always overestimate the change that will occur in the next two years and underestimate the change that will occur in the next ten.”

翻成白話就是:我們總是高估兩年,低估十年。
這句話,剛好可以拿來當我們看待 AI 的心情調節器。

2023 年我寫 AI 長文心得的時候,大家被 ChatGPT、GPT-4、Midjourney 震撼到,問的是「Google 會不會被毀滅?」2026 年的現在,反而 Google 呈現了完全反超的局面。

這也是我想先說的結論:你不用被很多販售 AI 焦慮的人嚇到睡不著,但也不能繼續當沒發生。真正重要的不是這兩年 AI 會不會「爆炸」,而是你接下來十年要不要把 AI 用到變成自己的一塊肌肉。

AI 在這三年多的演進

  1. 2022 年,AI 連基本算術都做不好,還會信心滿滿地告訴你 7 × 8 = 54。
  2. 到了 2023 年,它已經能通過律師高考。
  3. 2024 年,它可以寫出可正常運作的軟體,還能解釋研究所等級的科學概念。
  4. 到 2025 年底,世界上最頂尖的一些工程師表示,他們已經把大部分寫程式的工作交給了 AI。
  5. 2026 年 2 月 5 日,新模型問世(Codex 5.3, Opus 4.6),讓之前的一切看起來都像是另一個時代的產物。

我自己也是這幾天明顯有感,簡單幾句話就直接升級了 KryptoGO Payment 讓它融入了 AI Agent 的工作流,但如果你不在這圈子,體感可能只有:「欸,現在 AI 好像比較會寫簡報、比較會寫信。」

這就是 Gates 那句話的影子:我們一開始高估兩年內會不會直接出現 AGI 大爆炸,卻低估了兩年內「日常工作被改寫」的程度。世界沒有突然被 AI 接管,但你一天有多少時間,其實已經是在和某種模型互動,可能比你想像中來的還多。

比較殘酷的現實是:
中期來看,幾乎所有發生在螢幕上的工作,都不再是穩定的。法律、金融、醫療、行銷、寫作、客服、甚至管理工作,只要核心是閱讀、寫作、分析、決策、透過鍵盤溝通,AI 都已經「有能力」接手相當大一部分。

Anthropic 推出旗艦模型Opus 4.6、Cowork 法律外掛,吃下財會、法務工作流

正確面對 AI 的態度

目前擋住它的,不是技術,而是法規、責任、制度、客戶信任,以及我們自己的惰性。這些東西會讓變化變慢一點,卻不會讓它消失。但這不代表你要每天刷 X、看恐慌 thread、把自己嚇到焦慮癱瘓。

我反而覺得,有兩件事可以把心情拉回比較健康的位置。

  1. AI 目前沒有自己的「動機」和「責任」:它可以幫你寫合約、做報表、出策略簡報,但要不要真的簽字、押錢、開槍,還是人類要負責。這一層「願不願意背書」短期內不會消失。
  2. 社會系統永遠比技術慢好幾拍:從「技術上做得到」到「制度上允許大規模取代」,中間會卡在一堆非常人類的東西:法律、習慣、政治壓力、組織文化。這些會變成你的緩衝時間。

差別在於:有人拿這段時間來假裝沒事,有人拿這段時間來練功。

所以,我不想再用「這是史上最大威脅」的語氣嚇你,也不會用「別擔心,人類永遠不可取代」來麻痺你。

而是,面對這種正在發生中的變革,我們能做的只有從現在就該把自己當成或在 AI 原生世界的人,然後設計一個你撐得住十年的節奏。節奏的起點可以非常小。
我很喜歡 Matt Shumer 在 "Something Big Is Happening" 那段話:「每天花一個小時實驗 AI,六個月後,你會比 99% 的人更知道未來在發生什麼。」

每天留 60 分鐘給一件事

不是「玩玩看」、也不是「問它幾個新奇問題」,而是挑一個你本來就會做的真實工作,強迫自己讓 AI 參與進來:

  • 你本來要寫會議紀錄,今天改成先丟錄音給 AI 抓重點、產出初稿,你只負責修。
  • 你本來要自己設計簡報結構,今天改成先請 AI 幫你生三種 outline,你挑一個再改。
  • 你本來要自己讀 30 頁法規,今天改成先叫它整理成幾個 scenario 和風險點,再回頭對原文。

關鍵不是你用了哪個產品,而是你開始用「導演」的角色看待自己:
你負責定義目標、設計流程、審核品質,AI 負責把中間很多重複又瑣碎的步驟接走。這種轉換如果每天都做一點,半年後,你對 AI 的「直覺理解」會完全不一樣:你會知道它哪裡真的強、哪裡還是不可靠,而不是被每一則新聞牽著情緒跑。

再往長一點看,未來最大的分水嶺,可能不是「會不會寫程式」或「懂不懂 prompt」,而是:你會不會願意多次「砍掉重練」。

先承認 AI 可能會做得比你更好

AI 的進步逼我們面對一個很生硬的問題:你願不願意承認自己過去人生投入的專業,多數 AI 都會做,而且在很多地方可能做得比自己還更好?你還有沒有能力,在 35、45、甚至 55 歲時,重新當一次初學者,改寫自己的工作流?

但承認這件事,不等於承認「自己從此沒有價值」。反而是反過來問:在一個寫程式、寫文件、做分析的「執行成本」被 AI 壓到幾乎趨近於零的世界裡,什麼才是真正稀缺、真正昂貴的東西?

也承認什麼還是只有你做得到

我自己的答案,除了過去我講的願景、品味、和愛,還多了幾個在 2026 年之後變得越來越關鍵的能力。

(1) 判斷力

當所有人都可以用差不多的模型、叫出差不多品質的產出,真正拉開差距的,不再是「會不會 prompt」、「懂不懂架 LLM」,而是:你知道該做什麼、不該做什麼、先做什麼嗎?在商業裡,技術已經越來越不是護城河,真正的護城河變成了「你選題目的品味」和「你在資源有限時做取捨的判斷」。AI 可以幫你把一百條路都模擬出來,但最後要踩哪一條,還是要靠人。(延伸閱讀:做一個有方向感的人

(2) 信任與商譽

第二個是信任與聲譽。在一個匿名性更高、加密技術更普及、AI 內容氾濫的網路經濟裡,個人品牌變成一種「信任錨點」。AI 可以無限生成內容,但只有少數人,是你會願意把機密交給他、讓他幫你一起做決策的人。也因為盜竊、詐騙在加密世界裡更難「追回」,人們會本能地偏好只跟誠實、有紀錄、講究品質的人做生意。這讓「誠實、把事情做好」突然有了非常具體的經濟價值,變成一種新的「信任的道德」。在這種世界裡,比起一個不知道誰在裡面的百萬粉絲池,一個彼此真正認識、願意彼此背書的小社群,反而更值錢。

(3) 垂直與深度

通用大模型會把「通用問題」掃一遍,這一層紅利裡面,大部分人只要會用工具就吃得到。真正長期的機會,會慢慢移到垂直領域:你是不是對某個細分行業,有足夠深的理解,深到可以把那個行業的語言、流程、風險、KPI,都變成一套專屬的 AI 工作流?無論是牙醫、古董修復、跨境貿易還是合規審查,這些垂直領域裡的「深知識」,是通用模型很難一口氣取代的東西。

如果把這幾件事加總起來,未來的核心競爭力其實正在從「掌握技術本身」轉向「你怎麼利用技術,做出更好的判斷、建立更深的信任,並在特定的上下文裡高效解決真實問題」

結語

回到 Bill Gates 那句話。兩年,很容易讓我們不是過度恐慌,就是掉以輕心。十年,才是我們真正要重新設計人生軌道的時間尺度。

消除焦慮最好的方式就是行動(如:我自己架設 OpenClaw 後分享的心得)。如果你願意給自己一個很小但認真的約定:從今年開始,每天留一小時給 AI,留十年給自己;那麼未來的某一天,你回頭看 2026,可能不會記得哪一個模型版本號,也不會記得哪一篇恐慌貼文,

你只會記得:這是你正式決定,不再只是旁觀 AI 故事,而是開始用它,慢慢改寫自己十年故事的那一年。只是那時候你會發現,你改寫的其實不只是「工作流程」,而是你對判斷、信任、深度、以及「什麼才是人類真正獨有的價值」這幾件事的理解。