顧衡/長期研究歷史與社會結構的寫作者
關於 AI 是否會取代人類工作的討論一直不少。但或許也可以從另一個角度思考:AI 不會平均賦能,它可能會放大既有差距。
與其只討論 AI 會取代誰,不妨也想一想——AI 會放大誰。
做一個思想實驗。假設有五位本來就極為優秀的企業決策者,判斷成熟、經驗豐富、承擔風險的能力相近,彼此差距其實不大。
其中兩位開始深度且高品質地使用 AI。他們用模型模擬市場情境,用演算法壓力測試反對意見,用數據掃描微弱訊號,用系統檢驗自己的假設盲區,而決策拍板仍然由他們完成。
這些工具帶來的優勢,在單一決策上也許並不明顯,但累積一年下來,整體決策品質可能只多出約5% 的優勢:錯誤率略微下降,風險盲區略微縮小,決策速度略微加快。
這樣的微幅差距,在時間中開始產生複利效果。三年之後,這每年多出的 5% 優勢,在複利計算下可能累積成約 16% 的差距,使原本微小的優勢迅速被放大。
AI 並不平均賦能,它放大的是決策期望值。
多數討論仍停留在「準確率」,但真正的關鍵是決策責任仍然在人類身上。預測可以外包,分析可以外包,報告可以生成;然而是否承擔風險,仍需要有人拍板。
拍板意味著責任,責任意味著權力。現代社會建立在問責制度之上:醫師背負執業風險,企業主管受董事會監督,公職人員面臨政治問責,而程式碼沒有法律人格。
它無法出庭,無法被吊銷執照,無法承擔歷史後果。
只要責任仍然存在於人類制度中,決策權就無法完全轉移。這條防線暫時仍然牢固。
另一個結構限制來自內隱知識。人類判斷大量依賴長期經驗整合、情境感知,以及難以語言化的直覺。
資深醫師看一眼病患神情,經驗豐富的主管聽幾句簡報語氣,就能察覺事情不太對勁。這類判斷往往難以被寫成明確公式。這種情況常被稱為「波蘭尼悖論」(Polanyi’s Paradox):人類能做的事情,往往比能清楚說出的規則還要多。
這些能力缺乏穩定參數邊界。更困難的是,人類往往不知道自己正在使用哪些隱性能力。
模型可以處理被資料化的世界;尚未被形式化的經驗,構成邊界。AGI(通用人工智慧)之所以困難,很大一個原因是現實世界充滿未知情況,而目前的系統主要是在特定資料與任務中訓練出來的能力。
算力可以不斷提升,但很多人類經驗仍然很難被清楚寫成可操作的模型。
AI 正在壓縮中間層的判斷工作。高度流程化的分析將逐漸被工具取代,標準化決策流程將被自動化。
組織結構開始重組:
頂層決策者的槓桿被放大;
底層執行者高度系統化;
中間層的判斷空間被壓縮。
算力成為基礎設施,
決策權成為稀缺資產。
當 AI 工具逐漸普及之後,真正的分水嶺將落在誰握有拍板權、誰能承擔後果。
當機器包辦 99% 的預測與計算,人類剩餘的價值將集中在三個位置:問題定義者、價值排序者、責任承擔者。
AI 不會創造優秀的決策者,它只會放大已經優秀的決策者。
在算力廉價化之後,權力與責任將成為新的競爭核心。未來的差距,不發生在資訊層,而發生在決策層。
這才是 AI 時代真正的結構變化。
★《鏡報》徵文/《鏡報》歡迎各界投書,來文請寄至:editor@mirrordaily.news,並請附上真實姓名(使用筆名請另外註明),職稱與聯絡電話。來文48小時內若未收到刊登通知,請另投他處。回到原文
更多鏡報報導
解放軍「無人作戰」的虛實:解析AI時代認知戰與現代防禦機制
Google來台20年大動作!百萬美元打造AI健康網 300偏鄉糖尿病患受惠
AI爆發掀人才荒 緯創3月啟動大規模校園徵才 實習生也能參與AI專案