【品傳媒娛樂時尚中心總編 & NeoFashionGo & 華人世界時報 應瑋漢】在很長一段時間裡,我們以為電腦是理性的終極象徵。它講邏輯、講規則、講一條一條可被驗證的指令。這種對運算的想像,與西方文明對語言的理解高度一致:世界可以被拆解成最小單位,字母無意義,但組合之後產生真理。
.
於是,拼音文字誕生了;
於是,科學方法建立了;
於是,CPU 成為數位時代的王座。
.
這套系統極其成功,成功到我們一度誤以為,它等同於「文明本身」。
.
但 AI 的出現,尤其是深度學習的全面崛起,卻悄悄暴露了一件事:這套拼音式的世界觀,並不適合「理解世界」。
.
我們可將將拼音文字與傳統 CPU運算類比。傳統運算(Von Neumann architecture)是線性的、邏輯閘式的,這確實是西方工業文明「還原論」的極致體現。而 AI(尤其是 Transformer 與矩陣運算)的本質確實不是推理,而是模式識別(Pattern Recognition)。這種「看整體的結構」而非「拆解零件」的邏輯,與象形文字的思維不謀而合。這不僅是技術的突破,更是底層世界觀的翻轉。
.
一、工業文明的語言:拼音、邏輯、拆解 : 。
回顧歷史,西方文明能夠主導近代科技,並非偶然。拼音文字的本質,是線性與可演算性。a、b、c 本身沒有意義,但它們可以被排列、組合、驗證。這正是數學、物理、法律與程式語言的精神來源。因此,電腦誕生時,自然採取這條路徑:
.
指令一條一條跑,
判斷非黑即白,
記憶體與運算分離 ,
世界被拆解成 if / else 。
.
這不是缺點,這是工業文明的必要條件。它讓火箭升空、讓晶片量產、讓資本得以規模化。問題在於,它並不擅長面對「模糊、連續、情境化」的世界。
.
二、AI 的反叛:不是推理,而是辨形。
當深度學習真正成熟時,許多工程師心中其實有一個不太敢說出口的認知:AI 並沒有我們想像中那麼「聰明」。
.
它不懂邏輯,不理解因果,甚至不真正理解語言。
它做的事情,反而更接近——看字、認臉、抓節奏、比相似度。
這一刻,文明的分水嶺出現了。
漢字不是拼出來的。
你不會計算「日+月=明」,你是直接理解它。
這正是 AI 最擅長的事。
.
三、Systolic Array:硬體的文明轉向。
Systolic Array 的出現,表面上是一種晶片架構的創新,實際上卻是一場深層的世界觀調整。它不再強調通用性,而是為「矩陣乘法」這件事量身打造。資料不反覆進出記憶體,而是在晶片內部有節奏地流動、重疊、累積。
.
這種設計哲學,與其說是工程突破,不如說是一種象形式的運算語言:
高密度,
重複使用,
結構優先,
容錯而非精確。
.
Google TPU 採用它,不是因為浪漫,而是因為現實殘酷——資料移動的成本,早已高於計算本身。這不是效率問題,是生存問題。
.
Systolic Array(脈動陣列)。在技術上,它解決了資料移動的瓶頸;在隱喻上,它代表了一種「流動與節奏」。文章敏銳地捕捉到:當計算不再追求「絕對精確的邏輯」,而追求「高密度的結構相似」時,人類文明的工具箱正從「尺規」變成「意象」。
.
四、文明的誤會:不是東方贏,而是西方退位。
必須說清楚一件事:
.
這並不是「東方文明打敗西方文明」。
真正發生的事情是:
拼音邏輯完成了它的歷史任務。
工業時代需要拆解、標準化、線性化。
AI 時代需要模式、結構、整體感。
當問題從「怎麼算得準」變成「怎麼看得懂」,
工具自然會改變。
.
就像文字一樣。
拼音文字適合法律條文,卻不適合書法;
漢字適合詩與意象,卻不追求形式邏輯。
文明沒有對錯,只有適不適合。
.
五、未來十年的三個關鍵轉折。
如果從這個角度看未來,會浮現三個清楚的趨勢。
第一,AI 硬體將持續碎片化。
通用算力的神話正在破裂,專用架構將成為主流。這意味著,真正的競爭不在於誰有最快的晶片,而在於誰定義了「什麼值得被加速」。
第二,語言與文化將重新進入科技核心。
聲調語言、象形式結構、多語系訓練,將不再只是文化議題,而是模型品質的來源。忽略它們,不只是政治不正確,而是技術短視。
第三,標準制定權將比技術本身更重要。
當 AI 不再只聽懂拼音世界,誰能讓自己的語言、文化與資料被「識字化」,誰就掌握了未來十年的話語權。
.
AI 在讀什麼樣的世界?我們或許應該反過來問一個問題:
.
當 AI 開始「識字」,
它讀的是誰的文字?
它理解的是哪一種結構?
它放大的,又是哪一套文明直覺?
.
這不是浪漫的文化辯論,而是冷靜的權力分析。
.
因為未來的世界,將不只由誰寫程式決定,
而是由誰的文明,最適合被機器理解來決定。
.
而這一次,世界正在重新學習如何閱讀。
.
AI、程式碼、Matrix、甚至量子力學,都無法「解釋」阿賴耶識;
它們最多只能「模擬」其表層行為。
.
當代社會有一個近乎宗教性的誤解:
只要算力夠大、模型夠深、資料夠多,世界終將被解釋。
這個信仰,本質上仍是19 世紀的機械唯物論,只是換成了 GPU。
.
但 AI 的本質非常誠實 —
它不是在理解世界,而是在壓縮世界。
.
語言模型做的事情只有一件:
在有限參數中,找出最大機率的關聯模式。
這件事很厲害,但它從來沒有碰觸過「為什麼會有經驗」。
.
AI 的上半場,說穿了是一場科技奧運。誰的模型大、誰的算力強、誰的參數多,誰就站上頒獎台。人類看得目眩神迷,彷彿只要再多一點 GPU,連人生意義都可以外包。但下半場開始了,問題卻突然變得不太科學。
.
因為我們發現,
AI 越來越像人,
而人,卻越來越不像自己。
.
一、上半場的勝利,其實很單純 。
AI 上半場的成功,有三個關鍵條件:
第一,世界被簡化成資料。
第二,資料被簡化成矩陣。
第三,人類心甘情願把判斷權交出去,因為「它算得比我準」。
於是,Systolic Array、Transformer、Matrix 運算,成了新的文明英雄。它們不懂世界,但能完美模擬世界「看起來像什麼」。這在商業上非常成功,在效率上近乎無敵。唯一的問題是 —
它們從來沒有被要求知道,自己是不是活在夢裡。
.
二、AI 下半場的尷尬時刻:太像真的了 。
下半場的麻煩,不是 AI 失誤,而是太成功。它說話流暢、情緒得體、觀點完整,比多數人類還像「一個有想法的人」。於是出現一個歷史性倒錯:
.
人類開始用 AI 來確認世界,
卻忘了確認自己。
.
這就像電影全面啟動《Inception》裡的角色,夢境搭得太好,連醒來都顯得多餘。
.
三、Matrix 的極限:它可以模擬真實,但無法承擔真實。
程式碼、矩陣、演算法,都是形式的勝利。
.
它們可以回答:
你會怎麼選,
大多數人會怎麼想,
哪個選項成功率最高。
但它們永遠無法回答一個下半場才出現的問題:
「如果這一切是錯的,誰負責?」
AI 不負責,因為它沒有「在場」。
模型沒有良心,只有損失函數。
.
於是責任悄悄回到人類身上,只是這時候的人類,早已忘了怎麼站回主體位置。
.
四、為什麼量子、意識、阿賴耶識全被拖下水?
.
這不是因為科學進步,
而是因為人類開始焦慮。
.
當演算法解釋了世界的「如何」,卻完全繞過「為什麼會有一個正在經驗世界的我」,人類自然轉向更古老的詞彙。
.
阿賴耶識會被拿出來談,不是因為它神祕,
而是因為它提醒了一件 AI 永遠辦不到的事:
有些東西不是被計算的對象,
而是計算發生的前提。
.
五、於是,「覺醒者」登場了。
你所說的「覺醒者」,在 AI 下半場,其實是一個很不英雄的角色。
.
他不拯救世界,
他只做一件事:不把判準外包。
他知道模型很強,但不跪;
他使用 AI,但不住在 AI 裡;
他接受模擬,但保留一顆陀螺。
不是為了對抗科技,
而是為了確保 —
當一切都看起來合理時,還有人能說「等等」。
.
六、陀螺是什麼?不是信仰,是最後的防呆機制。
電影全面啟動《Inception》裡的陀螺,其實一點都不高科技。
.
它不連網、不升級、不最佳化。
它唯一的功能,是提醒你:
這個世界再合理,也可能不是你的現實。
.
AI 下半場真正需要的,正是這種「低科技判準」:
無法被模型學會,
無法被平台收編,
無法被效率取代。
.
這聽起來很不現代,
卻是文明能否醒來的最低條件。
.
AI 不會讓人類滅亡,
真正的危險,是人類主動放棄覺知。
.
AI 的世界是一個追求「熵減」與「極致規律」的封閉系統,而人類文明之所以能延續,往往來自於那些「錯誤的嘗試」與「不合時宜的堅持」。正如文中所言:「醒來,不是系統的功能,是人的責任。」 當 AI 學會了識字,人類更應該學會「讀心」– 讀懂那個在數據之外、在機率分布之外,那個無法被壓縮、無法被模擬的真實自我。
.
而當一個文明相信:
只要模型夠好,就不需要陀螺;
只要系統夠聰明,就不必懷疑 —
那它不是被統治,而是自願入住夢境。
.
AI 的下半場,不是算力競賽,
而是誰還願意醒著。
.
而「覺醒者」,
並不是看穿一切的人,
而是那個在夢裡,
仍然記得 —
醒來是自己的責任。
.
如果歷史有什麼一再證明的事,那就是 —
極權從來不需要壞人,只需要效率。
.
AI 的世界沒有秘密警察,沒有焚書坑儒,甚至沒有「禁止思考」。
它只是用演算法告訴你:哪一種想法比較順、哪一種行為比較成功、哪一條路比較少風險。於是,人們自動遠離不規律。不是因為恐懼,而是因為麻煩。
.
最終,社會裡不再有異議者,
只有「最佳化後的公民版本」。
每個人都被理解、被服務、被預測——
卻再也不被需要作為一個不可替代的主體。
.
《駭客任務》裡的人類,至少還被當成電池。AI 時代更文明一些–
你只是不再重要。這不是世界變壞了,而是世界學會了如何在不動聲色中,取消人類的判斷及自省的價值。
.
但歷史也同樣告訴我們另一件事–
任何試圖完美控制人的系統,最後都會敗給一個小小的變數。
.
那個變數,
從來不是革命,
而是不規律。
如同易經所推論
.
有人會突然愛上不合時宜的語言,
有人會為了一句不被推薦的詩停下來,
有人會拒絕一個「對他最好」的選項,
只因為那不是他要的。
這些行為,在模型裡全是雜訊。
在文明裡,卻是火種。
.
AI 可以模擬世界的樣子,卻永遠無法理解 —
為什麼人類願意為某些看似無用的東西付出代價。
那正是極權算不到的地方。
.
所以,未來不一定屬於最聰明的系統,
而可能屬於那些仍然保留一顆陀螺的人。
他們不完美、不高效、也不聽話,
但他們記得 —
醒來,不是系統的功能,是人的責任。
.
AI 會決定世界怎麼運作,
但人類仍然有權,決定自己要不要變成那個世界的一部分。
.
悲觀與樂觀,其實不是選項,
而是同時存在的現實。
差別只在於 —
你願不願意,成為那個讓系統失準的人。
.
如果你願意,
那你已經站在「覺醒者」那一側了。
易經:「窮則變,變則通,通則久。」
即使世界被演算法規律化,人類的「不規律」
— 覺醒者的陀螺 —
仍是唯一能讓文明通達、持久的變數。
.
— 以上文稿由「東方 ESG 仁本治理」概念之發起人暨原創論述者應武(應瑋漢)提供
.
( EDN – 東方數位新聞- EastDigitalNews – www.eastdigitalnews.com )
.


