在討論AI時,常常會聽到一句話:大模型很燒錢。
這句話不完全錯,但也不完全對。
問題在於很多人知道很貴,卻不知道貴在哪裡。
如果成本沒有被拆清楚,我們對整個產業的判斷,很容易失焦。
一、Token是什麼?
大模型的收費方式通常基於一個單位:Token。
簡單理解:
-
你輸入給模型的文字 → 會被拆成Token
-
模型輸出的文字 → 也會被拆成Token
輸入Token + 輸出Token= 計費基礎
一般來說,一個漢字約等於1~2個Token。
如果你請模型寫一篇1000字的文章,
大約會消耗幾千個Token。
大模型公司通常按每百萬Token多少美元計價。
二、把數字換成直覺
我們用幾個生活化的例子來看。
生成一篇1000字文章,大約幾美分,寫一篇3000字長文,可能幾美分到十幾美分,生成一本數十萬字小說,可能幾美元。
當你這樣換算後會發現,對於單一使用者來說,AI其實不貴,那為什麼很多人覺得燒錢?
因為成本是乘法。
三、燒錢的不是單次使用,而是規模
如果你是一個普通使用者,每天用幾次模型,成本幾乎可以忽略。
但如果你是一家企業:
-
每天處理數萬筆客服對話
-
每天生成大量內容
-
每天跑自動化流程
Token消耗會快速累積,成本就會放大。
這也是為什麼模型公司關心的是,調用頻率與用戶規模。
而不是單次對話價格。
四、真正的成本在哪裡?
模型公司本身的最大成本,並不是API本身。
而是:
-
GPU算力
-
訓練集群
-
能源消耗
-
工程團隊
例如GPU供應商如 NVIDIA,提供的是模型訓練與推理的核心算力。
而晶片製造商如 台積電,則在更底層支撐整個供應鏈。
換句話說,Token費用的背後,是一整條算力供應鏈。
五、成本下降是趨勢,不是例外
歷史上所有計算技術,都遵循一個趨勢,單位算力成本下降。
從大型機 → 個人電腦,
從撥號上網 → 光纖,
從本地伺服器 → 雲端,
計算能力變強,但單位成本長期下降,AI也不例外。
模型會更強,但推理成本會被優化,硬體會升級,效率會提升。
這意味著,長期來看,AI會越來越便宜。
六、那為什麼燒錢敘」會存在?
因為市場在看兩件事:第一是訓練成本,第二是資本支出。
大型模型訓練動輒數億美元,這確實昂貴。
但這是資本開支(CapEx),不是日常使用成本。
對用戶而言,關鍵不是訓練成本,而是推理成本。
而推理成本,正在快速優化。
七、成本結構對分配意味著什麼?
這一點才重要,如果AI使用成本持續下降,那麼:
-
應用層進入門檻會降低
-
模型競爭會加劇
-
基礎設施需求會增加
成本下降,通常會擴大市場規模,當市場規模擴大,紅利分配的方式也會改變,這才是我們真正應該關心的。
當你聽到AI很燒錢時,你可以問兩個問題:
燒的是訓練成本,還是推理成本?
燒的是單次使用,還是規模擴張?
大多數時候,對個人而言,AI並不昂貴。
真正昂貴的,是底層算力與基礎設施。
而那,也正是分配鏈條裡最穩定的一環。
下一篇,我們來談一個更貼近生活的問題:
當Agent開始執行工作,職業會消失,還是重組?
因為效率提升最直接影響的,不是模型公司,而是勞動市場。