我認為投資風險是認清我們不知道的事情,而在AI的事情上究竟我們有幾多是不知道?
近日有港大法律系學生被揭發使用人工智能(AI)軟件生成逾 700 張女性裸照,涉及 20 至 30 名大學同學及中學教職員等。生成式AI竟然用於這些無聊事上,因為都是免費!現時大量的免費使用只是要鬥快搶佔世界市場份額,但web2的免費商業模式及以廣告和投資補貼在生成式AI市場是否行得通?
究竟現時的AI故事是怎麼說的?
Ilya Sutskever, OpenAI的前共同創辦人與前蘋果公司領導AI開發的Daniel Gross, 和前OpenAI 研究員Daniel Levy,三人另起爐灶創辦新的AI公司名為Safe Superintelligence (SSI) ,在未有產品和盈利之前已獲10億美元投資,公司估值達30億美元。由創投基金Greenoaks Capital Partners以5億美元投資領頭, 知名創投基金Sequoia Capital 和Andreessen Horowitz據說亦有參與,基金投資的只是基於一個願景,那就是建立一個更安全的AI系統。
沒有產品和盈利卻獲得高估值在AI行業很普遍,然而現時的AI公司是否有收無盈仍然是個謎。根據The Information 估計2024年OpenAI的經營開支為85億美元,收入只為35億至45億美元,2024年的數據顯示支出是收入的兩倍。根據最新估計至2025年4月,OpenAI的收入為100億美元,但沒有同期支出估算。從多方面的數據顯示,即使LLM公司收入升幅以倍數增長,The Information估算Anthropic2024年度經常性收入(ARR)達20億美元,Perplexity在不到兩年的時間裡,ARR達到了1.2億美元,但令人摸不着頭腦的是沒有估算年度開支,只有瑣碎資料指出許多LLM公司仍然沒有盈利,然而這些公司都不是上市公司,數簿是無需公開的。
那麼我們不禁會問:當使用人數上升的同時,開支會否同步上升?是否越多人用開支越大是一個很重要的問題。Moores Law理論, 科技技術通常是越用越便宜,除着技術進步而令成本日益下降,但對於AI而言,Moores Law是否可以適用?因為AI的使用量上升,處理的數據量大增,算力需求上升,電力需求亦隨之上升,如果用戶願意支付的費用不能追上電費的上升,這又回到文章開首的問題:AI現時的商業模式能否以廣告和投資補貼營運及搶佔市場,這些方法還可以行得幾遠和多久?
Meta公司又話要建設一個覆蓋美國Manhattan 及可擴展至5 Gigawatt的AI Data Centre😱😱😱。究竟這些AI Data centre 用電量和用水量是多少?
另一個數據也是無法估計,那就是AI員工薪酬,這些僱員被搶來搶去至天價,最近Meta公司以天價搶OpenAI的最top僱員,OpenAI向投資者透露,以股票option作為獎勵和留住最top的AI開發員的薪酬在去年飆升了五倍多,達到驚人的44億美元。 這個數字不僅大得驚人,它超越了OpenAI去年全年收入,且佔其37億美元總收入的119%,是矽谷前所未見的加幅。
幾項大的經營成本都是無法估算!
我們看到一些AI公司開始加價或限制使用,顯示收入必須增加來追上成本:
1)Google 大幅提高了Gemini 2.5 Flash型號的價格。 Input代幣價格翻了一番,從每100萬tokens 支付0.15美元增加至0.30美元,而Output價格翻了兩番多,從每100萬tokens 支付0.60美元翻了兩番至2.50美元。 與此同時,他們推出了一款功能較差的新型號「Gemini 2.5 Flash Lite」,價格更低。
2)初創公司Anthropic在今年2月推出編程助理Claude Code大受歡迎,然而卻在上周不動聲色施加限制高階用戶使用額度,變相加價!
3)Grok-3 AI模型 上線一天後,X Premium+及SuperGrok的訂閱價格由22美元月費及年費299美元加至40美元月費及396美元,加幅差不多一倍,因為只有X Premium+及SuperGrok的訂閱用戶可以用Grok-3,反影加價是與AI模型推出有關。
4)當LLM公司都在加價,一些第三方AI公司也就必須要加價。用於Vibre coding 的Cursor便是一例,但加價的透明度非常之低。用戶使用他們選擇的人工智能模型在Cursor上寫code,當到達20美元的限制時便必須再付費,然而有用戶指只是寫了幾個prompt 便被要求再付費,如何計出限制的畫線和幾多prompt 需要幾多費用卻完全無從稽考!
價格上漲的原因是成本上升,計算背後供應成本的公式如下:
API價格≈(每小時硬體成本/每小時代幣吞吐量)+利潤率
而變數的關鍵是吞吐量!公式來自sutro的文章名為「The End of Moore's Law for AI? Gemini Flash Offers a Warning 」
文章比較長,簡而言之,output 是根據你的input計算,而如果你的問題越長,即input越長,output 越長。根據CTO的經驗,如果用戶在同一主題持續問問題,這會導致AI 每次都要回到memory 再loop一次作出分析,而如果你在結尾對AI講「Thank you」,AI又要從頭到尾loop一次分析,因而增加耗電量,因此使用量output 是難以預估。改善GPU會否減少電力消耗仍有待觀察,但問題是現時那些AI 公司並不透明!
如果沒有公開更多的開支數據、數據處理的成本、用電量、用水量,現時的AI泡沫有多大是無法計算!(未完)
沒有留言:
發佈留言
請留回應!