搜尋此網誌

2025年7月23日星期三

投資AI 概念股的風險與迷思 - 2 :計算不到的成本開支




我認為投資風險是認清我們不知道的事情,而在AI的事情上究竟我們有幾多是不知道?

近日有港大法律系學生被揭發使用人工智能(AI)軟件生成逾 700 張女性裸照,涉及 20 至 30 名大學同學及中學教職員等。生成式AI竟然用於這些無聊事上,因為都是免費!現時大量的免費使用只是要鬥快搶佔世界市場份額,但web2的免費商業模式及以廣告和投資補貼在生成式AI市場是否行得通?

究竟現時的AI故事是怎麼說的?

Ilya Sutskever, OpenAI的前共同創辦人與前蘋果公司領導AI開發的Daniel Gross, 和前OpenAI 研究員Daniel Levy,三人另起爐灶創辦新的AI公司名為Safe Superintelligence (SSI) ,在未有產品和盈利之前已獲10億美元投資,公司估值達30億美元。由創投基金Greenoaks Capital Partners以5億美元投資領頭, 知名創投基金Sequoia Capital 和Andreessen Horowitz據說亦有參與,基金投資的只是基於一個願景,那就是建立一個更安全的AI系統。

沒有產品和盈利卻獲得高估值在AI行業很普遍,然而現時的AI公司是否有收無盈仍然是個謎。根據The Information 估計2024年OpenAI的經營開支為85億美元,收入只為35億至45億美元,2024年的數據顯示支出是收入的兩倍。根據最新估計至2025年4月,OpenAI的收入為100億美元,但沒有同期支出估算。從多方面的數據顯示,即使LLM公司收入升幅以倍數增長,The Information估算Anthropic2024年度經常性收入(ARR)達20億美元,Perplexity在不到兩年的時間裡,ARR達到了1.2億美元,但令人摸不着頭腦的是沒有估算年度開支,只有瑣碎資料指出許多LLM公司仍然沒有盈利,然而這些公司都不是上市公司,數簿是無需公開的。

那麼我們不禁會問:當使用人數上升的同時,開支會否同步上升?是否越多人用開支越大是一個很重要的問題。Moores Law理論, 科技技術通常是越用越便宜,除着技術進步而令成本日益下降,但對於AI而言,Moores Law是否可以適用?因為AI的使用量上升,處理的數據量大增,算力需求上升,電力需求亦隨之上升,如果用戶願意支付的費用不能追上電費的上升,這又回到文章開首的問題:AI現時的商業模式能否以廣告和投資補貼營運及搶佔市場,這些方法還可以行得幾遠和多久?

Meta公司又話要建設一個覆蓋美國Manhattan 及可擴展至5 Gigawatt的AI Data Centre😱😱😱。究竟這些AI Data centre 用電量和用水量是多少?



另一個數據也是無法估計,那就是AI員工薪酬,這些僱員被搶來搶去至天價,最近Meta公司以天價搶OpenAI的最top僱員,OpenAI向投資者透露,以股票option作為獎勵和留住最top的AI開發員的薪酬在去年飆升了五倍多,達到驚人的44億美元。 這個數字不僅大得驚人,它超越了OpenAI去年全年收入,且佔其37億美元總收入的119%,是矽谷前所未見的加幅。

幾項大的經營成本都是無法估算!

我們看到一些AI公司開始加價或限制使用,顯示收入必須增加來追上成本:

1)Google 大幅提高了Gemini 2.5 Flash型號的價格。 Input代幣價格翻了一番,從每100萬tokens 支付0.15美元增加至0.30美元,而Output價格翻了兩番多,從每100萬tokens 支付0.60美元翻了兩番至2.50美元。 與此同時,他們推出了一款功能較差的新型號「Gemini 2.5 Flash Lite」,價格更低。

2)初創公司Anthropic在今年2月推出編程助理Claude Code大受歡迎,然而卻在上周不動聲色施加限制高階用戶使用額度,變相加價!

3)Grok-3 AI模型 上線一天後,X Premium+及SuperGrok的訂閱價格由22美元月費及年費299美元加至40美元月費及396美元,加幅差不多一倍,因為只有X Premium+及SuperGrok的訂閱用戶可以用Grok-3,反影加價是與AI模型推出有關。

4)當LLM公司都在加價,一些第三方AI公司也就必須要加價。用於Vibre coding 的Cursor便是一例,但加價的透明度非常之低。用戶使用他們選擇的人工智能模型在Cursor上寫code,當到達20美元的限制時便必須再付費,然而有用戶指只是寫了幾個prompt 便被要求再付費,如何計出限制的畫線和幾多prompt 需要幾多費用卻完全無從稽考!

價格上漲的原因是成本上升,計算背後供應成本的公式如下:

API價格≈(每小時硬體成本/每小時代幣吞吐量)+利潤率

而變數的關鍵是吞吐量!公式來自sutro的文章名為「The End of Moore's Law for AI? Gemini Flash Offers a Warning 」

文章比較長,簡而言之,output 是根據你的input計算,而如果你的問題越長,即input越長,output 越長。根據CTO的經驗,如果用戶在同一主題持續問問題,這會導致AI 每次都要回到memory 再loop一次作出分析,而如果你在結尾對AI講「Thank you」,AI又要從頭到尾loop一次分析,因而增加耗電量,因此使用量output 是難以預估。改善GPU會否減少電力消耗仍有待觀察,但問題是現時那些AI 公司並不透明!

如果沒有公開更多的開支數據、數據處理的成本、用電量、用水量,現時的AI泡沫有多大是無法計算!(未完)



2025年7月17日星期四

AI 與騙徒




上篇文章討論AI 未能做決策,人類未可完全相信AI,話口未完,上週便有個很好的實例。

上星期由於熱帶氣旋「丹娜絲」的殘餘影響,天文台見及週四雨勢洶洶,曾三度發出紅色暴雨警告,因此遂預告暴雨持續至週五,教育局亦隨之宣布全港週五停課,然而上週五全日一滴雨都沒有,學生無端端多了一個三天週末長假期,當然要趁機北上staycation 消費一番!(之前有個天才議員話香港人太多假期?倒是真的啊!)🤣🤣

外國地方大,例如加拿大,雨雲幾時到是有數可計,因此加拿大天文台可以準確預測一星期的晴雨。但香港天文台過去從不會預測雨,因為香港是一個很細的地方,雨來得很快,很難預測。然而自從有了AI和運算超強的電腦,天文台預測暴雨來臨的準確性高了,我認為今次天文台豪情壯語預測翌日的暴雨很大可能是被AI坑了。天文台指出多個模型都預測週五將持續暴雨!

其實,信任通常需要假以時日,不會第一次的模型預測便相信,模型預測通常需經過長時間測試,直至準確度高,及至可靠才會採納它的預測,然而一相信便中伏了,就像一個騙子,初期接觸多是半信半疑,信任度的增加通常伴隨着準確性的提升,然後你完全信任的時候才一次過割韭菜!我想講的是,無論AI模型過去準確幾多次,都會有機會隨時一次過坑你!我自己過去便試過,一直以AI寫APP的英文稿,好好的幾段文字,突然中間有句唔make sense的句子,要很小心才看到出來!AI未能完全信任,並非無的放矢!


2025年7月10日星期四

投資AI 概念股的風險與迷思 - 1




我們每天都在用AI寫信、寫文章、編輯 、校對、分析股票、問健康問題、旅遊問題、Gen 圖在TG 谷吹水使用,那麼有用的工具,自己投資都是理所當然,而且大部份的人都認定AI發展是未來,投資AI概念股有買貴,無買錯,對嗎?真的是這樣嗎?有沒有想過現時OpenAI的發展方向可能有問題?

2023年OpenAI開發的ChatGPT推出之後,傳媒及一些行外投資人不斷吹噓AI取代人類工作,尤其低層及中層工種將面臨大規模裁員,引發很多打工一族的疑慮。繼ChatGPT 之後,科技巨頭紛紛推出大語言模型,Claude、Gemini、 Llama、Grok、Deepseek相繼推出,而LLM(Large Language Model)的發展陸續轉向另一里程LRM(Large Reasoning Model),LRM的發展對AGI (Artificial General Intelligence*)尤為重要,科技巨企及VC都大量投資於AGI,AGI是指人工智能擁有有如人類智慧水平的理解、學習、自我改進和應用知識的能力,此為self learning 的AI。這些有如人類的學習能力,理論上像人類般能夠舉一反三,從一個領域的學習與轉移到另一個領域,甚至能夠獨立作出決策,而無需持續的人類指導。由於擁有人類的推理能力,AGI亦應該能夠處理不同專業能力及預見問題。

AGI的不斷自學及不斷自我改良能力,對未來人型機械人和無人駕駛車在路的自主決策能力和發展能否擴大(scalability)起關鍵作用!

然而AI reasoning被受質疑,最被受爭議的是蘋果公司的「The illusion of Thinking 」,很多質疑都針對蘋果公司沒有追上AI發展潮流,現在只能透過與AI 公司合作(包括OpenAI、Perplexity 、千問等),iPhone 才能擁有AI能力。

筆者看罷了兩份正反兩面的報告:「The illusion of Thinking 」和「The illusion of the illusion of Thinking 」,加上CTO使用Copilot寫codes 的經驗,筆者傾向認同蘋果公司的「The illusion of Thinking 」。

蘋果公司的「The illusion of Thinking 」報告中,AI研究人員利用益智遊戲河內塔(Tower of Hanoi ) 和渡河(River Crossing),這些遊戲能在規則保持不變的情況下,可逐步調整困難度來測試LRM的推理能力。

研究以三個階段(簡單、中度、艱難)來調整兩項遊戲河內塔和和河道口的困難度,看看這些模型的思考能力,結果發現:

1. 簡單的問題:標準模型更快、更準確,使用更少資源。

2.中度問題:LRM在這裡做得更好。 他們反思的、一步一步的思考顯示了價值。

3. 艱難問題:兩者都失敗。 問題越複雜,LRM解決它所付出的努力就越少,很早便放棄了。

隨著問題的複雜程度增加,LRM模型會開始減少推理,直至臨界點,它們會完全崩潰,即使增加它們的資源,它們仍然會停止產生準備確的解決方案,甚至完全放棄。

研究指出,最令研究人員驚訝的發現是:即使提前給模型提供了正確的演算法,它仍然很難可靠地執行。

蘋果公司的研究人員透過跟蹤這些LRM模型如何產生中間解決方案來檢查這些模型的內部「思想過程」,從中發現這些LRM 在遇到困難度高的題目時花了很多時間在錯誤的選項中徘徊,出現過度思考的現象。

報告結論是,這些模型並不真正知道他們何時走上了正確的軌道,他們無法從好的推理經驗中辨認出好的推理意識。 這不僅僅是一個技術限制,而是有關基礎問題。這發現很重要,因為這關乎對AI的信任、它的判斷力,以及我們未來如何與機器合作有關,當我們越來越多向AI尋求支援,涉及的範疇在學習、發展、業務戰略和決策方面,我們是否高估了這些系統能做什麼?

蘋果研究團隊在論文的最後指出,儘管很多炒作,但目前的模型可能會觸及一堵牆。 他們認為,僅僅擴大計算和提示技術可能不足以達到真正的推理。

這結果令人重新審視AI的真正推理能力。

另一方面, Anthropic 公司的的報告題為「The illusion of the illusion of Thinking 」 ,對蘋果公司的報告作出了反駁,他們認為測試至艱難程度時,這些模型並沒有足夠token完成任務,因此出現「放棄」情況。

為何會出現token不足的情況?這報告指出,蘋果公司的研究測試要求模型列出每次移動決策過程(這可能是研究人員需要跟蹤模型思考過程),結果造成了多次重複使用token。這情況下,變成每次模型糾錯的解決方案時都逐個評分,這項限制可能會導致錯誤分析。

他們認為不應該忽視模型在解決河內塔問題時明確指出「模式仍在繼續,但為了避免太長,我將到此停止」。 這表明模型理解解決方案模式,但由於實際限制,選擇截斷輸出。結論是模型的失敗是源於實驗設計的問題。

我不想糾纏哪一個測試研究的對錯,只是想列出「The illusion of the illusion of thinking 」的另一面思考。

其實並不只蘋果公司的研究報告質疑AI reasoning ,另一份研究報告「Why Do Multi-Agent LLM Systems Fail?」亦質疑AI執行的準確性。

近日AI agent成為AI另一發展焦點,Multi-AI agent system越來越多涉及不同工作領域,如software engineer 、healthcare、藥物發現、科學模擬等等,初創企業均以開發AI agent 來處理複雜、multi task 任務和不同環境動態互動,然而報告測試發現,multi-AI agent system 處理這些工作的錯誤率為66%,準成度受到質疑,這使得基於LLM的AI agent系統獨立處理現實世界的問題被受質疑。





個人經驗而言,我們的CTO也有使用copilot寫code和debug program, 他的經驗是AI寫program只能是提供一個框架,debug時也只是提供另一個意見,在正確執行上仍然需要程式員完善和完成,更遑論一個不懂程式的人可以靠幾句prompt寫出複雜程式和網站功能出來,而技術門檻低的應用程式和網站功能又要面對激烈競爭。所以大部份吹水評論指程式員會無工做是高估了AI的能力,或許AI能夠取代的只是低級程式員而已!

說到這裏,我們開始重新審視AI獨立決策的未來能否真正執行?這只是問題之一!

問題之二留待下次再談!Stay Tune!