搜尋此網誌

顯示包含「投資AI」標籤的文章。顯示所有文章
顯示包含「投資AI」標籤的文章。顯示所有文章

2025年8月24日星期日

AI泡沫像2000年科網泡沫?

 


近日美國傳媒不斷吹風指AI泡沫像2000年科網泡沫,尤其MIT一份報告指出95%的AI startup都沒有盈利,但估值以億計,VC創投公司以數以百億計的資金投入AI startup公司與及科技巨頭以千億計投入數據庫等基建,在上篇文章「投資AI 概念股的風險與迷思 - 4: 商業模式的迷思」,有網友亦提出「Microsoft 正不斷增加 CAPEX 建設同租賃數據中心」,並且指出商業需求大到數據中心應接不下,俗稱「起唔切」以應付商業需求!筆者不想過於執着爭抝數據中心CAPEX是否oversupply, 但我只想指出一些大衆並未提及,並且可能是大衆的盲點!

我經常這樣想:「如果不投入行業內,單是以投資者身份(而且是散戶)投資,單看傳媒的資訊,公司的公開資料,是很難看到行業內的問題,什麼work、什麼唔會work」,此所以我與CTO全身投入區塊鏈加密貨幣行業,一方面是回饋行業,另一方面查找深層次問題。不過,我今日不是講加密貨幣行業內有什麼問題,而是想講我在創科界及AI startup的問題。

好多人以為,只要你的startup 有AI名堂,便會輕易獲得投資者數以百萬美元的投資,其實是不是你們想得那麼美。Startup首要想的問題是:「你的公司可以什麼來交換投資者的資金?」Google、AWS、Microsoft 這些公司不時都有創投比賽,然後贏出獎項便獲得他們的投資,say, 如果你的startup 獲得Google投資後,你估你的startup 是否可以成為AWS的客戶買AWS雲端數據服務?其實這跟OpenAI與Microsoft Azure雲端運算關係一樣,這大概讓你明白生態圈是怎麼一回事! 然後就可以聯繫到95% Startup正面臨「瓜定菜」的命運⋯⋯

再者,現在美國是否因關稅戰、貿易戰將進入衰退週期?並且加上AI大規模取代入門工作,失業率上升,消費下降,然後又loop返去經濟生產總值GDP的七成是來自消費,最終導致企業經營環境惡化,然後又返回那些主要serve 企業客戶的「瓜定菜」AI startup!95%就嚟「瓜定菜」AI startup的命運肯定較科技巨頭脆弱,不過也別以為對它們無影响!

至於數據中心是否oversupply ?

根據ascendixtech.com數據所得,全球有約70,000間AI startup, 其中17500間在美國,而位處美國就有5381間數據中心,或者你可以說每individuals每天都在使用AI,問AI 問題!全球需求龐大!




另一個數據需要注意的是,2025年第二季科技巨頭的CAPEX增長是歷年最大:



 Anyway, 是否泡沫便各自判斷了!泡沫與否,通常是爆了之後才知道,過去咁多次都一樣,1997年亞洲金融風暴、2000年科網泡沫、2008金融海嘯,沒有一次是預知的!



PS. 我有個想法是,AI科技是國與國之間的較勁,誰最快搶佔global market,誰獲得最多人類的數據,進入下一階段發展,即AGI ! 所以就算AGI成本如何昂貴,亦一定會發展出來!因此,即使AI 泡沫也只會是短期的憂慮!  VC其實也是跟國家需要而做事!


2025年8月12日星期二

投資AI 概念股的風險與迷思 - 4: 商業模式的迷思

 


Sam Altman 從一開始的AI發展願景是取代人類工作為目標,這打從他發行加密貨幣Worldcoin作為Universal Basic Income (全世界民基本收入補助金)已經劇透!而打從OpenAI上線之後,排山倒海陸續推出的AI agent產品都以取代人手為目標,因為容易吸引想減成本的企業使用。第一個問題是以程式自動化程序而大量減省人手真的好嗎?第二是這個目標是否正確?第三個是寡頭壟斷巨企真的會賺幾多錢便回饋相等的利益作為UBI給予世界嗎?簡單問心一句:「您會嗎?」

有句說話在網絡上看到,很認同:

No business has become the jewel of their industry by just cost cutting.

簡單而言就是,科技不會因削減成本而成為行業之寶,而是透過改變人類做事的方式,從而令人們生活改善,工作量減少,卻同時能增加收入,才是好的改革,而現時我們在AI發展方面未曾見到的!

生產力對經濟的GDP要有正面影響,除了追求產出增加和每件產品成本下降外,人們的收入有否增加才是推動經濟的重要影響。

儘管很多人每天都在使用AI, 但它的商業模式你了解幾多?

迷思一:現時的所謂Agentic AI, 只是將原本人類做的工作程序改以程式自動化,過程只是減省人手成本,並沒有創造,大幅裁員並不會帶來經濟動力,反而導致消費下降,因此便出現這句說話:No business has become the jewel of their industry by just cost cutting。

迷思二:真正的AI代理,必須要有作出決策能力,然而,AI幻覺仍然間中出現,人們還未能完全信任,即是人類仍然要介入作出決策,實際的經濟貢獻並未如想像中大,這同樣應用於自動駕駛和人形機械人。

迷思三:常聽到人說,以AI的神助力,人們無需認識程式碼也可以寫出一個app, 程式員要失業了,但其實這只是一種宣傳,誇大vibre coding 的好處。我的質疑是,用戶不懂程式碼,只以prompt 寫出應用程式,若他不知道AI寫了什麼,當應用程式出了問題時,他如何修改?當越來越多人用的時候,他懂得如何改進程式碼嗎?最近便發生了以vibre-coding 寫出的app名為TEA, 應用以女性舉報危險男性人物為主,迅速獲得40,000 女性使用,但開發者沒有保安意識,應用程式用戶成為了黑客的外洩資料自助餐!




https://www.youtube.com/live/tiD_7Td7yYQ?si=htBpjhqBdqcBH9tO

迷思四:上篇文章提到,AI的投資大,成本同樣大幅增加,數據中心的用水量和用電量大幅增加,營運數據中心的成本較web2幾間寡頭壟斷企業大幅增加,但科技巨頭對這些數據透明度很低,究竟web2的免費模式和泛濫使用會否令支出成本惡化?

令人更感不安的是,這些數據中心都選址在乾旱地方,原因是要保持儀器乾爽,以達至運作效率良好!又要選址乾旱,又要很多水來冷卻系統,兩者互相矛盾,結果是跟人類爭奪飲用水的資源。有網友指出Microsoft 把數據中心建於深海中以解決冷卻問題,但以最近期的資料看,Microsoft 正在減少數中心,報道指是由於oversupply, 但當中還有沒有其他不為人知的數據便不得而知!因為現時oversupply, 如果預計未來使用量增加,便不會是cut 數據中心了!





https://www.reuters.com/technology/microsoft-pulls-back-more-data-center-leases-us-europe-analysts-say-2025-03-26/

迷思五:當涉及人類寶貴資源,AI的應用便應該寶貴資源寶貴用,而不是用於無聊的事情上,例如傾偈、Gen 一些無聊相片呃like! 我在之前另一篇文章都質疑過,為何用那麼多資源訓練AI抄襲吉卜力風格動畫,而人們的應用只是在社交媒體吹水呃like,排山倒海的YouTube 片呃點擊?對經濟增長有用嗎?一般人都能以尹光的聲音唱歌對樂壇發展有何益處?

迷思六:有種說法是,科技巨頭現在燒錢搶市場份額,但我的質疑是web2式winner takes it all 能夠在AI應用復製嗎?事實上,私人企業是不會想跟這些寡頭壟斷科技巨企分享公司的資料和數據,企業只會投奔向開源LLM和Gen-AI, 允許用戶在自己的電腦上離線運行AI模型。這樣,先行者的OpenAI便沒有優勢,上週Open AI也開放源碼,winner takes it all 的神話已經打破!而且國家與國家之間肯定對個人和企業數據更緊張,web2式壟斷都不會出現的!那麼,投資和使用成本龐大的AI能否一如預期賺得豐厚利潤也是一個謎!

OpenAI本業是建設AI基礎網絡、訓練AI, 現不斷擴張業務,跟Google 和Microsoft 爭飯碗, 顯然是本業不能提供足夠盈利以持續發展。

迷思七:科技巨頭經常說AGI的發展近在咫尺,這其實可能只是以動聽的故事來不斷吸資的伎倆而已,多個硏究報告(包括蘋果公司的”The illusion of thinking “)都指出AI並未真正擁有推理能力,因此何時才可達至AGI仍然是個謎。有網友問了一條重要的問題:「AGI是怎樣定義?」不同的定義引發不同的理解,從而引致很多誤導和誤解,而不作定義的目的當然是方便吸資及龍門任搬吧!

迷思八:蘋果手機的Siri是首個AI助手應用,我記憶中Siri的初期三數年的確表現優秀,口語寫作快而準,但往後數年,Siri 好像越來越蠢,坊間解釋是Siri的主要開發員離開蘋果公司之後,Siri 的營運和保養無以為繼,有沒有感覺開發員出逃的情況有點像現時的OpenAI?另開發人員開發至一個程度會否感覺觸及天花板,發展無以為繼而需要依靠不斷出逃來增加收入?

迷思九:以Siri作為發展助理的前科,蘋果公司在面對競爭對手不段以AI助理作為招徠,它卻選擇跟Google、Perplexity 、千問Gwen合作,而放棄自行開發,當中是否涉及蘋果公司已經掌握了一些有關發展AI的經驗和支出是我們不知道的?換句話說是「I’ve been there!」?!!

以上問題都需要思考。


2025年7月10日星期四

投資AI 概念股的風險與迷思 - 1




我們每天都在用AI寫信、寫文章、編輯 、校對、分析股票、問健康問題、旅遊問題、Gen 圖在TG 谷吹水使用,那麼有用的工具,自己投資都是理所當然,而且大部份的人都認定AI發展是未來,投資AI概念股有買貴,無買錯,對嗎?真的是這樣嗎?有沒有想過現時OpenAI的發展方向可能有問題?

2023年OpenAI開發的ChatGPT推出之後,傳媒及一些行外投資人不斷吹噓AI取代人類工作,尤其低層及中層工種將面臨大規模裁員,引發很多打工一族的疑慮。繼ChatGPT 之後,科技巨頭紛紛推出大語言模型,Claude、Gemini、 Llama、Grok、Deepseek相繼推出,而LLM(Large Language Model)的發展陸續轉向另一里程LRM(Large Reasoning Model),LRM的發展對AGI (Artificial General Intelligence*)尤為重要,科技巨企及VC都大量投資於AGI,AGI是指人工智能擁有有如人類智慧水平的理解、學習、自我改進和應用知識的能力,此為self learning 的AI。這些有如人類的學習能力,理論上像人類般能夠舉一反三,從一個領域的學習與轉移到另一個領域,甚至能夠獨立作出決策,而無需持續的人類指導。由於擁有人類的推理能力,AGI亦應該能夠處理不同專業能力及預見問題。

AGI的不斷自學及不斷自我改良能力,對未來人型機械人和無人駕駛車在路的自主決策能力和發展能否擴大(scalability)起關鍵作用!

然而AI reasoning被受質疑,最被受爭議的是蘋果公司的「The illusion of Thinking 」,很多質疑都針對蘋果公司沒有追上AI發展潮流,現在只能透過與AI 公司合作(包括OpenAI、Perplexity 、千問等),iPhone 才能擁有AI能力。

筆者看罷了兩份正反兩面的報告:「The illusion of Thinking 」和「The illusion of the illusion of Thinking 」,加上CTO使用Copilot寫codes 的經驗,筆者傾向認同蘋果公司的「The illusion of Thinking 」。

蘋果公司的「The illusion of Thinking 」報告中,AI研究人員利用益智遊戲河內塔(Tower of Hanoi ) 和渡河(River Crossing),這些遊戲能在規則保持不變的情況下,可逐步調整困難度來測試LRM的推理能力。

研究以三個階段(簡單、中度、艱難)來調整兩項遊戲河內塔和和河道口的困難度,看看這些模型的思考能力,結果發現:

1. 簡單的問題:標準模型更快、更準確,使用更少資源。

2.中度問題:LRM在這裡做得更好。 他們反思的、一步一步的思考顯示了價值。

3. 艱難問題:兩者都失敗。 問題越複雜,LRM解決它所付出的努力就越少,很早便放棄了。

隨著問題的複雜程度增加,LRM模型會開始減少推理,直至臨界點,它們會完全崩潰,即使增加它們的資源,它們仍然會停止產生準備確的解決方案,甚至完全放棄。

研究指出,最令研究人員驚訝的發現是:即使提前給模型提供了正確的演算法,它仍然很難可靠地執行。

蘋果公司的研究人員透過跟蹤這些LRM模型如何產生中間解決方案來檢查這些模型的內部「思想過程」,從中發現這些LRM 在遇到困難度高的題目時花了很多時間在錯誤的選項中徘徊,出現過度思考的現象。

報告結論是,這些模型並不真正知道他們何時走上了正確的軌道,他們無法從好的推理經驗中辨認出好的推理意識。 這不僅僅是一個技術限制,而是有關基礎問題。這發現很重要,因為這關乎對AI的信任、它的判斷力,以及我們未來如何與機器合作有關,當我們越來越多向AI尋求支援,涉及的範疇在學習、發展、業務戰略和決策方面,我們是否高估了這些系統能做什麼?

蘋果研究團隊在論文的最後指出,儘管很多炒作,但目前的模型可能會觸及一堵牆。 他們認為,僅僅擴大計算和提示技術可能不足以達到真正的推理。

這結果令人重新審視AI的真正推理能力。

另一方面, Anthropic 公司的的報告題為「The illusion of the illusion of Thinking 」 ,對蘋果公司的報告作出了反駁,他們認為測試至艱難程度時,這些模型並沒有足夠token完成任務,因此出現「放棄」情況。

為何會出現token不足的情況?這報告指出,蘋果公司的研究測試要求模型列出每次移動決策過程(這可能是研究人員需要跟蹤模型思考過程),結果造成了多次重複使用token。這情況下,變成每次模型糾錯的解決方案時都逐個評分,這項限制可能會導致錯誤分析。

他們認為不應該忽視模型在解決河內塔問題時明確指出「模式仍在繼續,但為了避免太長,我將到此停止」。 這表明模型理解解決方案模式,但由於實際限制,選擇截斷輸出。結論是模型的失敗是源於實驗設計的問題。

我不想糾纏哪一個測試研究的對錯,只是想列出「The illusion of the illusion of thinking 」的另一面思考。

其實並不只蘋果公司的研究報告質疑AI reasoning ,另一份研究報告「Why Do Multi-Agent LLM Systems Fail?」亦質疑AI執行的準確性。

近日AI agent成為AI另一發展焦點,Multi-AI agent system越來越多涉及不同工作領域,如software engineer 、healthcare、藥物發現、科學模擬等等,初創企業均以開發AI agent 來處理複雜、multi task 任務和不同環境動態互動,然而報告測試發現,multi-AI agent system 處理這些工作的錯誤率為66%,準成度受到質疑,這使得基於LLM的AI agent系統獨立處理現實世界的問題被受質疑。





個人經驗而言,我們的CTO也有使用copilot寫code和debug program, 他的經驗是AI寫program只能是提供一個框架,debug時也只是提供另一個意見,在正確執行上仍然需要程式員完善和完成,更遑論一個不懂程式的人可以靠幾句prompt寫出複雜程式和網站功能出來,而技術門檻低的應用程式和網站功能又要面對激烈競爭。所以大部份吹水評論指程式員會無工做是高估了AI的能力,或許AI能夠取代的只是低級程式員而已!

說到這裏,我們開始重新審視AI獨立決策的未來能否真正執行?這只是問題之一!

問題之二留待下次再談!Stay Tune!