2024年11月21日星期四

雲端巨頭與LLM供應商愛恨交纏 - 徐立言

2024年11月21日 - 信報

近年,大型語言模型(LLM)提供者與雲端服務巨頭之間的關係變得愈來愈複雜,昔日簡單的合作,如今充斥着排他協議和品牌博弈,雙方各自布局,既相互依賴,又在暗湧中尋求自身利益最大化。

這場「蜜月期」開始於2019年。當時,微軟(MSFT)向OpenAI投資10億美元,換來OpenAI對微軟Azure的獨家雲端服務承諾。這項舉動不僅為OpenAI提供了訓練其LLM模型所需的龐大運算資源,也為微軟帶來一個重磅客戶,協助其雲端服務業務的成長。微軟隨後進一步加碼,在2023年追加投資100億美元,同時把GPT深度整合到Azure AI、GitHub Copilot及Office等產品,令這段關係推向高潮。

表面雙贏實則暗藏玄機

另一邊廂,美國AI初創Anthropic上演了一齣「腳踏兩條船」的戲碼。2022年,Google(GOOG)注資3億美元,獲得Anthropic約10%股份,條件是Anthropic選擇Google Cloud作為其主要的雲端平台。

到2023年,Google追加投資5億美元,並計劃在未來幾年投資高達20億美元。但當Google專注於其自研的LLM模型Gemini後,亞馬遜(AMZN)便趁虛而入,承諾總計投資40億美元,讓Anthropic心甘情願投入AWS的懷抱,並把後者的Claude模型整合到Amazon Bedrock提供的服務中。

LLM供應商與雲端服務商的合作,表面上看似雙贏,其實暗藏玄機。對於LLM供應商而言,訓練AI模型的龐大運算需求是與雲端服務商簽訂合約的主要驅動力;而雲端巨頭則希望通過這些合作,來推動其基礎設施使用率,並在財報中展現出健康增長。再者,雲端巨頭不必承擔那些巨額研發損失,因為這些虧損都留在了LLM供應商的賬簿。而且,隨着這些AI公司在新的融資輪次中以更高的估值籌集資金,雲端巨頭的股權投資也在升值。

然而,過於依賴雲端平台的API收入,對LLM供應商來說並不是一件穩妥的事。以Anthropic為例,收入中只有15%來自訂閱,其餘85%來自API。表面上,主要API收入源自AWS的Bedrock服務,似乎是一個穩定的現金流來源,但API收入分成意味着LLM供應商利潤空間被嚴重壓縮。Anthropic的毛利率就從2023年12月的50%至55%,至今年3月已下滑至38%。原因十分簡單,雲端公司要從API收入中分一杯羹,分成比例介乎25%至50%。

其次,雲端巨頭也開始積極開發自己的LLM模型,甚至不忘支持其他的開源模型,這無疑是對現有合作夥伴的一記耳光。正如一位AI專家所說:「只要有更好的模型出現,無論是價格、性能還是質量,切換到新的模型只需要一行代碼,甚至不需要那麼多。」

不過,OpenAI和Anthropic之間存在一個巨大差異,就是ChatGPT的品牌力量。ChatGPT爆紅不僅讓LLM進入大眾視野,也讓這個品牌本身成為了LLM代名詞。這也解釋了為什麼OpenAI超過70%的收入來自訂閱服務。從營收規模來看,Anthropic年度經常性收入(ARR)預計到2024年底將只有約10億美元,而OpenAI則高達50億美元。

相較於OpenAI,Anthropic的談判籌碼顯得微不足道。儘管與AWS和GCP(Google Cloud Platform)簽訂了合作協議,GCP傾向於推廣自家的Gemini模型,削弱了Anthropic的議價能力。亞馬遜在進一步投資40億美元的同時,要求Anthropic更依賴其自研晶片,如Trainium和Inferentia,這項策略無疑將Anthropic更加緊緊綁定在AWS生態系中,未來可謂「進退維谷」。

昂貴晶片限制AI普及速度

從目前發展路徑來看,雲端巨頭們正通過三條路線同時推進,包括開發自家LLM模型、支持開源模型(如Meta的Llama),以及打造自有的ASIC晶片,尤其在AI推理任務上,依賴輝達(NVDA)的GPU並不是長久之計。這些昂貴晶片限制了AI普及速度。透過開發自己的ASIC晶片,降低成本,擺脫對Nvidia的依賴,還為他們在未來的競賽中贏得主動權。

短期內,雙方之間看似是「愛恨交纏」的關係,但長期來看,隨着LLM的訓練成本高昂且主要面向企業客戶,這兩個領域或可能最終會走向合併。無論如何,在這場「相愛相殺」的博弈中,誰能笑到最後,尚需拭目以待。可以肯定的是,商場如戲,沒有永恒的敵人,也沒有永遠的朋友,只有永恒的利益。

筆者相關人士持有微軟(MSFT)、輝達(NVDA)的財務權益

原文:

沒有留言:

發佈留言