<code id='149DCA7731'></code><style id='149DCA7731'></style>
    • <acronym id='149DCA7731'></acronym>
      <center id='149DCA7731'><center id='149DCA7731'><tfoot id='149DCA7731'></tfoot></center><abbr id='149DCA7731'><dir id='149DCA7731'><tfoot id='149DCA7731'></tfoot><noframes id='149DCA7731'>

    • <optgroup id='149DCA7731'><strike id='149DCA7731'><sup id='149DCA7731'></sup></strike><code id='149DCA7731'></code></optgroup>
        1. <b id='149DCA7731'><label id='149DCA7731'><select id='149DCA7731'><dt id='149DCA7731'><span id='149DCA7731'></span></dt></select></label></b><u id='149DCA7731'></u>
          <i id='149DCA7731'><strike id='149DCA7731'><tt id='149DCA7731'><pre id='149DCA7731'></pre></tt></strike></i>

          首页 > 福建 > 正文 : 英偉達賣軟件,微軟造芯片,大模型競爭格局生變-傻瓜新闻
          英偉達賣軟件,微軟造芯片,大模型競爭格局生變-傻瓜新闻
          2024-11-22 10:57:13来源: 福建 编辑: 遼寧



          生成式AI大模型商業化落地的急迫形勢,促使各路玩家更加追求投入產出比。达卖

          文|《中國企業家》記者 趙建凱

          編輯|李薇

          頭圖來源|視覺中國

          微軟將在下個月(11月14日)的软件年度技術大會上,正式推出自己的微软首款AI芯片。

          這款專門為AI研發設計的造芯芯片,在功能上與英偉達的模型GPU芯片(H100)類似,都是竞争專為訓練、運行大語言模型的格局數據中心服務器而設計的。

          目前微軟的生变數據中心服務器中使用的正是英偉達的GPU芯片。微軟推出這款AI芯片的英伟目的,就在於盡早擺脫對英偉達GPU的达卖依賴性。

          因為英偉達GPU高昂的软件價格,已讓微軟難以承擔。微软按照投入產出比(ROI)來計算,造芯微軟的模型生成式AI產品已出現嚴重虧損。

          隨著微軟這款AI芯片的正式發布,也會把自己與OpenAI之間的競爭,由以前的遮遮掩掩、猶抱琵琶半遮麵,徹底公開化,變得更為正麵和直接。

          微軟生成式AI產品虧損

          GitHub Copilot是微軟的第一款生成式AI產品(於2022年推出),可以幫助開發者編寫、調優、轉換程序代碼。由於大大縮短了開發者的編程時間,現在已經擁有超過150萬的用戶,其中有約一半的用戶直接就在Copilot上編程。

          微軟向每位個人用戶每月收取10美元的費用,企業版本則是每個賬戶每月20美元。GitHub Copilot為微軟帶來的年收入已經超過了1億美元。

          但生成式AI大模型的高成本,即便讓年收入超過2000億美元的微軟,承擔起來都頗為艱難。來自150萬用戶每人每月10美元的Copilot服務費,難以支撐Copilot運行的高成本。

          有知情人士透露,在今年年初,微軟Copilot平均每位用戶每月帶來的虧損超過20美元,有的用戶甚至造成了最高達到80美元的虧損。

          造成虧損的原因是高成本,而造成高成本的一個關鍵因素就是英偉達的GPU芯片。

          通常,像微軟這樣的AI巨頭都通過數據中心訓練、運行各自的大模型,並在雲端向用戶交付(訂閱付費)AI產品。OpenAI的ChatGPT也是在微軟的Azure雲上訓練、運行並交付。

          而無論是微軟還是OpenAI都一致認為,在大模型的訓練與運行中,如果完全依賴英偉達的GPU芯片,所帶來的成本“高得令人望而卻步”。

          因為要做專門的AI運算,這些數據中心裏的服務器大多裝配的是英偉達的GPU芯片,8張這樣的GPU,價格在20萬美元左右。OpenAI的ChatGPT就是因為依靠這些昂貴的英偉達芯片,在今年年初時每天的運營成本高達約70萬美元。


          來源:視覺中國

          如果把自己的AI大模型都部署在Bing、Office 365、GitHub這些產品中,微軟需要投入高達數百億美元的硬件基礎設施成本,其中AI芯片占大比例。

          為了“彌補”這種投入與產出之間的差距,包括微軟在內的各路AI玩家使盡渾身解數。微軟、穀歌都謀劃著如何提高AI產品的定價,Zoom推出簡化版本的AI產品,Adobe公司則通過限製每月用戶量、根據用戶的實際使用情況再具體收費。

          自研芯片、提高定價……這些不是辦法的辦法背後,是AI商業化期望度過高,但商業化模式至今仍模糊不清的現實窘境。

          現在的生成式AI商業化,並不能套用曾幫助過穀歌、亞馬遜、Facebook在各自領取占據獨有優勢的規模化網絡效應,並不是用的人越多,成本就越低。

          生成式AI產品的每一次使用,幾乎都需要單獨調用一次產品背後的複雜計算。用戶越多、使用的越多,支持這些計算背後的硬件基礎設施成本費用就越高,而固定費用(率)的服務費自然難以把這些抵消高成本。

          英偉達“咄咄逼人”

          每一個言必稱擁有AI大模型的公司CEO,也在無時無刻都在抱怨無法獲得足夠多的英偉達GPU芯片。這些芯片被優先部署在英偉達大客戶微軟、亞馬遜、穀歌的數據中心服務器上。

          OpenAI的ChatGPT引發的生成式AI浪潮,讓各家大小公司對GPU芯片的需求陡增,從而把英偉達推向了前所未有的高度——除了與客戶已達成了價值數百億美元的新訂單,英偉達的市值超過1萬億美元。

          坊間甚至有人說,英偉達這個淘金浪潮中賣鏟子的人,現在卻想要“鏟平”淘金者。

          英偉達曾要求租用自己的雲服務商大客戶數據中心裏部署GPU芯片的服務器,轉手再給到大客戶的競爭對手去使用——微軟、穀歌、甲骨文已同意了這個“不平等提議”,亞馬遜AWS沒有同意。

          此外,在把自己的芯片“恩賜”給初創雲服務公司時,英偉達也曾要求這些初創雲服務公司把自己的雲客戶“介紹”給英偉達認識。

          英偉達此舉意在順著“GPU芯片—服務器—數據中心—雲端”這個路徑,去觸達更多的企業級用戶,與之建立更緊密的客戶關係,最終是為了銷售自己的AI相關軟件。這些軟件有的是專門用於幫助企業客戶管理開發大型數據集,與微軟的類似產品形成了直接競爭。

          目前,使用英偉達AI軟件來構建大模型的公司已經有Adobe、Getty Images、Shutterstock。

          在英偉達最新的季度財報中,這家咄咄逼人的公司稱,向那些涉及到開發AI或VR應用的公司銷售軟件,可能會帶來3000億美元的潛在營收。

          除了這種軟件“批發”模式,英偉達也還做“私人定製”。通過(合作夥伴、自己的)雲端為一些業務專業性比較強的客戶公司,提供根據業務定製的生成式預訓練模型(GPT),這類客戶中包括生物製藥公司Amgen、保險公司CCC Intelligence Solutions。

          英偉達對微軟的威脅,不僅僅是眼皮底下臥榻之側的高成本芯片,更有關係到將來業務增長的AI商業化營收。

          生成式AI競爭下半場

          在市場研究公司Gartner今年9月初發布的“2023年新興技術成熟度曲線”中,生成式AI目前正處於期望膨脹期,“其發展前景還存在很大的不確定性。”Gartner研究副總裁Melissa Davis如此判斷。


          2023年新興技術成熟度曲線。來源:Gartner

          在業內人士看來,類似OpenAI、Anthropic這類生成式AI初創公司的高估值上漲,正反映了市場對AI的期望高度膨脹。預測未來企業會對生成式AI投入的成本進行更嚴格考量,在2024年,企業對生成式AI的投資可能會減少。

          推出了GPT-4的OpenAI在9月底與外部投資者討論股票出售時,將自己的估值界定在800億~900億美元之間,是今年年初的三倍。

          OpenAI的最直接競爭對手Anthropic在獲得亞馬遜40億美元的投資後,計劃以200億~300億美元的估值,再從穀歌和其他投資人融資20億美元。在今年3月份,其估值還僅為40億美元。

          事實上,Anthropic是從OpenAI“衍生出來”的。2019年,OpenAI進行了組織架構調整,在已有的架構內成立了一家“有限盈利公司”,把營業利潤目標置於技術研究之上,從而導致了一批研究人員出走後創立了Anthropic。

          然而,“殊途同歸”,兩家公司在今年對投資方報出高估值的充分理由,都是對自己的商業化營收信心。

          Anthropic預計到今年年底自己的收入會達到2億美元。而作為先行者的OpenAI已開始真正賺錢了。

          GPT-4發布後,OpenAI現在的年化收入為10億美元,而在發布ChatGPT(2022年11月份)的前一年,這個數字隻有2800萬美元。

          微軟AI商業化產品的高額虧損、OpenAI與Anthropic對營收增長的高度預期,以及英偉達借勢加緊拓展自己的商業邊界,在這些表麵的底層其實是AI大模型競爭格局的變化。

          由之前“芯片—算法—訓練數據”三位一體上,各個生產投入(生產工具、生產資料)層麵的拚蠻力、大力出奇跡,變成如今AI大模型商業化落地的急迫形勢,促使各路玩家更加追求投入產出比,即芯片功效比、模型算法優化,以及產品商業化應用時的10億級用戶量。

          對於“十億級用戶量”,先發優勢也許能起到關鍵作用。

          雖然OpenAI在首次推出ChatGPT後的一個月內,就吸引了1億用戶,但微軟、穀歌、亞馬遜已經在在線辦公、搜索、購物的垂直領域中早早就積累了10億級用戶量。高估值的OpenAI與Anthropic還要再加一把勁。

          新聞熱線&投稿郵箱:tougao@iceo.com.cn