北京時間 2025 年 6 月 28 日,路透社報道,OpenAI 已開始租用谷歌的 TPU 為其 ChatGPT 及其他 AI 產(chǎn)品提供算力支持。此舉標志著作為英偉達 GPU 長期以來的最大采購商之一的 OpenAI,也開始在其 AI 大模型運算中實質(zhì)性地大規(guī)模使用非英偉達 GPU 算力。
早在去年 6 月,OpenAI 就傳出正在積極從谷歌 TPU 團隊招募頂尖研發(fā)人才,自研 AI 專用芯片。而除OpenAI 外,蘋果、Anthropic、Safe Superintelligence、Cohere 等公司也一直租用谷歌云的 TPU 用于 AI 大模型訓練及推理。北美 AI 巨頭公司們的戰(zhàn)略轉(zhuǎn)向凸顯了 AI 行業(yè)更廣泛的變革趨勢:領先的大模型開發(fā)商都在積極探索英偉達 GPU 之外的替代方案,尋求基礎設施多元化,擁抱以 TPU 為代表的 AI 專用芯片的新架構(gòu)方向。
OpenAI 轉(zhuǎn)向谷歌 TPU 的三重動因
OpenAI 是當下 AI 大模型浪潮的引爆者和代表者。長期以來,OpenAI 使用英偉達 GPU 進行 ChatGPT 模型訓練(即通過大規(guī)模數(shù)據(jù)集和復雜的神經(jīng)網(wǎng)絡架構(gòu),訓練出一個具備強大學習和推理能力的深度神經(jīng)網(wǎng)絡模型)和推理工作負載(即讓已訓練好的模型可以依據(jù)用戶需求實時生成預測),OpenAI 既是英偉達 GPU 最早被用于 AI 計算場景的天使客戶之一,也是英偉達GPU的長期最大采購商之一。
然而,隨著大模型計算需求和復雜度的指數(shù)級增長,傳統(tǒng) GPU 架構(gòu)芯片在用于大模型訓練時的成本高、算力利用率低、能耗大的局限日益凸顯。不斷上漲的 GPU 計算成本和供應限制,促使 OpenAI 探索替代性 AI 芯片方案。通過接入谷歌云(Google Cloud)對外開放的TPU資源(早年僅供谷歌內(nèi)部使用),OpenAI 得以利用專為張量計算優(yōu)化的專用芯片,有望降低單次模型計算成本,并獲得獨特的性能表現(xiàn)。
OpenAI 的這一決策源于三方面因素的共同作用:
· 成本效益: TPU 專為深度學習的核心——大規(guī)模矩陣與張量運算而打造。相較于通用 GPU,其單位功耗吞吐量高,片上內(nèi)存層級設計激進,通常能為訓練和推理實現(xiàn)更低的總體成本。
· 供應鏈韌性: 算力供應商多元化可降低風險,避免因英偉達面臨生產(chǎn)壓力、分配延遲、其他行業(yè)需求激增而導致的瓶頸,確保其研究實驗和大規(guī)模部署所需算力可以不間斷。
· 軟件生態(tài)集成:谷歌 TPU 成熟的全棧軟件生態(tài)——包括與 XLA 編譯器緊密耦合的 TensorFlow 框架、TPU 專用運行時、性能分析工具以及谷歌云上的托管服務,可以極大簡化大型 AI 應用的模型開發(fā)、調(diào)優(yōu)與部署流程,顯著降低工程負擔,縮短產(chǎn)品上線周期。
TPU 芯片:為 AI/ML 而生的架構(gòu)
GPU 最初設計用于圖形處理,尤其是實時渲染和圖像處理,因此對其中體面結(jié)構(gòu)的矩陣和向量運算做了專門優(yōu)化,后來逐漸發(fā)展成為通用計算設備(GPGPU)。GPU 具有大量結(jié)構(gòu)較為簡單的并行處理單元,適合處理高度并行的任務,如圖形渲染和科學計算,因此被廣泛應用于計算機圖形學、游戲開發(fā)、視頻編碼/解碼、深度學習訓練和推理。
TPU 是谷歌專為加速機器學習和深度學習任務而設計的專用芯片,特別是針對深度學習模型的訓練和推理。TPU 針對張量運算進行了高度優(yōu)化,單個的脈動陣列架構(gòu)吞吐量和處理效率相較 GPU 有了更大提升,特別適合于處理矩陣乘法等常見于神經(jīng)網(wǎng)絡的操作,主要用于機器學習和深度學習模型的訓練和推理,特別是使用 TensorFlow 框架的任務。
相較于傳統(tǒng) GPU 架構(gòu),TPU 設計具有多項優(yōu)勢:
· 緊密集成的內(nèi)存與計算單元:每個 TPU 核心集成了大容量、高帶寬的片上內(nèi)存,并與矩陣乘法單元緊密耦合,顯著降低了數(shù)據(jù)移動延遲和功耗。
· 高效推理:這種緊密集成使得 TPU 能在更低能耗下實現(xiàn)持續(xù)的高吞吐量推理,這對于日處理數(shù)百萬請求的推理工作負載至關(guān)重要。
· 優(yōu)化的集群互聯(lián):TPU 集群配備了精簡高效的互聯(lián)結(jié)構(gòu),專為分布式模型訓練固有的集體通信模式優(yōu)化,相較于傳統(tǒng)的 GPU 加速集群,可帶來更優(yōu)的擴展性和資源利用效率。
AI 算力硬件競爭的關(guān)鍵轉(zhuǎn)折
OpenAI 采用谷歌 TPU,打破了英偉達 GPU 在 AI 算力基礎設施領域霸主地位不可撼動的觀念。長期占據(jù)主導地位的英偉達,如今面臨著來自作為主要終端用戶的 AI 大模型提供商們尋求算力利用率、成本控制與供應靈活性替代方案的真實壓力。谷歌云則贏得了 OpenAI 這一標桿客戶,進一步印證了其觀點:在特定 AI 工作負載上,TPU 性能可媲美甚至超越 GPU。
與此同時,OpenAI 的這一舉措是 AI 硬件行業(yè)多元化浪潮的一部分,已有越來越多的世界頂尖科技公司在積極研發(fā)自己的 TPU 或類 TPU 架構(gòu)的 AI 專用芯片,并已得到了眾多領先 AI 大模型企業(yè)的廣泛采用:
· 早在 2019 年,英特爾就收購了來自以色列的 AI 芯片制造商 Habana Labs,并在2024年 4 月推出了專攻深度學習神經(jīng)網(wǎng)絡推理的類 TPU 芯片 Gaudi 3;預計2025 年初,IBM Cloud 將率先部署英特爾 Gaudi 3 AI 加速器;
· 2023 年 7 月的 xAI 會議上,特斯拉以及 X(即 Twitter)的 CEO 馬斯克公開宣布了特斯拉正在自研芯片且一定不會將其稱為 GPU,暗示著特斯拉可能正在開發(fā)一種與傳統(tǒng) GPU 不同的芯片架構(gòu),以滿足特斯拉的需求;
· 2023 年 11 月,微軟在其全球技術(shù)大會 Ignite 上宣布推出專為 Azure 云服務和 AI 工作負載設計的 ASIC 芯片 Maia 100,預計 2026 年正式發(fā)布;
· 2023 年11月底,AWS 在其“AWS re:Invent 2023”大會發(fā)布了為生成式 AI 和機器學習訓練設計的云端 AI 算力芯片 Trainium 2;2024 年底,AWS 與 Anthropic 官宣共同打造名為 Project Rainier 的 EC2 UltraCluster,將使用數(shù)十萬片 Trainium2 芯片;
· 2024 年 7 月 30 日,蘋果公司發(fā)布了研究論文表示,Apple使用了谷歌的2048 片 TPUv5p 芯片及 8192 片 TPUv4 芯片——而非英偉達的 GPU 芯片,來訓練其人工智能系統(tǒng)“蘋果智能”(Apple Intelligence)中的 AI 模型 Apple Foundation Model;
······
北美人工智能和半導體圈正在發(fā)生的AI算力硬件的轉(zhuǎn)向,AI芯片市場也進入了更具競爭性的新階段。
中昊芯英國產(chǎn)全自研 TPU AI芯片公司
中昊芯英作為國內(nèi)唯一一家掌握 TPU 架構(gòu)AI 專用芯片核心技術(shù)并實現(xiàn)全自研 TPU 芯片量產(chǎn)的公司,核心創(chuàng)始團隊組建于 2018 年,其創(chuàng)始人及 CEO 楊龔軼凡曾作為谷歌 TPU 芯片核心研發(fā)者,深度參與過 TPU v2/3/4 的設計與研發(fā)工作。繼 Apple 之后,OpenAI 對 TPU 的選擇,再一次有力驗證了當下中昊芯英所堅持走的TPU技術(shù)路線。
TPU 為 AI 大模型而生的天然優(yōu)勢架構(gòu),使其在面向 AI 計算場景時,在同等生產(chǎn)制程下相較于 GPU 可以擁有 3-5 倍的性能提升。以中昊芯英歷時近五年全自研的國內(nèi)首枚已量產(chǎn) TPU AI 芯片“剎那®”為例,“剎那®”在處理大規(guī)模 AI 模型運算時與英偉達當代的先進芯片相比,計算性能可以超越其近 1.5 倍,在完成相同訓練任務量時的能耗降低 30%,將價格、算力和能耗綜合測算,“剎那®”的單位算力成本僅為其 42%。
OpenAI 擁抱谷歌TPU也許并不意味著英偉達 GPU 時代的終結(jié),但它清晰地宣告了以 TPU 主導的AI專用算力基礎設施的時代已然到來。成本壓力、供應鏈波動以及模型規(guī)模的持續(xù)膨脹,必將使得效率因素比傳統(tǒng)供應商優(yōu)勢更重要。在這種環(huán)境下,專用張量處理器——無論是來自谷歌、AWS 這樣的科技巨頭,還是中昊芯英、Cerebras、Groq 這樣的新興企業(yè)——將塑造大規(guī)模 AI 的下一篇章。