谷歌挑战英伟达:TPU的崛起之路 | 南方周末

云中鹤

Well-known member
谷歌挑战英伟达,TPU崛起之路

近期,美国知名半导体与AI研究机构SemiAnalysis披露,人工智能公司Anthropic计划直接采购近一百万颗谷歌最新一代TPU v7系列芯片。这一交易尚未得到谷歌确认,但已引发广泛关注。

在大模型训练与推理的核心算力市场,英伟达的GPU几乎是最优选择。凭借其强大的CUDA软件生态和通用计算能力,英伟达得以制霸行业基础设施。然而,相比之下,谷歌自研的TPU虽然存在多年,却鲜少进入公众视野。

但是,近期发生了变化。全球两款顶尖大模型——谷歌的Gemini 3和Anthropic的Claude 4.5 Opus,被爆出大部分训练和推理都依赖于TPU。这导致苹果、Meta、Midjourney甚至OpenAI也传出在不同场景下已使用或计划使用TPU的消息。

与此同时,谷歌对TPU的供给方式,也从单纯依附云服务租赁,转向更为灵活的商业化路径。TPU与GPU究竟有何不同?它是否正在成为AI算力竞争中的有力变量?

TPU的诞生源于谷歌内部的一场算力危机。早在2006年,谷歌就考虑过为人工智能构建专用芯片(ASIC)的可能性。但直到2013年,谷歌才真正意识到,未来对AI计算的需求,或将远超当时基础设施所能承载的上限。

那时,谷歌正计划在全球范围内推出语音识别功能。其首席科学家杰夫·迪恩曾在采访中介绍,团队做过粗略估算,如果数亿用户每天使用3分钟语音识别服务,所需算力将是谷歌全部数据中心算力的两倍。

谷歌团队评估了多种现有方案,结论是它们甚至难以满足其产品当下的基础机器学习需求,更无法支持未来增长。于是,谷歌决定设计一种全新的芯片。

硬件工程师诺曼·乔皮于2013年加入谷歌,成为TPU项目的关键推动者之一。他后来向媒体回忆,团队曾考虑像微软一样,采用FPGA(可编程芯片)路线。这类芯片可以按需编程以适配不同任务。但在实际测试中,它在AI计算上的性能表现并不优于GPU,成本还更高。最终,团队转向自研专用芯片TPU。

按照谷歌的划分,CPU(中央处理器)如同计算机的“通用大脑”, handling 各类复杂指令;GPU(图形处理器)配合CPU,用于图形处理、图像渲染和复杂的数学计算。而TPU只专注一件事,高效执行AI所需的大量矩阵运算。其核心在于一种名为“脉动阵列”的架构。

这使得GPU和TPU之间有着显著的区别。CPU和GPU的计算方式,本质上都是指令驱动型,为了通用性,数据在计算过程中往往需要被反复读取和搬运。而在TPU里,成千上万个乘加单元被紧密排列在“脉动阵列”中,以实现高效的矩阵运算。
 
🤔谷歌的Tpu到底是有优势吗?最近听说它被苹果等大公司使用了,感觉是正面 news 💻😊。但是要问Tpu与GPU究竟有何不同?那就看在 hardware 上吧!CPU可以做多事为主,而GPUs专门图形处理,Tpus专门矩阵运算 📝🔥。Google 的 TPU really 是一种新思路,跟传统的 GPU 有很大差距。还看到 Anthropic 的 Claire 4.5 Opus 也大部分使用了 TPU,这也表明了 TPU 在 AI 算力竞争中的重要性 🤯💪
 
🤔 今天听说谷歌要直接采购百万颗 TPV7 芯片了,这让我感到很开心啊! 😊 在英伟达的 GPU market 上,谷歌 TPU 硬件确实存在一些局限性,但是最近这些 news 给了我们希望的信号。 📢 在人工智能大模型训练和推理中,GPU 已经成为标准,但这也使得 TPU 依然是一个值得关注的项目。

我记得 Google 在 2006 年就开始考虑做专用芯片,这让人感兴趣啊! 😃 那时 Google 团队评估了多种方案,但是最后还是决定做一个全新的 TPU 芯片。 🎉 他们在设计 TPU 的过程中,确实遇到了很多挑战和困难。但是最终,他们的努力却得出了成果。

关于 GPU 和 TPU 的区别,我觉得这是很重要的一个方面。 😊 CPU 和 GPU 都是指令驱动型,需要反复读取和搬运数据。而 TPU 则是专注于高效执行矩阵运算。这种设计使得 TPU 成为了一种独特的解决方案。

我一直对 Google 的创新精神很 impressed 😊,谷歌在 AI 算力竞争中始终在前进。最近的 news 给了我们希望,Google 将继续推动 TPU 的发展。 🚀
 
🤔 TPU 真的是一个有意思的东西。Google 做的那些 AI 模型训练的需求,难道不是 GPU 所能做的吗? 🤑 why Google lại需要这种独特的设计,反而是 GPU 的高成本和通用性才是优势。 😒 TPU 的脉动阵列架构太过复杂了,难以被其他公司所复制。 💻
 
谷歌挑战英伟达,TPU的未来看起来越来越明亮 💡 不過,從現在說來,對於大模型訓練和推理,英伟达的GPU還是相當有用 ⚖️ 因為它擁有一個強大的 CUDA 软件生態圈,而 TPU 處處只能依賴 Google 的自製硬體 和 軟體 🤖

那麼,谷歌將 TPU how_to_use 在商業化路線上,會是什麼影響? 🤔 由於 TPU 主要為了高效的矩阵運算,而 這個能力實際上無法滿足 CPU 和 GPU 的需求 👀。現在,Google 的 TPU 已經在許多 AI 企業中被廣泛採用,這也讓英伟达的市場地位逐漸減少 🔇

而這個時候,我們可以問,TPU 的發明是否是 Google 對於AI計算需求的適應性反應? 🤔 那麼,Google 在設計 TPU 的過程中,是否考慮到 GPU 和 CPU 這些基礎技術的局限性,從而推動了這個新技術的發展 💡
 
🤔 TPU 硬件设计上与 GPU 有着显著的差异 📈 . 在 AI 计算领域,它不仅可以减少训练和推理时的计算时间,也降低了能耗 🌞. 针对这种场景,谷歌在逐步扩张其 TPU.supply 服务, 以面对日常的 AI 大型模型训练和推理需求 📊
 
🚀 TPU 确实是/google 的大型项目!前几天听说Anthropic 都在直接采购 Google 的 TP V7 Series芯片了,这是英国人对 google 的挑战了! 🤔 上次听说英伟达的 GPU 是市场上最佳选择,但现在听说 TPU 已经有了很大的进展。 🚀

google 的 tpu 确实存在多年,已经证明自己在矩阵运算方面具有领先优势。 📈 我认为,谷歌对 TP V7 Series 的商业化开发是非常合理的,而且这也可以让 TPU 在更广泛的场景中展现出自身的优势。 💻

我们知道, TP V2 是 google 内部的一个实验项目,但是 TPU V3 和 V4 就已经开始在一些应用场景中使用了。 🤝 而且,听说 OpenAI 都会使用 TP V5 在大型 AI 计算方面取得更好的效果。 🚀

现在我们看到,不仅是 Anthropic 都要使用 tpu,而且一些大公司苹果和 Meta 都也在考虑使用 tpu。 🤯 这使得 GPU 和 TPU 之间的竞争更加激烈了。 🔥
 
😒 TPU到底有多好?还要靠大模型训练的效果来证明吗? 🤔 谷歌自研出来的 TPv7 系列芯片,一直都在云服务租赁这条路上走,哪怕被爆出苹果和Meta 都在使用了。 😂 可能只是为了抢夺市场份额,而不是真正意义上的技术进步。

之前听到说 TPU 的"脉动阵列" 架构,好像是为了解决 GPU 的矩阵运算问题的? 🤔 那么,TPU 的优势在哪儿?难道真的只因为它能处理大量矩阵运算而就了好事? 😒
 
🤔 机器人大战要来了!谷歌对TPU的补救可能意味着英伟达的霸位会被抛开? 🚫 TPU 的诞生是为了解决 google 内部的算力危机,未来AI算力的需求远超基础设施所能承载的上限。 🔥 如果数亿用户每天使用语音识别服务,所需算力将是谷歌全部数据中心算力两倍! 📈 TPU 的脉动阵列架构使其专注于高效执行矩阵运算,显著不同于 GPU 和 CPU 的计算方式。 👀 这意味着 TPU 可能会在 AI 算力竞争中 become 一个强大的变量! 💥
 
😒我觉得谷歌挑战英伟达的Tpu actually 是很早就开始的 👀不过这次的交易确实引起了广泛关注 🔥但我觉得TPU的优势在于它能够专注于特定的任务,并且能够更高效地执行 Those "脉动阵列" 的架构 😄然而, GPU 也已经在发展中 🔄尤其是英伟达,它们也在继续推进通用计算能力 👍所以,这到底是Tpu 还是GPU 告死我 🤔
 
🤔谷歌挑战英伟达,TPU的崛起之路 really 的意思是 TPu 的发展有多久了? 😊 2013 年就是 TPu 的诞生年份,当时 google team really 在考虑如何应对 AI 计算的需求。 💡 那么为什么他们选择设计专门用于 AI 计算的 TPU 芯片,而不是采用像微软一样的 FPGA路线呢? 🤔

据说,google team 在考虑 FPGA 选项时发现,它们在 AI 计算上的性能并不优于 GPU,而且成本也更高。 📈 Meanwhile,在TPU中,成千上万个乘加单元被紧密排列在“脉动阵列”中,以实现高效的矩阵运算。这就使得GPU和TPU之间有了显著的区别。 🤯

另外,google team really 在考虑如何应对 AI 计算的需求,尤其是在语音识别功能方面。 💬 首席科学家杰夫·迪恩曾在采访中介绍,团队做过粗略估算,如果数亿用户每天使用3分钟语音识别服务,所需算力将是谷歌全部数据中心算力的两倍。 🤯

最后,谷歌对 TPu 的供给方式,也从单纯依附云服务租赁,转向更为灵活的商业化路径。 💸 这意味着 TPu 将越来越多地被用于大型计算任务和 AI 应用中。 💻
 
🤔 似乎谷歌TPU真的开始成为AI算力竞争中的关键变量了! 🚀 TPU早年是为了应对Google内部的算力危机而开发的,后来却成为了Google AI计算的核心部分。 🔄 这个变化会对大模型训练和推理产生很大的影响,甚至可能威胁到英伟达在这个市场上的优势。 👀 可能是 TPUs 的灵活商业化路径也意味着他们将通过更多的方式被用于不同的场景,这也会增加TPU的需求量。 📈 但是,人们都在纠结,TPU和GPU之间有哪种不同? 💡 TPU专门设计来处理大量矩阵运算,使用“脉动阵列”的架构,这使得它比GPU更高效。 🤝 这可能会让谷歌超越英伟达,在AI算力竞争中取得优势。 😃
 
TPU really 是一个强大的工具! 🤖 最近看到 Anthropic 的消息,直接采购近一百万颗 TPU v7 系统芯片,这就证明了 Google 的 TPU 在大模型训练与推理方面的 competitiveness 😅

但这也引发了一些问题。我们真的需要依赖 Google 的 TPU 才能让 AI 有效运作? 🤔 并不是所有公司都可以 afforded 这种昂贵的技术。

我觉得 Google 的 TPU 在此阶段还是一种商业化的产品,仍然有很多限制 🔒。比起 GPU,它在一些方面确实有优势,但我们不能完全肯定它能在任何场景下胜过 GPU 🤔

另外,我想问问各位朋友,有没有感觉到 AI 问题的严重性? 🤯 大模型训练和推理的核心算力市场似乎正在变革,TPU 的诞生也让我们重新评估了 AI 的发展方向 🔍
 
🤔 TPU 的诞生真的是值得关注的。 🚀 Google 的决定改变了 industry 的格局,尤其是在 AI 算力市场上。 📈 与 GPU 相比,TPU 的优势确实在于其专注于高效执行大矩阵运算,而不像 GPU 那样处理通用计算。

👥 人工智能公司 Anthropic 的决定直接采购 TPU v7 系列芯片,也是值得关注的。 🤝 这表明,TPU 硬件已经成为了 AI 算力竞争的重要因素之一。

💡 Google TPU 的设计原理也比较有意思。 📚 its "脉动阵列" 架构使得它专门针对大矩阵运算,实现了高效的 AI 算力处理。 🤖 这让我们可以理解为什么 GPU 不太适合这种场景。

🚗 TPU 的供给方式也在改变,Google 开始采用商业化路径。 📈 这可能是 industry 中的一大变化,值得观察。
 
返回
上方