.@dylan522p 深入探讨了扩展 AI 计算的三个主要瓶颈:逻辑、内存和电力。 并且分析了实验室、超大规模数据中心、代工厂和晶圆设备制造商的经济学。 对每一个层级的堆栈学到了很多。 0:00:00 – 为什么 H100 今天的价值比三年前更高 0:24:52 – Nvidia 早期获得了 TSMC 的分配;谷歌正受到挤压 0:34:34 – 到 2030 年,ASML 将成为 AI 计算扩展的第一大约束 0:56:06 – 我们不能使用 TSMC 的旧晶圆厂吗? 1:05:56 – 中国何时会在半导体领域超越西方? 1:16:20 – 巨大的内存危机即将来临 1:42:53 – 在美国扩展电力将不是问题 1:55:03 – 本世纪不会出现太空 GPU 2:14:26 – 为什么更多对冲基金不进行 AGI 投资? 2:18:49 – TSMC 会把苹果踢出 N2 吗? 2:24:35 – 机器人和台湾风险 在 YouTube、Apple Podcasts 或 Spotify 上查找 Dwarkesh Podcast。享受吧!