.@dylan522p подробно рассказывает о 3 основных узких местах в масштабировании вычислений ИИ: логика, память и энергия. И рассматривает экономику лабораторий, гипермасштаберов, литейных заводов и производителей оборудования для производства чипов. Узнал много нового о каждом уровне стека. 0:00:00 – Почему H100 стоит больше сегодня, чем 3 года назад 0:24:52 – Nvidia заранее обеспечила выделение TSMC; Google испытывает давление 0:34:34 – ASML станет #1 ограничением для масштабирования вычислений ИИ к 2030 году 0:56:06 – Разве мы не можем просто использовать старые фабрики TSMC? 1:05:56 – Когда Китай обгонит Запад в полупроводниках? 1:16:20 – Огромный предстоящий кризис памяти 1:42:53 – Масштабирование энергии в США не будет проблемой 1:55:03 – Космические GPU не появятся в этом десятилетии 2:14:26 – Почему больше хедж-фондов не делают ставку на AGI? 2:18:49 – Выгонит ли TSMC Apple из N2? 2:24:35 – Риски с роботами и Тайванем Ищите подкаст Dwarkesh на YouTube, Apple Podcasts или Spotify. Приятного прослушивания!