.@dylan522p profundiza en los 3 grandes cuellos de botella para escalar la computación de IA: lógica, memoria y energía. Y analiza la economía de laboratorios, hyperscalers, fundiciones y fabricantes de equipos de fabricación. Aprendí un montón sobre cada nivel de la pila. 0:00:00 – Por qué un H100 vale más hoy que hace 3 años 0:24:52 – Nvidia aseguró la asignación de TSMC temprano; Google está siendo presionado 0:34:34 – ASML será la #1 restricción para la escalabilidad de la computación de IA para 2030 0:56:06 – ¿No podemos simplemente usar las fábricas más antiguas de TSMC? 1:05:56 – ¿Cuándo superará China a Occidente en semiconductores? 1:16:20 – La enorme crisis de memoria que se avecina 1:42:53 – Escalar la energía en EE. UU. no será un problema 1:55:03 – Los GPUs espaciales no sucederán esta década 2:14:26 – ¿Por qué no hay más fondos de cobertura haciendo la inversión en AGI? 2:18:49 – ¿Desplazará TSMC a Apple de N2? 2:24:35 – Riesgo de robots y Taiwán Busca el Podcast de Dwarkesh en YouTube, Apple Podcasts o Spotify. ¡Disfruta!