.@dylan522p faz uma análise profunda sobre os 3 grandes gargalos para escalar a computação de IA: lógica, memória e energia. E percorre a economia de laboratórios, hyperscalers, fundições e fabricantes de equipamentos de fab. Aprendi muito sobre cada nível da pilha. 0:00:00 – Por que um H100 vale mais hoje do que há 3 anos 0:24:52 – A Nvidia garantiu a alocação da TSMC cedo; o Google está sendo pressionado 0:34:34 – A ASML será a #1 restrição para a escalabilidade da computação de IA até 2030 0:56:06 – Não podemos apenas usar as fábricas mais antigas da TSMC? 1:05:56 – Quando a China superará o Ocidente em semicondutores? 1:16:20 – A enorme crise de memória que se aproxima 1:42:53 – Escalar energia nos EUA não será um problema 1:55:03 – GPUs espaciais não acontecerão nesta década 2:14:26 – Por que mais fundos de hedge não estão fazendo a negociação de AGI? 2:18:49 – A TSMC vai expulsar a Apple do N2? 2:24:35 – Risco de robôs e Taiwan Procure o Podcast Dwarkesh no YouTube, Apple Podcasts ou Spotify. Aproveite!