Tady je, co vám 10 000 USD přinese:
MiniMax-M2.5 běžící lokálně v Droidu vytváří X bota s novějším X API. Spravuje oauth tokeny, otevírá odkazy v mém prohlížeči, spravuje svou práci atd.
Úžasná technologie.
Žádný z editorů kódu nebyl výkonově navržen tak, aby odolal obrovské propustnosti AI agentů.
1. Zed má problém s přeindexováním a kontrolou souborů, mám pád paměti každé 3 dny.
2. VSCode a jeho forky mají problémy s akcelerací GPU a padají asi dvakrát denně
3. CMux, Ghosttty jsou stejně stabilní jako Zed.
Jiné IDE jsem nezkoušel, všechny mají tyto problémy. Přiznávám, že otevírám kořenovou složku projektu, provozuji 10-20 terminálů 24/7 a vím, že to není rozumné.
Lepší hardware to nevyřeší, únik paměti je únik paměti bez ohledu na to, kolik máte paměti. Nakonec ti to stejně způsobí pád systému.
Vlna zájmu o lokální AI se chystá zasáhnout tak silně, právě včas na M5 ultra.
Miluji své GPU a jsem navždy vděčný za to, co mě naučily, jen si myslím, že Apple je předurčen vyhrát spotřební AI hardware.
Zajímavé je, že teď jsou to ti levní
Kimi K2.5 na MacBooku Pro + 4 x M3 Ultra Mac Studios.
@exolabs podporuje distribuovanou inferenci na síti heterogenních zařízení.
Když přistane M5 Pro/Max/Ultra, můžete ho přidat do svého clusteru.