Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Haotian | CryptoInsight
Oberoende forskare | Rådgivare @ambergroup_io | Specialforskare @IOSGVC| Hardcore Science | Tidigare:@peckshield | DMs för Collab
#OKX kinesiska nyårsaftonsris @star_okx på hästen sa det så väl och träffade branschens smärtpunkter mitt i samtalet och skrattet!
Om bakgrunden för krypto bara är fientlig casinokultur som "stud", "PVP", "xx life" och "100x rich", så dödar vi faktiskt framtiden för denna bransch med våra egna händer, och vi kortar också $BTC i våra egna händer.
När stablecoins, RWA, AI+Crypto, DeFi osv. gradvis blir mainstream, är krypto inte längre den marginalindustri som föraktas av utomstående, utan en parallell bransch som verkligen motsvarar traditionell vertikal finans. Njut inte av branschens utdelning samtidigt som du använder vulgära "spelarberättelser" för att stigmatisera våra tidigare övertygelser.
Krypto vägrar att överskugga sig själv och förtjänar en bättre definition.
5,08K
Jag blev mållös, och inom en vecka blev mitt andra Claude-konto avstängt utan anledning.
Men ärligt talat fanns det inga vågor i mitt hjärta den här gången, och jag ville till och med skratta lite. Varför?
För att han redan har genomskådat den underliggande logiken i att vara oförklarligt blockerad, och för att han har en uppsättning smartare copingstrategier i händerna. Särskilt efter en månad av arbete mot Vibe Coding har jag etablerat ett moget tänkande för att kontrollera AI, vilket räcker för att lugnt kunna bekämpa denna plötsliga "förändring".
Låt oss prata om orsakerna först, och skälen är uppenbara: det är inget annat än den frekventa attacken på VPN-noden för att utlösa fjärrkontroll av risk, eller mismatchen mellan betalningsplatsen för Visa-kortet och terminalens IP som utlöser en säkerhetsvarning, eller så bestäms den kortsiktiga och högfrekventa tokenkonsumtionen helt enkelt och grovt av systemet som en skadlig bot.
Men det finns en djupare anledning: @claudeai Sea of Stars är en SaaS-tjänst på företagsnivå. De bryr sig om stora kunder som Fortune 500, och Anthropic bryr sig inte om enskilda Pro- eller Max-användare som vi som är starkt beroende av webbversionen, och ser det till och med som en okontrollerbar riskfaktor.
Därför finns det inget behov av att fortsätta kämpa med frågan om förbud. Den viktigaste läxan AI har lärt mig: koppla aldrig din kärnproduktivitet till ett extremt volatilt webbkonto.
Faktum är att den verkliga lösningen är att bygga ett modelloberoende AI-lokaliseringstjänstsystem:
1) Använd OpenRouter/Antigravity för att implementera modellåtkomstroutning, nedgradera Claude till en underliggande inferensmotor som kan bytas när som helst, för att undvika att fastna;
2) Använd tredjeparts-API:er utrustade med Claude Code + Skills + Cowork för att rekonstruera en uppsättning interaktionslogik, överge den mest okontrollerbara interaktionsmetoden i webbfront-end, och oroa dig inte för förlusten av stora mängder konfigurationspromptar/instruktioner och annan data orsakad av bannlysning, och låt AI finnas i ditt filsystem för att tillhandahålla tjänster;
3) Läs den lokala kodbasen direkt via MCP-protokollet, kalla din privata kunskapsbas i realtid med Local RAG (Local Search Enhancement), och kör till och med automatiskt tester, Git-commits och buggfix-loopar i terminalen.
Kort sagt, att överge AI-användningsmodellen "molnuthyrning" och aktivt greppa "lokal suveränitet" är den ultimata formen av Vibe Coding.
Vad är Vibe Coding om du bara kontrollerar den starkaste modellen men inte kan kontrollera den okränkbara rätten att använda modellen?
1,36K
Under CES-konferensen har NVIDIAs nylanserade Rubin-arkitektur blivit fokus för de senaste marknadsdiskussionerna, vad är ett annat stort genombrott utöver MOE-arkitekturen, vad som är anpassat för Agentic AI-eran, etc., jag tittade närmare och kände doften av Lao Huangs "självrevolution":
1) Tidigare förlitade sig Nvidia på fördelarna med GPU-hårdvaran och utnyttjade utdelningsperioden då stora AI-jättar febrilt köpte datorkraft för att träna stora modeller. Vid den tiden var logiken väldigt enkel: den som hade flest grafikkort kunde träna den bästa modellen.
Men nu har AI-krigföring skiftat från "datorkraft"-slagfältet till "inferens", särskilt efter Agentic-erans ankomst, AI måste hantera högfrekvent, flerstegs- och ultralånga kontextuella resonemang.
Vid denna tidpunkt är modellparametrarna biljoner, dataflödet är extremt stort, oavsett hur snabbt grafikkortet är, om minnesdatan inte är tillräckligt snabb måste GPU:n vara inaktiv, vilket är "lagringsväggen", med andra ord kan grafikkortet inte längre lösa problemet och behöver fortfarande hög videominnes- och bandbredd för att stödja det. Det var det Rubin försökte lösa.
2) Därför kan Rubins första HBM4 stödja fjärde generationen högbandbreddsminne, vilket kan göra bandbredden till 22 TB/s. Men viktigare är att den samarbetar med NVLink 6-teknologin (260TB/s bandbredd i racket), vilket logiskt förvandlar 72 kort till "ett jättestort chip".
Vad betyder detta? Tidigare, när man köpte ett grafikkort, köpte man oberoende komponenter, och dataöverföringen mellan korten var som en kurir som passerade flera överföringsstationer. Nu använder Rubin extremt högdensitetssammankopplingar för att få data att flöda mellan GPU:er med nästan inget fysiskt avstånd, och 72 arbetare arbetar inte längre separat utan delar en hjärna.
Jag tror att detta är Rubins verkliga avgörande drag: inte bara stapla hårdvaruparametrar, utan att refaktorera dataflödet i hela systemet.
3) Om MOE (Hybrid Expert Model Architecture) är ett smäll för dimensionsreduktion mot Nvidias affärsmodell för "violent stacking card" av stigande stjärnor som DeepSeek, så är Rubin en strategisk motattack från Lao Huang oavsett hur man ser på det. Självklart innebär detta knep också att Nvidia måste säga adjö till den gamla modellen med våldsam kortstapling.
Lao Huang räknar ut ett annat konto, om Agentic-eran verkligen landar i tusentals branscher måste den ta sig förbi tröskeln tokenkostnad, vilket är den allmänna trenden som Nvidia inte kan hålla.
Enligt Lao Huang är det istället för att vänta på att bli inkräktad av Google, Meta och andra stora tillverkare för att tränga in på marknaden, eller att bli undergrävda av DeepSeek och andra modeller, bättre att ta initiativet och vara den som bryter spelet.
4) Frågan är, hur kommer Nvidia att hantera sig självt efter självrevolutionen? Vägen är också mycket tydlig, från att "sälja grafikkort" till att "sälja system", från att betjäna några stora tillverkare till att göra AI verkligt populär.
Tidigare, när du köpte H100, tjänade Nvidia pengar på grafikkortet, och Rubin kommer att berätta för dig i framtiden: du måste köpa ett komplett set NVL72-rack – 72 GPU:er, NVLink Switch, komplett vätskekylsystem, skåp och till och med stödjande mjukvarustackar, allt paketerat och sålt till dig.
Lao Huangs abakus är också mycket tydlig, det verkar som att kostnaden för färdig hårdvara är dyrare, men med tillägget av extrem resonemangseffektivitet sänks enhetskostnaden för köparens AI, och den förlorar naturligtvis inte marknadsandel.
Men tröskeln för små och medelstora spelare är också högre. Endast stora tillverkare och molntjänstleverantörer har råd att delta, vilket ytterligare kommer att förvärra monopolet på datorkraft. I den nuvarande konkurrenssituationen kan det kallas en stor chansning, eftersom när det uppstår problem med massproduktionen av HBM4 kommer den att ersättas av alternativ lanserade av AMD, Google TPU och andra alternativ som utnyttjar tidsfönsterperioden, och Nvidias dröm om att sälja systemet kanske inte är lika lätt att förverkliga.
1,46K
Topp
Rankning
Favoriter