Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Lior Alexander
Bevakar de senaste utvecklingsnyheterna inom AI • Founder @AlphaSignalAI (250 000 användare)
ML Eng sedan 2017 • Före detta Mila
Cursor Automations löser problemet som agentisk kodning skapade.
Ingenjörer kan nu hantera 10+ kodningsagenter samtidigt, men mänsklig uppmärksamhet blev flaskhalsen.
Du kan inte passa ett dussin agenter samtidigt som du gör ditt faktiska jobb.
Automationer vänder på modellen: istället för att du startar agenter, gör händelser det. En sammanslagen PR utlöser en säkerhetsrevision.
En PagerDuty-varning startar en agent som söker loggar och föreslår en lösning. En Cron jobbgranskning testar täckningsluckor varje morgon.
Varje automation körs i en isolerad molnsandlåda med full tillgång till de verktyg du konfigurerar via MCP (ett standardprotokoll som låter agenter ansluta till Slack, Linear, GitHub, Datadog eller vilket anpassat API som helst).
Agenten följer dina instruktioner, verifierar sitt eget arbete och lär sig från tidigare körningar genom ett inbyggt minnessystem.
Cursor kör hundratals sådana per timme internt.
Deras säkerhetsautomation fångade flera sårbarheter genom att granska varje push till main utan att blockera PR:er.
Detta låser upp fyra saker som inte var praktiska tidigare:
1. Kontinuerlig kodgranskning på ett djup som människor hoppar över
2. Incidenthantering som börjar undersöka innan du blir uppkallad
3. Underhållsarbete som sker enligt schema, inte när någon minns
4. Kunskapssyntes över verktyg
De kommande två åren kommer att definieras av vem som bygger den bästa fabriken, inte den bästa koden.
De företag som rör sig snabbast är inte de med de bästa ingenjörerna.
Det är de vars ingenjörer lägger tid på att konfigurera automationer istället för att skriva kod.

Cursor7 timmar sedan
Vi introducerar cursor automations för att bygga alltid på-agenter.
56
En modell med 24 miljarder parametrar kördes bara på en laptop och valde rätt verktyg på under en halv sekund.
Den verkliga historien är att verktygsanropsagenter till slut blev tillräckligt snabba för att kännas som mjukvara.
Liquid byggde LFM2-24B-A2B med en hybridarkitektur som blandar konvolutionsblock med grupperad frågeuppmärksamhet i ett förhållande på 1:3.
Endast 2,3 miljarder parametrar aktiveras per token, trots att hela modellen rymmer 24 miljarder.
Det där sparsamma aktiveringsmönstret är anledningen till att det får plats med 14,5 GB minne och skickar verktyg på 385 millisekunder på en M4 Max.
Arkitekturen designades genom hårdvaru-i-loop-sökning, vilket innebär att de optimerade modellstrukturen genom att testa den direkt på de chip den skulle köras på. Inget molnöversättningslager.
Ingen API tur och retur. Modellen, verktygen och din data stannar kvar på maskinen.
Detta låser upp tre saker som tidigare var opraktiska:
1. Reglerade branscher kan köra agenter på anställdas bärbara datorer utan att data lämnar enheten.
2. Utvecklare kan prototypa arbetsflöden för flera verktyg utan att hantera API-nycklar eller hastighetsbegränsningar.
3. Säkerhetsteam får fullständiga revisionsspår utan leverantörssubprocessorer i loopen.
Modellen nådde 80 % noggrannhet vid enkelstegsval av verktyg över 67 verktyg fördelade på 13 MCP-servrar.
Om denna prestation håller i stor skala behöver två antaganden uppdateras.
För det första är agenter på enheten inte längre en kompromiss för batteriets livslängd; De är en efterlevnadsfunktion.
För det andra är flaskhalsen i agentiska arbetsflöden på väg från modellkapacitet till verktygsekosystemets mognad.
84
Någon har precis kringgått Apples Neural Engine för att träna modeller.
Neuralmotorn i varje M-serie Mac var designad för att kunna slutföras.
Kör modeller, träna dem inte. Inget publikt API, ingen dokumentation och definitivt ingen backpropagation.
En forskare baklänges ändå och konstruerade de privata API:erna och byggde en transformatorträningsslinga som går framåt och bakåt direkt på ANE-hårdvaran.
Metoden kringgår CoreML helt.
Istället för att använda Apples officiella verktyg konstruerar projektet program i MIL (Model Intermediate Language), kompilerar dem i minnet med odokumenterade '_ANEClient'-API:er och matar data via IOSurface delade minnesbuffertar.
Vikter bakas in i de kompilerade programmen som konstanter. E
ACH-träningssteget skickar ut sex anpassade kärnor: uppmärksamhet framåt, framåt matning, sedan fyra bakåtpassningar som beräknar gradienter med avseende på indata.
Viktgradienter körs fortfarande på CPU:n med hjälp av Accelerates matrisbibliotek, men det tunga arbetet (matrismultiplikationer, softmax, aktiveringsfunktioner) sker på ANE.
Detta gör tre saker möjliga som inte var det tidigare:
1. Träna små modeller lokalt utan att förbruka batteriet
2. Finjustering på enheten utan att skicka data till en server eller starta upp GPU:n
3. Undersök vad ANE-hårdvaran faktiskt kan göra när man ignorerar Apples skyddsräcken
Om detta tillvägagångssätt skalar slutar nästa våg av AI på enheten handla om att köra någon annans frysta modell.

Vali Neagu2 mars 21:07
JA! Någon har reverse-engineerat Apples Neural Engine och tränat ett neuralt nätverk på den.
Apple tillät aldrig detta. ANE är endast inferens. Inget publikt API, inga dokument.
De öppnade den ändå.
Varför det är viktigt:
• M4 ANE = 6,6 TFLOPS/W jämfört med 0,08 för en A100 (80× mer effektiv)
• "38 TOPS" är en lögn – verklig genomströmning är 19 TFLOPS FP16
• Din Mac mini har detta chip mestadels viloläget
Översättning: lokal AI-inferens som är snabbare OCH nästan inte använder någon ström.
Fortfarande tidig forskning men dörren är nu öppen.
→
#AI #MachineLearning #AppleSilicon #LocalAI #OpenSource #ANE #CoreML #AppleSilicon #NPU #KCORES

730
Topp
Rankning
Favoriter
