Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Jessy Lin
Dottorato di ricerca @Berkeley_AI, visiting researcher @AIatMeta. Agenti linguistici 🤖 💬 interattivi
Mi piace davvero questa idea di avere agenti che controllano un computer con il tuo contesto e i tuoi dati, mentre tutti noi stiamo cercando di capire il giusto formato per gli agenti di utilizzo del computer/browser.
La risposta di zo è ~l'equivalente dei "computer personali" per l'era dell'IA, ed è così interessante pensare a come consenta alla persona media di scrivere script e automatizzare cose nella propria vita che altrimenti sarebbero inaccessibili.
Congratulazioni @0thernet @perceptnet !! 💻

ben guo 🪽19 nov 2025
today we're announcing @zocomputer.
when we came up with the idea – giving everyone a personal server, powered by AI – it sounded crazy.
but now, even my mom has a server of her own.
and it's making her life better.
she thinks of Zo as her personal assistant. she texts it to manage her busy schedule, using all the context from her notes and files. she no longer needs me for tech support.
she also uses Zo as her intelligent workspace – she asks it to organize her files, edit documents, and do deep research.
with Zo's help, she can run code from her graduate students and explore the data herself. (my mom's a biologist and runs a research lab. hi mom)
Zo has given my mom a real feeling of agency – she can do so much more with her computer.
we want everyone to have that same feeling. we want people to fall in love with making stuff for themselves.
in the future we're building, we'll own our data, craft our own tools, and create personal APIs. owning an intelligent cloud computer will be just like owning a smartphone. and the internet will feel much more alive.
THIS ONE'S FOR YOU MOM ❤️
special thank you to @modal, @pydantic AI, and @steeldotdev for being great partners leading up to this launch. and thank you @cursor_ai for being my sword 🗡️
and thank you to everyone who believed in us. a small handful: @southpkcommons, @adityaag, @chrisbest, @rauchg, @immad, @shreyas, @MattHartman, @lessin, @gokulr, @sabrinahahn, @iqramband, @whoisnnamdi, @guruchahal, @mikemarg_, @gaybrick, @SJCizmar, @magdovitz, @anneleeskates, @henloitsjoyce, @sugarjammi, @thevibethinker, @aaronmakhoffman, @Sunfield__
1,14K
Come parte del nostro recente lavoro sulle architetture a strati di memoria, ho scritto alcune delle mie riflessioni sul problema dell'apprendimento continuo in generale:
Post del blog:
Alcune delle spiegazioni vanno oltre i mem layers, quindi ho pensato che sarebbe utile evidenziarle separatamente:

2,54K
🧠 Come possiamo dotare i LLM di memoria che consenta loro di apprendere continuamente nuove cose?
Nel nostro nuovo articolo con @AIatMeta, mostriamo come il fine-tuning sparso dei livelli di memoria consenta aggiornamenti mirati per l'apprendimento continuo, con un'interferenza minima con la conoscenza esistente.
Mentre il fine-tuning completo e LoRA vedono drastici cali nelle prestazioni sui compiti riservati (📉-89% FT, -71% LoRA sui compiti di apprendimento dei fatti), i livelli di memoria apprendono la stessa quantità con molta meno dimenticanza (-11%).
🧵:

521
Principali
Ranking
Preferiti
