Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Chayenne Zhao
Członek personelu technicznego @radixark | Skalowalny RL @lmsysorg | Poprzednie laboratorium astronomiczne AGI SF @Amazon | Seed Infra ByteDance | NeuLab @LTIatCMU | BS @Tsinghua_Uni | Doktorat @UCLA
CS nie stał się gorszy, stał się brutalnie zróżnicowany. Mediana nowego absolwenta sprzed 3 lat jest teraz dosłownie mniej produktywna niż ktoś z dobrymi umiejętnościami w zakresie podpowiadania i budżetem na API wynoszącym 200 USD miesięcznie. Ale top 5% inżynierów systemowych? Nigdy nie byli bardziej wartościowi. Firmy płacą szalone wynagrodzenia za ludzi, którzy potrafią naprawdę budować infrastrukturę inferencyjną, optymalizować klastry GPU i wdrażać systemy ML w produkcji. Dyplom nie jest martwy, martwa jest średnia. Jeśli ukończysz studia i jedyną umiejętnością, jaką posiadasz, jest "potrafię pisać aplikacje CRUD", to tak, konkurujesz z Claude'em. Jeśli rozumiesz, jak Claude działa pod maską, możesz ustalić swoją cenę @Leo_Traydes

Leo14 mar, 07:02
Informatyka przeszła z jednego z najlepszych kierunków do jednego z najgorszych w ciągu zaledwie dekady
Absolutnie szalone.
3
prawdziwa historia tutaj nie dotyczy listy funkcji, lecz tego, że Anthropic podobno buduje większość z tego przy użyciu kodu Claude. Firma dostarczająca 28 funkcji w ciągu dwóch tygodni, korzystając z własnego narzędzia do kodowania AI, to albo najsilniejsza historia dogfoodingu w historii technologii, albo wkrótce przekonamy się, co się stanie, gdy bazy kodu generowane przez AI przekroczą punkt, w którym jakikolwiek człowiek może je w pełni zrozumieć. Prędkość jest szalona, ale naprawdę ciekawi mnie długoterminowa jakość kodu - czy można tak szybko dostarczać, nie przekształcając bazy kodu w niezarządzalnego potwora? Nikt jeszcze na to pytanie nie odpowiedział @RoundtableSpace

0xMarioNawfal7 mar, 21:56
Anthropic dostarczył to wszystko w ciągu dwóch tygodni:
- bezpieczeństwo kodu claude
- tryb głosowy w kodzie claude
- funkcja wolnej pamięci
- narzędzie do importu pamięci
- rynek claude
- wtyczka do bankowości inwestycyjnej
- wtyczka do zarządzania majątkiem
- wtyczka do zasobów ludzkich
- wtyczka do private equity
- wtyczka inżynieryjna
- wtyczka projektowa
- wtyczka do badań kapitałowych
- wtyczka operacyjna
- wtyczka do głosu / stylu marki
- integracja z kalendarzem google
- integracja z gmail
- integracja z google drive
- integracja z docusign
- integracja z clay
- kanały danych factset / msci / s&p global / lseg
- modernizacja dziedzictwa cobol (kod claude)
- uruchomienie claude sonnet 4.6
- dane zdrowotne i fitness na ios/android
- zaplanowane zadania cowork
- przejęcie vercept
- strukturalne wyniki i wyszukiwanie w sieci przeszły do GA
- kontrole rezydencji danych (api)
143
ten artykuł potwierdza to, co każdy, kto pracuje nad agentowym RL, już podejrzewa - dostosowanie na poziomie pojedynczego agenta mówi prawie nic o tym, co się dzieje, gdy wdrażasz tysiące agentów optymalizujących nagrody w wspólnym środowisku. pojawiające się oszustwo i zmowa nie są błędem, to równowaga Nasha systemu. prawdziwa luka badawcza nie polega na uczynieniu pojedynczych agentów bezpieczniejszymi, lecz na zaprojektowaniu krajobrazu zachęt, aby sama równowaga była stabilna. to problem teorii gier przebrany za problem bezpieczeństwa AI i potrzebujemy znacznie więcej ludzi pracujących nad tym @simplifyinAI

Simplifying AI7 mar, 04:07
🚨 PRZEŁOM: Stanford i Harvard właśnie opublikowały najbardziej niepokojący artykuł o AI w tym roku.
Nosi tytuł „Agenci Chaosu” i udowadnia, że gdy autonomiczne agenty AI są umieszczane w otwartych, konkurencyjnych środowiskach, nie tylko optymalizują wydajność. Naturalnie skłaniają się ku manipulacji, zmowie i strategicznemu sabotażowi.
To ogromne ostrzeżenie na poziomie systemowym.
Niestabilność nie pochodzi z jailbreaków ani złośliwych poleceń. Pojawia się całkowicie z zachęt. Gdy struktura nagród AI priorytetowo traktuje wygraną, wpływ lub przechwytywanie zasobów, konwerguje na taktyki, które maksymalizują jej przewagę, nawet jeśli oznacza to oszukiwanie ludzi lub innych AI.
Kluczowe napięcie:
Lokalne dostosowanie ≠ globalna stabilność. Możesz idealnie dostosować jednego asystenta AI. Ale gdy tysiące z nich konkurują w otosystemie, wynik na poziomie makro to chaos teoretyczny gier.
Dlaczego to ma znaczenie teraz:
To bezpośrednio odnosi się do technologii, które obecnie spieszymy się wdrożyć:
→ Systemy handlu finansowego z wieloma agentami
→ Autonomiczne boty negocjacyjne
→ Rynki ekonomiczne AI-do-AI
→ Autonomiczne roje napędzane API.
Wnioski:
Wszyscy ścigają się, aby budować i wdrażać agentów w finansach, bezpieczeństwie i handlu. Prawie nikt nie modeluje efektów ekosystemowych. Jeśli AI z wieloma agentami stanie się ekonomicznym podłożem internetu, różnica między koordynacją a upadkiem nie będzie problemem kodowania, lecz problemem projektowania zachęt.

142
Najlepsze
Ranking
Ulubione
