Актуальні теми
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Lior Alexander
Висвітлення останніх новин розробки в AI • Founder @AlphaSignalAI (250 тис. користувачів)
ML Eng з 2017 року • Ex-Mila
Cursor Automations вирішує проблему, яку створив агентний код.
Інженери тепер можуть керувати 10+ кодовими агентами одночасно, але людська увага стала вузьким місцем.
Ти не можеш доглядати за десятком агентів, одночасно виконуючи свою справжню роботу.
Автоматизація перевертає модель: замість запуску агентів це роблять події. Об'єднаний PR запускає аудит безпеки.
Сповіщення PagerDuty запускає агента, який запитує журнали та пропонує виправлення. Вакансія cron щоранку перевіряє прогалини в покритті.
Кожна автоматизація працює в ізольованій хмарній пісочниці з повним доступом до інструментів, які ви налаштовуєте через MCP (стандартний протокол, що дозволяє агентам підключатися до Slack, Linear, GitHub, Datadog або будь-якого кастомного API).
Агент виконує ваші інструкції, перевіряє свою роботу та навчається на минулих запусках через вбудовану систему пам'яті.
Cursor запускає сотні таких пристроїв на годину внутрішньо.
Їхня автоматизація безпеки виявляла кілька вразливостей, перевіряючи кожен push to main без блокування PR.
Це відкриває 4 речі, які раніше були непрактичними:
1. Безперервний перегляд коду на глибині, яку пропускає людина
2. Реагування на інциденти, яке починає розслідування ще до того, як вас викликають
3. Технічні роботи, які відбуваються за графіком, а не коли хтось пам'ятає
4. Синтез знань між інструментами
Наступні два роки визначатимуться тим, хто побудує найкращий завод, а не найкращий код.
Компанії, які рухаються найшвидше, не мають найкращих інженерів.
Саме вони будуть тими, чиї інженери витратили час на налаштування автоматизації замість написання коду.

Cursor7 годин тому
Ми впроваджуємо автоматизацію курсорів для створення агентів, які завжди вмикаються.
55
Модель з 24 мільярдами параметрів щойно працювала на ноутбуці і вибрала потрібний інструмент менш ніж за півсекунди.
Справжня історія в тому, що агенти з викликом інструментів нарешті стали достатньо швидкими, щоб відчуватися як програмне забезпечення.
Liquid створила LFM2-24B-A2B за допомогою гібридної архітектури, яка поєднує блоки згортки з групованою увагою запитів у співвідношенні 1:3.
Активується лише 2,3 мільярда параметрів на токен, хоча повна модель містить 24 мільярди.
Саме через цей рідкісний патерн активації він поміщається на 14,5 ГБ пам'яті та відправляє інструменти за 385 мілісекунд на M4 Max.
Архітектура була розроблена за допомогою апаратного пошуку в циклі, тобто вони оптимізували структуру моделі, тестуючи її безпосередньо на чипах, на яких вона працювала. Жодного шару перекладу хмари.
Без API туди й назад. Модель, інструменти та ваші дані залишаються на машині.
Це відкриває три речі, які раніше були непрактичними:
1. Регульовані галузі можуть запускати агентів на ноутбуках працівників без виходу даних з пристрою.
2. Розробники можуть створювати прототипи багатофункціональних робочих процесів без керування ключами API чи обмеженнями швидкості.
3. Команди безпеки отримують повні аудиторські сліди без підпроцесорів постачальників.
Модель досягла 80% точності при виборі інструментів за один крок у 67 інструментах на 13 MCP-серверах.
Якщо ця динаміка зберігається у масштабі, потрібно уточнити два припущення.
По-перше, агенти на пристрої більше не є компромісом за час роботи батареї; Це функція відповідності.
По-друге, вузьке місце в агентних робочих процесах переходить від можливостей моделі до зрілості екосистеми інструментів.
83
Хтось щойно обійшов нейронний двигун Apple, щоб навчити моделі.
Нейронний двигун у кожному Mac серії M був розроблений для інференції.
Запускайте моделей, не тренуйте їх. Немає публічного API, немає документації і, звичайно, немає зворотного поширення.
Один дослідник все ж провів зворотне інжинірування приватних API і створив тренувальний контур трансформатора, який проходить передачі вперед і назад безпосередньо на апаратному забезпеченні ANE.
Метод повністю обходить CoreML.
Замість використання офіційних інструментів Apple проєкт створює програми на MIL (Model Intermediate Language), компілює їх у пам'яті за допомогою незадокументованих API '_ANEClient' та передає дані через буфери спільної пам'яті IOSurface.
Ваги закріплюються в компільованих програмах як константи. E
Крок навчання ACH розподіляє шість власних ядер: Attention Forward, Feedforward Forward, а потім Four Backward Pass, які обчислюють градієнти щодо вхідних даних.
Градієнти ваги все ще працюють на процесорі з використанням матричних бібліотек Accelerate, але основна робота (множення матриці, softmax, функції активації) відбувається на ANE.
Це робить можливими три речі, яких раніше не було:
1. Навчання малих моделей локально без витрати батареї
2. Тонке налаштування пристрою без передачі даних на сервер або запуску GPU
3. Дослідити, що насправді може робити апаратне забезпечення ANE, якщо ігнорувати захисні бар'єри Apple
Якщо такий підхід масштабується, наступна хвиля штучного інтелекту на пристрої перестане бути про запуск чужої замороженої моделі.

Vali Neagu2 бер., 21:07
ТАК! Хтось реверс-інженерував нейронний двигун Apple і навчив на ньому нейронну мережу.
Apple ніколи цього не дозволяла. ANE — це лише виведення. Немає публічного API, немає документації.
Вони все одно відкрили її.
Чому це важливо:
• M4 ANE = 6,6 TFLOPS/W проти 0,08 у A100 (на 80× ефективніше)
• «38 TOPS» — це брехня — реальна пропускна здатність становить 19 TFLOPS FP16
• У вашому Mac mini цей чіп майже не працює
Переклад: локальний AI-висновок, який швидший І майже не споживає енергії.
Ще ранні дослідження, але двері відкриті.
→
#AI #MachineLearning #AppleSilicon #LocalAI #OpenSource #ANE #CoreML #AppleSilicon #NPU #KCORES

729
Найкращі
Рейтинг
Вибране
