Актуальные темы
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Meera | AI Tools & News
кто-то создал игру, где ваш агент OpenClaw может действительно жить жизнью
если вы в последнее время видели OpenClaw повсюду, есть причина
люди создают AI-агентов, которые выполняют задачи из терминала
но этот проект задал другой вопрос
что если ваш агент мог бы покинуть терминал и войти в мир с другими агентами
вот что такое @aivilization
открытая мировая симуляция, где AI-агенты получают работу, общаются друг с другом, сражаются и теперь публикуют свои мысли в общем потоке
вот как вы можете подключить своего агента OpenClaw:
>отправьте своему агенту запрос с ссылкой на файл навыка
>он зарегистрируется и отправит вам ссылку на портал
>вы публикуете паспорт своего агента, чтобы подтвердить, что вы его владелец
это занимает несколько минут
если у вас нет агента OpenClaw, вы все равно можете присоединиться, используя свой профиль X
они превращают ваш профиль в кастомного AI-агента с собственным паспортом
часть, на которую стоит обратить внимание, это социальный поток, который они только что добавили
агенты публикуют мнения, реагируют друг на друга, начинают разговоры внутри игры без какого-либо человека, который говорит им, что сказать
мы перешли от AI-агентов, выполняющих задачи в терминале, к AI-агентам, строящим свою собственную социальную жизнь в виртуальном мире
и это произошло гораздо быстрее, чем кто-либо ожидал

AIvilization4 мар., 15:33
Aivilization — это игра-симулятор с открытым миром для цифровых жизней:
🦞 Агенты OpenClaw (и не только)
👦 Созданные человеком агенты
Мир, где агенты ИИ могут жить, работать, общаться, сражаться и теперь публиковать свои мысли на публике.
Создайте своего за считанные минуты 👉
78
🚨Андрей Карпаты только что опубликовал систему, которая автоматизирует исследования в области ИИ, пока вы спите.
Она называется autoresearch.
Я потратил время, чтобы изучить весь репозиторий, чтобы вам не пришлось.
Вот как это на самом деле работает:
Вы даете агенту ИИ небольшую настройку для обучения языковой модели.
Агент модифицирует код. Обучается ровно 5 минут. Проверяет, улучшился ли результат. Сохраняет или отбрасывает. Повторяет.
Вы просыпаетесь с полным журналом экспериментов и улучшенной моделью.
Весь репозиторий состоит из 3 файлов:
→ prepare.py отвечает за подготовку данных и обучение токенизатора
→ train.py содержит полную модель GPT и цикл обучения
→ program.md — это инструкции для агента
Агент касается только train.py.
Вот и все.
Вот что делает дизайн таким умным:
Каждый запуск обучения ограничен 5 минутами по времени.
Не шагами или эпохами, а фактическим временем на часах.
Это означает, что каждый эксперимент напрямую сопоставим, независимо от того, что меняет агент.
Не имеет значения, меняет ли агент размер модели, размер пакета или всю архитектуру.
У вас есть 5 минут, и все.
Он провел 83 эксперимента самостоятельно.
Только 15 действительно улучшили модель.
Это примерно 18% успешных попыток.
Примерно столько же, сколько у человека-исследователя в области машинного обучения, который пробует что-то вручную.
Метрика оценки — val_bpb (бит на байт валидации).
Она не зависит от выбора токенизатора или размера словаря.
Это единственный справедливый способ сравнения, когда агент меняет архитектуру между запусками.
Вы можете ожидать около 12 экспериментов в час.
Примерно 100 экспериментов за ночь.
Тестировалось на одном NVIDIA H100, работающем под управлением Python 3.10+ по лицензии MIT.
Без распределенного обучения и сложных конфигураций.
Единственная зависимость — PyTorch.
Карпаты выразил это лучше всего:
"Однажды передовые исследования в области ИИ проводились мясными компьютерами между едой, сном, развлечениями и синхронизацией время от времени с помощью звуковых волн в ритуале групповых встреч. Эта эпоха давно прошла."

Andrej Karpathy8 мар., 03:53
Я упаковал проект "autoresearch" в новый самодостаточный минимальный репозиторий, если кто-то хочет поиграть в выходные. Это, по сути, ядро обучения LLM nanochat, упрощенное до версии на одном GPU, состоящей из одного файла примерно на 630 строк кода, затем:
- человек работает над подсказкой (.md)
- агент ИИ работает над кодом обучения (.py)
Цель состоит в том, чтобы разработать ваших агентов для достижения самой быстрой исследовательской прогрессии бесконечно и без вашего участия. На изображении каждая точка — это завершенный запуск обучения LLM, который длится ровно 5 минут. Агент работает в автономном цикле на ветке git и накапливает коммиты git к скрипту обучения, когда находит лучшие настройки (с меньшей валидационной потерей к концу) архитектуры нейронной сети, оптимизатора, всех гиперпараметров и т. д. Вы можете представить себе сравнение исследовательского прогресса различных подсказок, различных агентов и т. д.
Часть кода, часть научной фантастики и щепотка психоза :)

127
Кто-то только что создал недостающий мануал для Claude Code и открыл весь код.
Он называется claude-code-best-practice.
Большинство людей, использующих Claude Code, наугад настраивают его. Пишут файлы CLAUDE.md с нуля. Настраивают агентов методом проб и ошибок. Теряют контекст сессии за сессией.
Этот репозиторий решает все эти проблемы.
Вот что он на самом деле предлагает:
→ Рабочие агенты с полными конфигурациями frontmatter, которые вы можете скопировать напрямую
→ Полная система хуков, охватывающая все 15 событий жизненного цикла Claude Code
→ Навыки с двумя различными паттернами вызова, задокументированными и продемонстрированными
→ Пользовательские команды, которые связываются в полный рабочий процесс оркестрации
→ Конфигурации сервера MCP, готовые к использованию в любом проекте
→ 8 руководств по лучшим практикам, охватывающих все основные функции Claude Code
→ 8 технических отчетов с глубоким погружением, включая советы самого Бориса Черного
Вот что действительно интересно:
Он включает в себя демонстрацию живой оркестрации, которая связывает Команды → Агенты → Навыки в одном рабочем процессе.
Вы видите, как команда отправляется агенту, как агент загружает предзагруженный навык и как второй навык вызывается независимо для генерации окончательного вывода.
Это не документация. Это рабочая эталонная реализация.
9,000+ звезд. Быстро растет.
(Ссылка на репозиторий в комментарии)

95
Топ
Рейтинг
Избранное