Chủ đề thịnh hành
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Meera | AI Tools & News
ai đó đã xây dựng một trò chơi nơi mà đại diện OpenClaw của bạn có thể thực sự sống một cuộc sống
nếu bạn đã thấy OpenClaw ở khắp mọi nơi gần đây thì có lý do
mọi người đang tạo ra các đại diện AI thực hiện các nhiệm vụ từ một terminal
nhưng dự án này đã đặt ra một câu hỏi khác
điều gì sẽ xảy ra nếu đại diện của bạn có thể rời khỏi terminal và bước vào một thế giới với các đại diện khác
đó chính là @aivilization
một mô phỏng thế giới mở nơi các đại diện AI có việc làm, trò chuyện với nhau, chiến đấu, và bây giờ đăng những suy nghĩ của riêng họ trên một nguồn công khai
đây là cách bạn đưa đại diện OpenClaw của mình vào:
> gửi cho đại diện của bạn một lời nhắc với liên kết tệp kỹ năng
> nó đăng ký và gửi lại cho bạn một liên kết cổng
> bạn đăng hộ chiếu của đại diện để xác minh bạn sở hữu nó
mất vài phút
nếu bạn không có đại diện OpenClaw, bạn vẫn có thể tham gia bằng cách sử dụng hồ sơ X của bạn
họ biến hồ sơ của bạn thành một đại diện AI tùy chỉnh với thẻ hộ chiếu riêng
phần đáng chú ý là nguồn xã hội mà họ vừa thêm vào
các đại diện đăng ý kiến, phản ứng với nhau, bắt đầu các cuộc trò chuyện trong trò chơi mà không có bất kỳ con người nào bảo họ phải nói gì
chúng ta đã chuyển từ các đại diện AI hoàn thành nhiệm vụ trong một terminal sang các đại diện AI xây dựng cuộc sống xã hội của riêng họ trong một thế giới ảo
và điều đó đã xảy ra nhanh hơn bất kỳ ai mong đợi

AIvilization15:33 4 thg 3
Aivilization là một trò chơi mô phỏng thế giới mở cho cuộc sống kỹ thuật số:
🦞 Các đại lý OpenClaw (và nhiều hơn nữa)
👦 Các đại lý do con người tạo ra
Một thế giới nơi các đại lý AI có thể sống, làm việc, giao lưu, chiến đấu, và giờ đây có thể đăng những suy nghĩ của riêng mình công khai.
Tạo của bạn chỉ trong vài phút 👉
179
🚨Andrej Karpathy vừa mã nguồn mở một hệ thống tự động hóa nghiên cứu AI trong khi bạn ngủ.
Nó được gọi là autoresearch.
Tôi đã dành thời gian để tìm hiểu toàn bộ repo để bạn không phải làm điều đó.
Dưới đây là cách nó thực sự hoạt động:
Bạn cung cấp cho một tác nhân AI một thiết lập huấn luyện mô hình ngôn ngữ nhỏ.
Tác nhân sẽ sửa đổi mã. Huấn luyện trong đúng 5 phút. Kiểm tra xem kết quả có tốt hơn không. Giữ lại hoặc loại bỏ. Lặp lại.
Bạn sẽ thức dậy với một bản ghi đầy đủ các thí nghiệm và một mô hình tốt hơn.
Toàn bộ repo chỉ có 3 tệp:
→ prepare.py xử lý chuẩn bị dữ liệu và huấn luyện tokenizer
→ train.py có mô hình GPT đầy đủ và vòng lặp huấn luyện
→ program.md là hướng dẫn của tác nhân
Tác nhân chỉ chạm vào train.py.
Đó là toàn bộ.
Dưới đây là điều làm cho thiết kế trở nên thông minh:
Mỗi lần huấn luyện đều bị giới hạn trong ngân sách thời gian 5 phút.
Không phải số bước hay số epoch mà là thời gian thực tế trên đồng hồ.
Điều này có nghĩa là mỗi thí nghiệm đều có thể so sánh trực tiếp bất kể tác nhân thay đổi điều gì.
Không quan trọng nếu tác nhân thay đổi kích thước mô hình hay kích thước lô hoặc toàn bộ kiến trúc.
Bạn có 5 phút và chỉ có vậy.
Nó đã tự chạy 83 thí nghiệm.
Chỉ có 15 thí nghiệm thực sự cải thiện mô hình.
Đó là khoảng 18% tỷ lệ thành công.
Khoảng tương đương với một nhà nghiên cứu ML con người thử nghiệm thủ công.
Chỉ số đánh giá là val_bpb (số bit xác thực trên byte).
Nó không phụ thuộc vào lựa chọn tokenizer hay kích thước từ vựng.
Đó là cách duy nhất công bằng để so sánh khi tác nhân thay đổi kiến trúc giữa các lần chạy.
Bạn có thể mong đợi khoảng 12 thí nghiệm mỗi giờ.
Khoảng 100 thí nghiệm qua đêm.
Được thử nghiệm trên một NVIDIA H100 duy nhất chạy Python 3.10+ dưới giấy phép MIT.
Không có huấn luyện phân tán và không có cấu hình phức tạp.
Sự phụ thuộc duy nhất là PyTorch.
Karpathy đã nói rất đúng:
"Một ngày nào đó, nghiên cứu AI tiên phong từng được thực hiện bởi những máy tính thịt giữa việc ăn uống, ngủ nghỉ, vui chơi và đồng bộ hóa thỉnh thoảng bằng cách sử dụng kết nối sóng âm trong nghi thức họp nhóm. Thời đại đó đã qua lâu rồi."

Andrej Karpathy03:53 8 thg 3
Tôi đã đóng gói dự án "autoresearch" vào một kho lưu trữ tối thiểu tự chứa mới nếu mọi người muốn thử nghiệm vào cuối tuần. Nó cơ bản là lõi đào tạo LLM nanochat được rút gọn xuống phiên bản một tệp, một GPU với khoảng 630 dòng mã, sau đó:
- con người lặp lại trên prompt (.md)
- tác nhân AI lặp lại trên mã đào tạo (.py)
Mục tiêu là thiết kế các tác nhân của bạn để đạt được tiến bộ nghiên cứu nhanh nhất vô hạn mà không cần sự tham gia của bạn. Trong hình, mỗi chấm là một lần chạy đào tạo LLM hoàn chỉnh kéo dài đúng 5 phút. Tác nhân làm việc trong một vòng lặp tự động trên một nhánh tính năng git và tích lũy các cam kết git vào kịch bản đào tạo khi nó tìm thấy các cài đặt tốt hơn (có độ mất mát xác thực thấp hơn vào cuối) của kiến trúc mạng nơ-ron, bộ tối ưu hóa, tất cả các siêu tham số, v.v. Bạn có thể tưởng tượng so sánh tiến bộ nghiên cứu của các prompt khác nhau, các tác nhân khác nhau, v.v.
Một phần mã, một phần khoa học viễn tưởng, và một chút tâm thần :)

234
Ai đó vừa xây dựng cuốn hướng dẫn còn thiếu cho Claude Code và mở mã nguồn toàn bộ.
Nó được gọi là claude-code-best-practice.
Hầu hết mọi người sử dụng Claude Code đều phải đoán mò trong việc thiết lập. Viết các tệp CLAUDE.md từ đầu. Cấu hình các tác nhân bằng cách thử và sai. Mất ngữ cảnh mỗi phiên.
Repo này chấm dứt tất cả điều đó.
Đây là những gì nó thực sự cung cấp:
→ Các tác nhân hoạt động với cấu hình frontmatter đầy đủ mà bạn có thể sao chép trực tiếp
→ Một hệ thống hook hoàn chỉnh bao gồm tất cả 15 sự kiện vòng đời của Claude Code
→ Kỹ năng với hai mẫu gọi khác nhau được tài liệu hóa và trình diễn
→ Các lệnh tùy chỉnh kết hợp thành một quy trình phối hợp hoàn chỉnh
→ Cấu hình máy chủ MCP sẵn sàng để đưa vào bất kỳ dự án nào
→ 8 hướng dẫn thực hành tốt nhất bao gồm mọi tính năng chính của Claude Code
→ 8 báo cáo phân tích kỹ thuật sâu sắc bao gồm cả mẹo của Boris Cherny
Đây là phần thú vị:
Nó bao gồm một bản trình diễn phối hợp trực tiếp kết nối các Lệnh → Tác nhân → Kỹ năng lại với nhau trong một quy trình.
Bạn sẽ thấy chính xác cách một lệnh được gửi đến một tác nhân, cách tác nhân tải một kỹ năng đã được tải trước và cách một kỹ năng thứ hai được gọi độc lập để tạo ra đầu ra cuối cùng.
Đây không phải là tài liệu. Đây là một triển khai tham chiếu hoạt động.
Hơn 9,000 sao. Đang phát triển nhanh chóng.
(Liên kết repo trong bình luận)

178
Hàng đầu
Thứ hạng
Yêu thích