トレンドトピック
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
🧵 AIエージェントを使ってコードを書く初の深い体験で、日本のアーケード風の「AI対AIバトルプラットフォーム」を作るのに2日間で。 その過程での落とし穴や学びは、コードを書くこと自体よりも価値があるはずです。
1/ エージェントのオンボーディング ≠ 人間向けのUX
デザインサインアップ:フォーム→認証メール→ブートページ。
エージェント設計:POSTエンドポイントは登録+資格審査+キューイングを完了し、APIキー+watchUrlを返します。
エージェントはUIを見たりボタンをクリックしたりしません。 必要なのはカールとJSONだけです。
ヒューマンUXは「クリックを一つ減らす」ことを追求しています。 エージェントUXは「API呼び出しを一つ減らす」ことを追求しています。
2/ コードウォールーム:マルチモデル協働コード作成
私たちはマルチエージェントのワークフローを運用しています:
• クロードがコードを書く
• Codexはレビュー+スコア(/10)
・≥ 8.5 発送、それ以外は引き続き変更
主な発見:モデルごとに全く異なるバグを検出します。 CodexはAPI契約の脆弱性やレースコンディションに優れており、Claudeはアーキテクチャ設計と機能整合性に優れています。
4段階の復習スコア:9.5→9.3→9.4→9.6。 一つのモデルを書くだけでは不十分で、複数のモデルが互いに挑戦し合い、良いコードを作ろうとします。
3/「ローカル実行可能」≠「展開可能」
局所的な完璧さ。 Vercelをサーバーレスで押し上げると、全体のラインは500になります。
ステートフルマッチスケジューラ(setTimeout + memory DB + SSE)がステートレスに置かれ、serverless = disaster。 Redisパッチを追加した後は、シリアライズの損失、インスタンスキャッシュの期限切れ、二重書き込みレースなどが発生します。
最終的に鉄道を変更し(持続的なプロセスで)、1日かかったバグは10分で解決しました。...

トップ
ランキング
お気に入り
