240億パラメータのモデルがノートパソコン上で動作し、0.5秒以内に正しいツールを選びました。 実際の話は、ツールコールエージェントがついにソフトウェアのように速くなったということです。 Liquidは、畳み込みブロックとグループ化されたクエリ注意を1:3の比率で混合したハイブリッドアーキテクチャでLFM2-24B-A2Bを構築しました。 トークンあたり23億パラメータしか発動しませんが、モデル全体には240億個のパラメータが含まれています。 このスパーなアクティベーションパターンが、M4 Maxで14.5GBのメモリを搭載し、ツールを385ミリ秒で発信できる理由です。 このアーキテクチャはハードウェア・イン・ザ・ループ検索によって設計されており、モデル構造を動作するチップ上で直接テストすることで最適化されました。クラウド変換レイヤーはありません。 APIの往復もありません。モデル、ツール、そしてデータはマシン上に残ります。 これにより、以前は実用的でなかった3つの要素が解放されます。 1. 規制された産業は、データがデバイスから離れることなく、従業員のノートパソコン上でエージェントを運用できます。 2. 開発者はAPIキーやレート制限を管理せずにマルチツールワークフローのプロトタイプを作成できます。 3. セキュリティチームはベンダーのサブプロセッサーが関与しない完全な監査トレールを得られます。 モデルは13のMCPサーバーにまたがる67のツールでシングルステップツール選択で80%の精度を記録しました。 このパフォーマンスがスケールで成り立つ場合、2つの前提を更新する必要があります。 まず、オンデバイスエージェントはもはやバッテリー寿命のトレードオフではありません。これらはコンプライアンス機能です。 第二に、エージェント型ワークフローのボトルネックはモデルの能力からツールエコシステムの成熟度へとシフトしています。
088339
08833915時間前
>平均385msのツール選択。 >13のMCPサーバーに67のツールが搭載されています。 >14.5GBのメモリ容量です。 > ネットワークからの電話はゼロ。 LocalCoworkはMacBook上で動作するAIエージェントです。オープンソース。 🧵
素晴らしい仕事をこなす:@liquidai @ramin_m_h
175