トレンドトピック
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Lior Alexander
AIの最新開発ニュースを報じる • 創業者@AlphaSignalAI(ユーザー25万人)
2017年以降のMLエンジニア • 元ミラ
カーソルオートメーションは、エージェントコーディングが生み出した問題を解決します。
エンジニアは現在、10+のコーディングエージェントを同時に管理できるようになりましたが、人間の注意がボトルネックとなりました。
実際の仕事をしながら、12人のエージェントの面倒を見ることはできません。
自動化はモデルを逆にします。エージェントをあなたが起動する代わりに、イベントが起動します。統合PRはセキュリティ監査を引き起こします。
PagerDutyアラートがエージェントを起動し、ログを問い合わせて修正を提案します。Cronのジョブレビューは毎朝カバレッジの隙間をテストします。
各自動化は、MCP(エージェントがSlack、Linear、GitHub、Datadog、またはカスタムAPIに接続できる標準プロトコル)を通じて設定したツールに完全アクセスできる、隔離されたクラウドサンドボックス上で動作します。
エージェントはあなたの指示に従い、自分の作業を確認し、内蔵メモリシステムを通じて過去のプレイから学習します。
カーソルは内部で1時間あたり何百回もこれを動かしています。
彼らのセキュリティ自動化は、PRをブロックせずにすべてのプッシュをメインに監査することで複数の脆弱性を検出しました。
これにより、以前は実用的ではなかった4つの要素が解放されます:
1. 人間がスキップする深さでの継続的なコードレビュー
2. 呼び出しされる前に調査を始めるインシデント対応
3. 誰かが覚えているのではなく、スケジュール通りに行われるメンテナンス作業
4. ツール間の知識統合
これからの2年間は、最高の技術ではなく、誰が最高の工場を作るかによって定義されるでしょう。
最も速く動いている会社は、最高のエンジニアを擁しているわけではありません。
彼らはコードを書く代わりに自動化の設定に時間を費やすエンジニアたちです。

Cursor6時間前
私たちは、常時接続のエージェントを構築するためにカーソルオートメーションを導入します。
51
240億パラメータのモデルがノートパソコン上で動作し、0.5秒以内に正しいツールを選びました。
実際の話は、ツールコールエージェントがついにソフトウェアのように速くなったということです。
Liquidは、畳み込みブロックとグループ化されたクエリ注意を1:3の比率で混合したハイブリッドアーキテクチャでLFM2-24B-A2Bを構築しました。
トークンあたり23億パラメータしか発動しませんが、モデル全体には240億個のパラメータが含まれています。
このスパーなアクティベーションパターンが、M4 Maxで14.5GBのメモリを搭載し、ツールを385ミリ秒で発信できる理由です。
このアーキテクチャはハードウェア・イン・ザ・ループ検索によって設計されており、モデル構造を動作するチップ上で直接テストすることで最適化されました。クラウド変換レイヤーはありません。
APIの往復もありません。モデル、ツール、そしてデータはマシン上に残ります。
これにより、以前は実用的でなかった3つの要素が解放されます。
1. 規制された産業は、データがデバイスから離れることなく、従業員のノートパソコン上でエージェントを運用できます。
2. 開発者はAPIキーやレート制限を管理せずにマルチツールワークフローのプロトタイプを作成できます。
3. セキュリティチームはベンダーのサブプロセッサーが関与しない完全な監査トレールを得られます。
モデルは13のMCPサーバーにまたがる67のツールでシングルステップツール選択で80%の精度を記録しました。
このパフォーマンスがスケールで成り立つ場合、2つの前提を更新する必要があります。
まず、オンデバイスエージェントはもはやバッテリー寿命のトレードオフではありません。これらはコンプライアンス機能です。
第二に、エージェント型ワークフローのボトルネックはモデルの能力からツールエコシステムの成熟度へとシフトしています。
78
誰かがAppleのNeural Engineをバイパスしてモデルを訓練したのです。
すべてのMシリーズMacに搭載されているニューラルエンジンは推論のために設計されていました。
モデルを動かすだけで、トレーニングしないでください。公開APIもドキュメントも、ましてやバックプロパゲーションもありません。
研究者はプライベートAPIを逆解析し、ANEハードウェア上で順方向・後方パスを直接実行するトランストレーニングループを構築しました。
この方法はCoreMLを完全にバイパスします。
Appleの公式ツールを使う代わりに、プロジェクトはMIL(モデル中間言語)でプログラムを構築し、未公開の「_ANEClient」APIを使ってメモリ内でコンパイルし、IOSurfaceの共有メモリバッファを通じてデータをフィードしています。
重みはコンパイルされたプログラムに定数として組み込まれます。E
ACHトレーニングステップは6つのカスタムカーネルをディスパッチします:注意順位、フィードフォワード、そして入力に対する勾配を計算する4つの後方パスです。
重さ勾配はAccelerateのマトリックスライブラリを使ってCPU上で動作しますが、重い負荷(マトリックス乗算、ソフトマックス、アクティベーション関数)はANE上で行われます。
これにより、以前にはなかった3つのことが可能になりました。
1. バッテリーを消費せずにローカルで小型モデルを訓練する方法
2. サーバーにデータを送ったりGPUを起動したりせずに、デバイス上で微調整を行う
3. Appleのガードレールを無視した場合にANEハードウェアが実際に何ができるかを調査する
このアプローチが拡大すれば、次のオンデバイスAIの波は他人の凍結モデルを実行することではなくなるでしょう。

Vali Neagu3月2日 21:07
はい!誰かがAppleのニューラルエンジンを逆解析し、それにニューラルネットワークを訓練したのです。
Appleはこれを許しませんでした。ANEは推論のみです。公開APIもドキュメントもありません。
それでも彼らはそれを開けた。
なぜ重要なのか:
• M4 ANE = 6.6 TFLOPS/W vs A100の0.08(80×効率)
・「38 TOPS」は嘘です - 実際のスループットはFP16で19 TFLOPS
• あなたのMac miniにはこのチップがほとんどアイドル状態で放置されています
つまり、ローカルAIの推論が速く、しかもほとんど電力を使わないということです。
まだ初期の研究段階ですが、今は扉が開かれています。
→
#AI #MachineLearning #AppleSilicon #LocalAI #OpenSource #ANE #CoreML #AppleSilicon #NPU #KCORES

723
トップ
ランキング
お気に入り
