Bagan ini diam-diam menunjukkan kepada Anda buku pedoman baru untuk perusahaan pengkodean AI dan tidak ada yang membicarakannya. Kognisi dan Kursor keduanya dimulai sebagai pembungkus yang berjalan di Claude dan GPT. Sekarang lihat tolok ukur ini. SWE-1.6 Kognisi di 51.7%. Komposer Kursor-1,5 pada 50,8%. Keduanya duduk dalam jarak menyerang Claude Opus 4.6 pada 53.6% dan GPT-5.3-Codex pada 56.8%. Tidak ada perusahaan yang melatih model pondasi dari awal. Keduanya mengambil model dasar sumber terbuka dan menerapkan pembelajaran penguatan di lingkungan pengkodean nyata. Swyx dari Cognition mengatakannya langsung di Hacker News: "semakin kurang penting kualitas model dasar selama itu cukup baik, karena kemudian RL dan pasca-pelatihan mengambil alih dan merupakan seluruh titik diferensiasi." Itu tesisnya. Model dasar adalah komoditas. Alur RL yang dilatih pada harness agen spesifik Anda, pola penggunaan alat Anda, sesi pengguna nyata Anda adalah lapisan yang dapat dipertahankan. Kognisi melatih SWE-1.6 pada harness Cascade mereka dengan dua urutan besarnya lebih banyak komputasi RL daripada SWE-1.5. Komposer yang dilatih kursor di dalam lingkungan IDE langsung dengan pengeditan file, pencarian semantik, dan perintah terminal. Keduanya bersama-sama merancang model dan produk bersama-sama. Matematika saat melompat menceritakan kisahnya. SWE-1.5 mencetak 40.1%. SWE-1.6 skor 51.7%. Model dasar yang sama. Kesimpulan 950 tok/s yang sama pada Cerebras. Seluruh peningkatan 11,6 poin berasal dari resep RL yang lebih baik dan lebih banyak komputasi. Itu adalah tingkat peningkatan yang lebih cepat daripada yang diperoleh kebanyakan lab foundation dari penskalaan pra-pelatihan. Ini adalah dua perusahaan $10 miliar+ (Cognition seharga $10,2 miliar, Kursor seharga $29,3 miliar) secara independen menyatu pada kesimpulan yang sama: Anda tidak perlu membangun GPT-5 untuk bersaing dengan GPT-5 dalam pengkodean. Anda membutuhkan RL dalam skala besar di atas basis yang cukup baik, yang dirancang bersama dengan infrastruktur agen Anda. Lapisan kecepatan juga penting. Kognisi berjalan pada 950 tok/s melalui Cerebras. Komposer berjalan pada 250 tok/s. Dalam alur kerja agen di mana model berulang puluhan kali per tugas, kesenjangan kecepatan 4x itu bertambah menjadi pengalaman pengguna yang sangat berbeda. Kognisi adalah kecepatan taruhan plus akurasi mengalahkan akurasi saja. Pertanyaan yang harus mengkhawatirkan OpenAI dan Anthropic: jika dua startup dapat mencapai 5 poin dari model terbaik Anda menggunakan RL pada basis sumber terbuka, apa yang terjadi ketika basis sumber terbuka menjadi lebih baik? Setiap peningkatan pada Llama atau Qwen mengalir langsung ke pipeline Cognition and Cursor. Laboratorium yayasan pada dasarnya mensubsidi pesaing mereka sendiri.